更新时间:2021-03-23 来源:黑马程序员 浏览量:

Spark可以通过并行集合创建RDD。即从一个已经存在的集合、数组上,通过SparkContext对象调用parallelize()方法创建RDD。
若要创建RDD,则需要先创建一个数组,再通过执行parallelize()方法实现,具体代码如下:
scala> val array=Array(1,2,3,4,5) array: Array[Int]=Array(1,2,3,4,5) scala> val arrRDD=sc.parallelize(array) arrRDD: org.apache.spark.rdd.RDD[Int]=ParallelcollectionRDD[6] at parallelize at <console>:26
执行上述代码后,从返回结果arrRDD的属性中看出RDD创建完成。
猜你喜欢:
AI鸿蒙原生智能正式版课程,培养全端跨平台鸿蒙工程师
2026-03-10AI鸿蒙原生智能正式版课程,培养全端跨平台鸿蒙工程师
2026-03-10毕业16个工作日,平均薪资13180元,就业率100%,广州黑马AI智能应用开发(Java)学科20250529班
2026-03-06毕业32个工作日,平均薪资11147元,就业率95%,广州黑马AI智能应用开发(Java)学科20250326班
2026-03-05黑马程序员2025全国就业数据发布:全学科平均就业率92.07%,AI开发类就业平均薪资达11869.67元。
2026-03-05黑马全国校区齐开班!场面太太太壮观了!
2026-03-03