在Spark中创建RDD的创建方式可以分为四种
从集合中创建 RDD,Spark 主要提供了两个方法:parallelize 和 makeRDD
scalaval sparkConf = new SparkConf().setMaster("local[*]").setAppName("spark") val sparkContext = new SparkContext(sparkConf) val rdd1 = sparkContext.parallelize( List(1,2,3,4) ) val rdd2 = sparkContext.makeRDD( List(1,2,3,4) ) rdd1.collect().foreach(println) rdd2.collect().foreach(println) sparkContext.stop()


Ambari2.7.5、HDP3.1.5、libtirpc-devel:
链接: https://pan.baidu.com/s/1J1H4gUnEt204nNBOzlGLIg?pwd=1024
提取码: 1024
jdk1.8:
链接: https://pan.baidu.com/s/1ac5iuH4gVyopn3LuC5QWyQ?pwd=1024
提取码: 1024
pssh-2.3.1:
链接: https://pan.baidu.com/s/11erMCZsYVjJSvyM1f_6Oiw?pwd=1024
提取码: 1024
maven-3.8.3:
链接: https://pan.baidu.com/s/17aeb2PY6Ie24QdOhv8c42w?pwd=1024
提取码: 1024
centos7操作系统:
链接: https://pan.baidu.com/s/1A7tE0P10n0ebC1zVu4sOiQ?pwd=1024
提取码: 1024