首页 > 其他 > 详细

Spark3000门徒第15课RDD创建内幕彻底解密总结

时间:2016-01-19 00:00:37      阅读:329      评论:0      收藏:0      [点我收藏+]

今晚听了王家林老师的第15课RDD创建内幕彻底解密,课堂笔记如下:

Spark driver中第一个RDD:代表了Spark应用程序输入数据的来源.后续通过Transformation来对RDD进行各种算子的转换实现算法

创建RDD的方法:
1,使用程序中的集合创建RDD;2,使用本地文件系统创建RDD;3,使用HDFS创建RDD 4,基于DB创建RDD
5,基于NoSQL,例如HBase 6,基于S3创建RDD 7,基于数据流创建RDD

不指定并行度,有多少core就用多少core,所以需要资源管理,防止一次就耗光了资源。

reduce是action,不产生新的RDD
spark 的map和fiter以及简单的reduceByKey不需要shuffle,比hadoop快很多。

val rdd = sc.parallelize(numbers,10) 指定并行度10

直接访问hbase,mysql需要考虑数据本地性

 

后续课程可以参照新浪微博 王家林_DT大数据梦工厂:http://weibo.com/ilovepains

王家林  中国Spark第一人,微信公共号DT_Spark

 

转发请写明出处。

Spark3000门徒第15课RDD创建内幕彻底解密总结

原文:http://www.cnblogs.com/haitianS/p/5140789.html

(0)
(0)
   
举报
评论 一句话评论(0
关于我们 - 联系我们 - 留言反馈 - 联系我们:wmxa8@hotmail.com
© 2014 bubuko.com 版权所有
打开技术之扣,分享程序人生!