首页 > 其他 > 详细

【Spark亚太研究院系列丛书】Spark实战高手之路-第3章Spark架构设计与编程模型第3节:Spark架构设计(1)

时间:2014-12-26 14:19:18      阅读:248      评论:0      收藏:0      [点我收藏+]

一、以RDD为基石的Spark编程模型

在Spark中一切都是基于RDD的:

技术分享

什么是RDD呢?官方给出的解释是:

技术分享

也就是说每个RDD都至少有以下三个函数实现:

技术分享

Spark自带了非常多的RDD:

技术分享

RDD主要分为两种:

技术分享

其中的transformations是lazy execution的,需要具体的action去触发,每个action操作都是一个单独的job;

接下来我们看一个具体的RDD操作的例子:

技术分享

RDD中有两个比较特殊的RDD:

技术分享

这两个RDD的特殊之处在于皆是控制性操作的RDD:

技术分享

二,RDD的依赖和运行时

在Spark中RDD是具备依赖关系的,而依赖分为两种:

技术分享

“Narrow”依赖的一个好处就是可以进行内部的pipeline操作:

技术分享

运行的时候是以RDD为统一抽象并行化运行:

技术分享

更进一步的详细RDD并行化计算过程如下所示:

技术分享

正如所有的分布式结构一样,Spark分布式集群也是主从结构的:

技术分享

Spark运行时组件如下所示:

技术分享

Spark运行时候的事件流如下所示:

技术分享

【Spark亚太研究院系列丛书】Spark实战高手之路-第3章Spark架构设计与编程模型第3节:Spark架构设计(1)

原文:http://www.cnblogs.com/spark-china/p/4186501.html

(0)
(0)
   
举报
评论 一句话评论(0
关于我们 - 联系我们 - 留言反馈 - 联系我们:wmxa8@hotmail.com
© 2014 bubuko.com 版权所有
打开技术之扣,分享程序人生!