首页 > 其他 > 详细

Spark计算模型

时间:2019-01-12 23:36:53      阅读:167      评论:0      收藏:0      [点我收藏+]

通过一个经典的程序来说明

//输入与构造
RDD val file=sc.textFile("***")
//转换Transformation
val errors=file.filter(line=>line.contains("ERRORS")) 
//输出
Action  error.count()

从RDD的转换和存储角度看这个过程:

技术分享图片

 

用户程序对RDD通过多个函数进行操作,将RDD进行转换。

Block-Manager管理RDD的物理分区,每个Block就是节点上对应的一个数据块,可以存储在内存或者磁盘。

而RDD中的partition是一个逻辑数据块,对应相应的物理块Block。

本质上一个RDD在代码中相当于是数据的一个元数据结构,存储着数据分区及其逻辑结构映射关系,存储着RDD之前的依赖转换关系

后面依次介绍此模型中的各个关键组件

Spark计算模型

原文:https://www.cnblogs.com/miranda-wu/p/10261371.html

(0)
(0)
   
举报
评论 一句话评论(0
关于我们 - 联系我们 - 留言反馈 - 联系我们:wmxa8@hotmail.com
© 2014 bubuko.com 版权所有
打开技术之扣,分享程序人生!