首页 > 其他 > 详细

Spark之MapReduce原理

时间:2017-11-13 20:42:43      阅读:254      评论:0      收藏:0      [点我收藏+]

参考http://www.cnblogs.com/wuyudong/p/mapreduce-principle.html

 

MapReduce

 

我们来拆开看:

        Mapping(映射)对集合里的每个目标应用同一个操作。

        Reducing(化简)遍历集合中的元素来返回一个综合的结果。

 

主体思路是通过分散计算来分析大量数据。

 

1.大数据的并行化计算:

 

    并行计算需要考虑如何划分计算任务或者计算数据以便对划分的子任务或数据块同时进行计算。但是,前后数据之间存在很强的依赖关系,只能串行计算。

   一个大数据如果可以分为具有同样计算过程的数据块,并且这些数据块之间不存在数据依赖关系,则提高处理速度的最好办法就是并行计算。

技术分享

技术分享

2.主要特征与设计思想

(1)向‘外’横向扩展,而非向“上”纵向扩展,scala "out",not"up"

(2)失效被认为是常态,Assume failures are common

(3)把处理向数据迁移,Moving processing to the data

(4)顺序处理数据、避免随机访问数据,Process data sequentially and avoid random access

  MapReduce设计为面向大数据集批处理的并行计算系统,所有计算都被组织成很长的流式操作,以便能利用分布在集群中大量节点上磁盘集合的高传输带宽。

(5)为应用开发者隐藏系统层细节,Hide system-level details from the application developer

(6)平滑无缝的可扩展性,Seamless scalability 。 数据扩展和系统规模扩展。

Spark之MapReduce原理

原文:http://www.cnblogs.com/BigStupid/p/7827953.html

(0)
(0)
   
举报
评论 一句话评论(0
关于我们 - 联系我们 - 留言反馈 - 联系我们:wmxa8@hotmail.com
© 2014 bubuko.com 版权所有
打开技术之扣,分享程序人生!