首页 > 其他 > 详细

IMF前期知识储备-What is Spark详细讲解(四大特性)

时间:2016-02-16 19:10:05      阅读:538      评论:0      收藏:0      [点我收藏+]

Spark 官方网站使用如下简洁的语言描述了Spark

技术分享我们可以从中提取出如下信息:

Spark是一个引擎

  1. 快速

  2. 通用

Spark可以用来处理数据

  1. 数据是大规模的

Spark本身并不提供数据存储能力,它只是一个计算框架


它的快速体现在什么地方呢?

技术分享如果处理的数据在内存中,运行MapReduce比hadoop要快100倍以上,要是数据在磁盘中,也比Hadoop快10倍以上。

为什么会快呢,Spark在处理数据的时候,使用了一个高级的执行引擎:DAG - 有向无环图 。以及内存计算。


易于使用:

可以使用scala、java、Python等语言快速的开发应用程序。Spark提供了超过80个操作来简单的构建并行应用。只需几行代码,就可以完成wordcount的计算。

技术分享


通用性:

Spark 提供了大数据一栈式解决方案。包含了流计算、图计算、机器学习、SQL等。

技术分享

对于开发、维护、学习成本都是大大的降低。


运行在任何地方:

Spark可以运行在Hadoop的YARN、Mesos, standalone,或者运行在云上。

Spark 处理的数据,可以存储在HDFS, Cassandra, HBase,和S3等等。 


技术分享


Spark的发展非常快速,TimeLine如下

技术分享

Spark进入Apache后,发展非常迅速。版本发布比较频繁。


Spark的生态体系(BDAS,中文:伯克利分析栈)

  • MapReduce属于Hadoop生态体系之一,Spark则属于BDAS生态体系之一

  • Hadoop包含了MapReduce、HDFS、HBase、Hive、Zookeeper、Pig、Sqoop等

  • BDAS包含了Spark、Shark(相当于Hive)、BlinkDB、Spark Streaming(消息实时处理框架,类似Storm)等等

BDAS生态体系图:

技术分享



MapReduce和Spark比较

技术分享

异同点:

  1. 基本原理上

  • MapReduce 是基于磁盘的大数据批量处理

  • Spark 是基于RDD(弹性分布式数据集)数据处理,RDD可以存储在内存中,也可以存储在磁盘中。

2. 模型上

  • MapReduce 适合处理超大规模的数据集,用于批处理。适合处理较少迭代的长任务需求。

  • Spark 适合数据挖掘,迭代次数较多的,例如机器学习等多轮迭代任务。 

3. 容错性

  • MapReduce的每一步迭代,都需要将结果写入硬盘,然后再从硬盘中读取数据计算。只要一步失败,则整个任务都失败。

  • Spark使用DAG将任务拆分成许多步骤,每个步骤迭代的过程中,数据写内存。而且Spark还提供容错功能。






本文出自 “叮咚” 博客,请务必保留此出处http://lqding.blog.51cto.com/9123978/1742539

IMF前期知识储备-What is Spark详细讲解(四大特性)

原文:http://lqding.blog.51cto.com/9123978/1742539

(0)
(0)
   
举报
评论 一句话评论(0
关于我们 - 联系我们 - 留言反馈 - 联系我们:wmxa8@hotmail.com
© 2014 bubuko.com 版权所有
打开技术之扣,分享程序人生!