首页 > 其他 > 详细

Spark HA模式访问Hadoop HA下的数据

时间:2017-06-22 12:55:27      阅读:457      评论:0      收藏:0      [点我收藏+]

首先是需要将hadoop的配置文件core-site,xml和hdfs-site.xml 拷贝到Spark conf目录下

然后启动提交即可

spark-submit --master spark://hadoop-namenode-01:7077,hadoop-namenode-02:7077 \
--class org.apache.spark.examples.SparkPi --deploy-mode cluster --executor-memory 4G --total-executor-cores 10 hdfs://bi/spark-examples-1.6.0-hadoop2.6.4.jar \
100

 

Spark HA模式访问Hadoop HA下的数据

原文:http://www.cnblogs.com/atomicbomb/p/7064326.html

(0)
(0)
   
举报
评论 一句话评论(0
关于我们 - 联系我们 - 留言反馈 - 联系我们:wmxa8@hotmail.com
© 2014 bubuko.com 版权所有
打开技术之扣,分享程序人生!