首页 > Windows开发 > 详细

spark之开发环境配置(windows)

时间:2019-02-13 17:04:41      阅读:236      评论:0      收藏:0      [点我收藏+]

特注:windows下开发spark不需要在本地安装hadoop,但是需要winutils.exe、hadoop.dll等文件,前提是你已经安装了eclipse、maven、jdk等软件。spark支持jdk版本建议是1.8及以上,如果开发spark建议将jdk编译版本设置为1.8。

Spark

下载

网址:http://spark.apache.org/downloads.html

 技术分享图片

技术分享图片

解压

 技术分享图片

环境变量配置

在cmd下输入以下命令:setx PATH “F:\spark\spark-2.4.0-bin-hadoop2.7\bin;%PATH%”

验证配置

在cmd下输入spark-shell命令

 技术分享图片

如上,可以看到对应的spark、scala、java版本,同时也看到了异常信息,该异常信息是由于hadoop导致的,下面来配置hadoop。

Hadoop

下载

网址:http://hadoop.apache.org/releases.html

 技术分享图片

技术分享图片

解压

 技术分享图片

环境变量配置

在cmd下依次输入以下两行命令:

  • setx HADOOP_HOME F:\hadoop\hadoop-2.7.7
  • setx PATH “%HADOOP_HOME%\bin;%PATH%”

winutils下载

网址:https://github.com/steveloughran/winutils

下载对应版本的bin目录直接替换本地bin目录即可。

验证配置

1、在cmd下输入spark-shell命令

 技术分享图片

此时即不会出现之前的异常提示。

2、访问控制台中的webui如下:http://127.0.0.1:4040/jobs/

 技术分享图片

 

spark之开发环境配置(windows)

原文:https://www.cnblogs.com/dangjf/p/10370236.html

(0)
(0)
   
举报
评论 一句话评论(0
关于我们 - 联系我们 - 留言反馈 - 联系我们:wmxa8@hotmail.com
© 2014 bubuko.com 版权所有
打开技术之扣,分享程序人生!