首页 > 其他 > 详细

hadoop本地开发环境搭建

时间:2018-12-04 23:09:40      阅读:170      评论:0      收藏:0      [点我收藏+]


1:下载hadoop2.7.3并解压

2:配置hadoop2.7.3环境变量
HADOOP_HOME
%HADOOP_HOME%\bin

3:下载hadoop-eclipse-plugin插件

网址:https://github.com/winghc/hadoop2x-eclipse-plugin

4:添加hadoop.dll和winutils.exe到hadoop解压目录的bin目录下面
hadoop.dll和winutils.exe 在hadoop-eclipse-plugin目录里面

5:将hadoop-eclipse-plugin-2.7.3.jar拷贝到eclipse的plugin目录中

6:在eclipse里面配置hadoop的安装目录

技术分享图片
7:配置eclipse的DFS location 

  window--->> preferences--->> hadoop Map/Reduce

技术分享图片


8:配置hadoop集群的信息

hdfs-site.xml
<property>
<name>dfs.permissions.enabled</name>
<value>false</value>
</property>


1:所需工具
1)hadoop2.7.3安装包
2)hadoop-eclipse-plugin插件
https://github.com/winghc/hadoop2x-eclipse-plugin

hadoop本地开发环境搭建

原文:https://www.cnblogs.com/zhoufly-blog/p/10067837.html

(0)
(0)
   
举报
评论 一句话评论(0
关于我们 - 联系我们 - 留言反馈 - 联系我们:wmxa8@hotmail.com
© 2014 bubuko.com 版权所有
打开技术之扣,分享程序人生!