首页 > 其他 > 详细

hadoop集群搭建

时间:2021-04-10 15:50:44      阅读:11      评论:0      收藏:0      [点我收藏+]

为什么要安装hadoop

hadoop是一个大数据处理的生态,主要包括存储(HDFS)、计算(MapReduce)、资源调度(Yarn)三个部分,在spark中需要用到HDFS和YARN,以保证spark在分布式文件存储和资源调度方面更好地协调。

hadoop集群的安装

参考博客

1、下载spark对应的hadoop版本的安装包

因为我spark版本为spark-3.1.1-bin-hadoop2.7.7-tgz,这里可以看到匹配的hadoop版本为2.7.7所以直接官网下载
技术分享图片

2、解压安装到master主机上

当然如果没有JDK环境的可以参考spark安装中的JDK环境搭建,安装好之后就可以直接用Xftp工具发送到master主机上
用上面语句解压到当前路径

3、修改配置集群文件

4、修改hadoop用户权限

5、配置免密登录

6、拷贝到其他机器上

7、配置环境变量并启动测试

hadoop集群搭建

原文:https://www.cnblogs.com/wzy-1914495381/p/14640243.html

(0)
(0)
   
举报
评论 一句话评论(0
关于我们 - 联系我们 - 留言反馈 - 联系我们:wmxa8@hotmail.com
© 2014 bubuko.com 版权所有
打开技术之扣,分享程序人生!