克隆3台linux虚拟机,仅安装了centos最小模式的机器
网络分配表
主机名 |
IP地址 |
hadoop1 |
192.168.178.101 |
hadoop2 |
192.168.178.102 |
hadoop3 |
192.168.178.103 |
vi /etc/hosts
要在/etc/hosts加入:
192.168.178.101 hadoop1 192.168.178.102 hadoop2 192.168.178.103 hadoop3
cd ~/.ssh/
注意:如果没有这个目录的话,是因为还没使用过ssh,一般使用过ssh就会自动创建
ssh-keygen -t rsa
注意:连续按3次回车即可
ssh-copy-id hadoop1 ssh-copy-id hadoop2 ssh-copy-id hadoop3
注意:需要发出公钥的服务器有:NameNode、ResourceManager
|
hadoop1 |
hadoop2 |
hadoop3 |
HDFS |
NameNode DataNode |
DataNode |
SecondaryNameNode DataNode |
YARN |
NodeManager |
ResourceManager NodeManager |
NodeManager |
原则:NameNode、ResourceManager、SecondaryNameNode分配在不同服务器上
*-env.sh 是修改JAVA_HOME
<!-- 指定HDFS中NameNode的地址 -->
<property>
<name>fs.defaultFS</name>
<value>hdfs://hadoop1:9000</value>
</property>
<!-- 指定Hadoop运行时产生文件的存储目录 -->
<property>
<name>hadoop.tmp.dir</name>
<value>/opt/module/hadoop-2.7.2/data/tmp</value>
</property>
<property>
<name>dfs.replication</name>
<value>3</value>
</property>
<!-- 指定Hadoop辅助名称节点主机配置 -->
<property>
<name>dfs.namenode.secondary.http-address</name>
<value>hadoop3:50090</value>
</property>
<!-- Reducer获取数据的方式 -->
<property>
<name>yarn.nodemanager.aux-services</name>
<value>mapreduce_shuffle</value>
</property>
<!-- 指定YARN的ResourceManager的地址 -->
<property>
<name>yarn.resourcemanager.hostname</name>
<value>hadoop2</value>
</property>
<!-- 指定MR运行在Yarn上 -->
<property>
<name>mapreduce.framework.name</name>
<value>yarn</value>
</property>
hadoop1 hadoop2 hadoop3
xsync /opt/module/hadoop-2.7.2/ xsync /opt/module/jdk1.8.0_144 xsync /etc/profile
用于更新JAVA_HOME、Hadoop_HOME、PATH
source /etc/profile
hdfs namenode -format
sbin/start-dfs.sh
sbin/start-yarn.sh
输入地址:hadoop1:50070
[root@hadoop1 software]# hdfs dfs -put hadoop-2.7.2.tar.gz /
原文:https://www.cnblogs.com/shuaiqi-XCJ/p/11260876.html