首页 > 其他 > 详细

Hadoop 2.2.0启动脚本——sbin/start-dfs.sh

时间:2014-03-22 20:28:21      阅读:1006      评论:0      收藏:0      [点我收藏+]

1. 执行hdfs-config.sh

2. 如果参数个数超过1,读取第一个参数。

   -upgrade则继续,即dataStartOpt="",nameStartOpt="$@";

   -rollback,则dataStartOpt="-rollback",nameStartOpt="-rollback $@"

3. 执行bin/hdfs getconf -namenodes获取NAMENODES 

   执行sbin/hadoop-daemons.sh" --config "$HADOOP_CONF_DIR" --hostnames "$NAMENODES" --script "$bin/hdfs" start namenode $nameStartOpt

5. 如果设置HADOOP_SECURE_DN_USER,则需要运行start-secure-dns.sh as root;

   如果未设置,则sbin/hadoop-daemons.sh" --config "$HADOOP_CONF_DIR" --script "$bin/hdfs" start datanode $dataStartOpt

6. 执行bin/hdfs getconf -secondarynamenodes获取SECONDARY_NAMENODES, 

   同NAMENODES

7. SHARED_EDITS_DIR,TODO...

8. AUTOHA_ENABLED,TODO...

Hadoop 2.2.0启动脚本——sbin/start-dfs.sh,布布扣,bubuko.com

Hadoop 2.2.0启动脚本——sbin/start-dfs.sh

原文:http://www.cnblogs.com/hujunfei/p/3617964.html

(0)
(0)
   
举报
评论 一句话评论(0
关于我们 - 联系我们 - 留言反馈 - 联系我们:wmxa8@hotmail.com
© 2014 bubuko.com 版权所有
打开技术之扣,分享程序人生!