hadoop动态增加和删除节点方法介绍

  

上一篇文章中我们介绍了Hadoop编程基先生于程序实现倒排索引示例的有关内容,这里我们看看如何在Hadoop中动态地增加和删除节点(DataNode)。

  

  


  

  


  

  

1,准备新的DataNode节点机器,配置SSH互信,可以直接复制已有DataNode中。ssh目录中的authorized_keys和id_rsa
  

  

2,复制Hadoop运行目录,hdfs目录及tmp目录至新的DataNode
  

  

3,在新DataNode上启动hadoop

        sbin/hadoop-daemon。sh开始datanode   sbin/yarn-daemon。sh开始datanode      

4,然后在上刷新节点

        . .bin/hdfs dfsadmin -refreshNodes   sbin/start-balancer。sh      

5,为方便下次启动,可以将新DataNode的域名和ip加入/etc/hosts中
  

  


  

  

1,配置NameNode的hdfs-site.xml,适当减小dfs.replication副本数,增加dfs.hosts.exclude配置

        & lt; property>   & lt; name> dfs.hosts.exclude   & lt; value>/usr/地方/hadoop2/etc/hadoop/excludes   & lt;/property>之前      

2,在对应路径(/etc/hadoop/)下新建排除文件,并写入待删除DataNode的ip或域名
  3,然后在上刷新所有DataNode

        . .bin/hdfs dfsadmin -refreshNodes   sbin/start-balancer。sh      

4,此时,可以在网络检测界面(ip: 50070)上可以观测到DataNode逐渐变为死。

  

  

以上就是本文关于hadoop动态增加和删除节点方法介绍的全部内容,希望对大家有所帮助。感兴趣的朋友可以继续参阅本站:浅谈七种常见的hadoop和火花项目案例,hadoop重新格式化HDFS步骤解析等,有什么问题可以直接留言,小编会及时回复大家的。感谢朋友们对本站的支持!

hadoop动态增加和删除节点方法介绍