回到顶部

hadoop动态摘除节点

时间:1年前   作者:我就是曹总   浏览:71   [站内原创,转载请注明出处]

标签: Hadoop  

0.hbase,spark通过重启来摘除节点
1.单节点由Decommission In Progress转为Decommissioned
2.修改/home/yarn/hadoop-2.6.0/etc/hadoop/slaves,将摘除节点移除,修改/home/yarn/hadoop-2.6.0/etc/hadoop/excludes,将摘除节点移除,并添加下一个
3.同步
more slaves | xargs -I {} scp -r  slaves yarn@{}:/home/yarn/hadoop-2.6.0/etc/hadoop/
more slaves | xargs -I {} scp -r  excludes yarn@{}:/home/yarn/hadoop-2.6.0/etc/hadoop/
4.刷新集群状态
hadoop dfsadmin -refreshNodes

5.停止摘除节点的datanode和datamanage进程


内容均为作者独立观点,不代表八零IT人立场,如涉及侵权,请及时告知。

评论努力加载中...
暂无评论
暂无评论

手机扫码阅读

热门相关

加载中...
关于我们   联系我们   申请友链   赞助记录   站点地图
© 2014 - 2017 www.80iter.com All Rights Reserved. 京ICP备14042174号-1
本站遵循 CC BY 4.0 协议,转载请注明出处 。