为何hadoop集群只有一个datanode呢?
发布日期:2022-02-27 02:37:50 浏览次数:32 分类:技术文章

本文共 174 字,大约阅读时间需要 1 分钟。

为何hadoop集群只有一个datanode呢?

1.看配置 hadoop2的看slaves文件配置;hadoop3的看workers文件配置

2.同步的错误 在同步时将hadoop文件夹全部都同步过去了,里面的log日子也同步过去了,这样的的话,就会导致datanode只有一个。
解决办法:删除data和logs文件 然后重新初始化naname

转载地址:https://blog.csdn.net/weixin_43377681/article/details/115861354 如侵犯您的版权,请留言回复原文章的地址,我们会给您删除此文章,给您带来不便请您谅解!

上一篇:复制文件夹到集群所有节点的相同目录下的shell脚本
下一篇:Maven在idea中加载依赖包不成功,或者pom.xml一直报错,如何解决?

发表评论

最新留言

初次前来,多多关照!
[***.217.46.12]2024年03月30日 13时40分34秒