自己启动spark集群的实验记录
发布日期:2021-05-06 21:48:11 浏览次数:17 分类:精选文章

本文共 222 字,大约阅读时间需要 1 分钟。

第一步、将master和slave电脑重启

第二、查看jps命令,结果如下:

master

slave

第三、启动hadoop集群,准确的使用目录./等来保证执行的命令为hadoop目录 下的start-all.sh

主机:

slave

 

 

第四、hadoop namenode -format

master

slave

 

 

第五步、启动spark,命令如下:

master

 

slave

 

master上面多了master;slave上面多少worker

 

上一篇:成功解决slave无datanode问题
下一篇:namenode与datanode

发表评论

最新留言

初次前来,多多关照!
[***.217.46.12]2025年03月29日 15时42分24秒