启动hadoop集群,发现只有一个namenode,子节点的namenode未启动

问题描述

搭建好hadoop集群,然后启动hadoop集群后,发现只有一个datanode,正常应该是3个。
在这里插入图片描述


原因分析:

在配置hadoop时,没有设置hadoop的工作节点文件workers,所以默认是localhost。


解决方案:

需要修改每个节点/opt/module/hadoop/hadoop-3.1.3/etc/hadoop/workers文件的内容。

vim /opt/module/hadoop/hadoop-3.1.3/etc/hadoop/workers

然后添加hadoop集群的节点,如下图:
在这里插入图片描述
再使用scp命令分发到其他两个节点。
点击链接查看scp命令介绍及其使用:linux常用命令-find命令与scp命令详解(超详细)

cd /opt/module/hadoop/hadoop-3.1.3/etc/hadoop
scp workers hadoop102:$pwd
scp workers hadoop103:$pwd

如下图:
在这里插入图片描述
然后重启hadoop集群,namenode变为了三个,如下图:

在这里插入图片描述

相关推荐

  1. Hadoop Namenode节点迁移

    2023-12-13 06:30:04       7 阅读
  2. Flink节点TaskManager启动分析

    2023-12-13 06:30:04       12 阅读

最近更新

  1. TCP协议是安全的吗?

    2023-12-13 06:30:04       16 阅读
  2. 阿里云服务器执行yum,一直下载docker-ce-stable失败

    2023-12-13 06:30:04       16 阅读
  3. 【Python教程】压缩PDF文件大小

    2023-12-13 06:30:04       15 阅读
  4. 通过文章id递归查询所有评论(xml)

    2023-12-13 06:30:04       18 阅读

热门阅读

  1. Python查找列表中不重复的数字

    2023-12-13 06:30:04       44 阅读
  2. 数据库结构

    2023-12-13 06:30:04       36 阅读
  3. IP协议

    IP协议

    2023-12-13 06:30:04      40 阅读
  4. DP算法入门(3)

    2023-12-13 06:30:04       37 阅读