【Hadoop】执行start-dfs.sh启动hadoop集群时,datenode没有启动怎么办

执行start-dfs.sh后,datenode没有启动,很大一部分原因是因为在第一次格式化dfs后又重新执行了格式化命令(hdfs namenode -format),这时主节点namenode的clusterID会重新生成,而从节点datanode的clusterID 保持不变。

在主节点也就是namenode那个节点上的hdfs-site.xml文件下找到这两个文件路径在这里插入图片描述

打开name目录中current下面的VERSION文件,然后用这个clusterID替换掉datanode节点上的data/current/VERSION里的clusterID

在这里插入图片描述

参考http://t.csdnimg.cn/Gk4cg

相关推荐

  1. Hadoop-Yarn-启动

    2023-12-18 14:20:04       49 阅读
  2. Hadoop

    2023-12-18 14:20:04       32 阅读

最近更新

  1. docker php8.1+nginx base 镜像 dockerfile 配置

    2023-12-18 14:20:04       94 阅读
  2. Could not load dynamic library ‘cudart64_100.dll‘

    2023-12-18 14:20:04       100 阅读
  3. 在Django里面运行非项目文件

    2023-12-18 14:20:04       82 阅读
  4. Python语言-面向对象

    2023-12-18 14:20:04       91 阅读

热门阅读

  1. 在Deepin系统上安装单机版PVE虚拟化系统

    2023-12-18 14:20:04       138 阅读
  2. 说说React中setState和replaceState的区别?

    2023-12-18 14:20:04       53 阅读
  3. NGINX 使用及部署文档

    2023-12-18 14:20:04       65 阅读
  4. Python教程:int函数的参数用法

    2023-12-18 14:20:04       70 阅读
  5. 一起学ROS+AI 开篇 ros部署yolov8

    2023-12-18 14:20:04       66 阅读
  6. Rust语言中match详解

    2023-12-18 14:20:04       63 阅读
  7. 移动零算法(leetcode第283题)

    2023-12-18 14:20:04       55 阅读