HDFS未检测到数据节点容量增加

问题描述 投票:0回答:1

我有一个由4个虚拟机(1个主服务器和3个从服务器)组成的虚拟hadoop集群,最近为集群中的数据节点增加了100GB容量。问题是HDFS没有检测到这种增加。我重新启动datanode,namenode并格式化HDFS但没有影响。我该如何解决这个问题?

hadoop hdfs
1个回答
1
投票

我正在编写添加datanode /增加hdfs卷大小的步骤:

  • 在根目录中创建一个文件夹,例如。 /hdfsdata
  • 在家里创建一个文件夹,例如。 /home/hdfsdata
  • 向'hdfs'用户提供此文件夹的权限:chown hdfs:hadoop -R /home/hdfsdata
  • 为此文件夹提供文件/文件夹权限:chmod 777 -R /home/hdfsdata.
  • 挂载这个新文件夹:mount --bind /home/hdfsdata/ /hdfsdata/
  • 最后,使用逗号分隔值将此新创建的目录添加到属性“dfs.datanode.data.dir”下的hdfs-site.xml。

当我cd到/ hadoop / hdfs / data

完成上述步骤后,重新启动HDFS服务,您的容量就会增加。

© www.soinside.com 2019 - 2024. All rights reserved.