尝试连接到 hadoop datanode 时出现超时错误

问题描述 投票:0回答:2

尝试将文件放入 hdfs 时出现此错误。

org.apache.hadoop.net.ConnectTimeoutException: 60000 millis timeout while 
waiting for channel to be ready for connect. ch : 
java.nio.channels.SocketChannel[connection-pending remote=/10.1.1.14:50010]

我查找了解决方案,发现您需要将此属性添加到 hdfs-site.xml:

<property>
  <name>dfs.client.use.datanode.hostname</name>
  <value>true</value>
</property>   

我正在使用 ambari 来管理我的 hadoop 服务。在 ambari 上重新启动 hdfs 后,如何添加属性而不将其重置为默认值?我在运行 HDP 2.6.1.0.

的单节点集群上

更新:设法将属性添加到 hdfs-site.xml

  <property>
      <name>dfs.datanode.use.datanode.hostname</name>
      <value>true</value>
  </property>


  <property>
      <name>dfs.client.use.datanode.hostname</name>
      <value>true</value>
    </property>

但是,我仍然遇到相同的超时错误。

hadoop hdfs ambari
2个回答
0
投票

在 hdfs 站点 xml 中使用它

<property> 
   <name>dfs.namenode.name.dir</name> 
   <value>file:/path/to/hadoop/namenode</value> 
 </property> 

 <property> 
   <name>dfs.datanode.data.dir</name> 
   <value>file:/path/to/hadoop/datanode</value> 
 </property> 

0
投票

我有同样的问题。 你解决了这个问题吗?

© www.soinside.com 2019 - 2024. All rights reserved.