安装hadoop时出现“HADOOP_COMMON_HOME”错误

问题描述 投票:0回答:2

我第一次在 VMFusion 上的 Ubuntu 18.04 上安装 hadoop (3.2.2)。在安装结束时,当我运行“hdfs namenode -format”时,它显示:

ERROR: Invalid HADOOP_COMMON_HOME

这是我在 .bashrc 上的内容:

export JAVA_HOME=/usr/lib/jvm/java-8-openjdk-amd64
export HADOOP_HOME=/usr/local/hadoop
export PATH=$PATH:$HADOOP_HOME
export HADOOP_HDFS_HOME=HADOOP_HOME
export HADOOP_MAPRED_HOME=HADOOP_HOME
export YARN_HOME=HADOOP_HOME
export HADOOP_COMMON_HOME=HADOOP_HOME
export HADOOP_COMMON_LIB_NATIVE_DIR=HADOOP_HOME/lib/native
export PATH=PATH:JAVA_HOME/bin:HADOOP_HOME/bin:HADOOP_HOME/sbin
export HADOOP_OPTS="HADOOP_OPTS -Djava.library.path=HADOOP_HOME/lib/native"

提前感谢您的建议。

ubuntu hadoop hdfs
2个回答
3
投票

每当引用变量时,您都需要添加前缀

$
,即:

export HADOOP_HDFS_HOME=$HADOOP_HOME

0
投票

我有同样的错误(“错误:无效的HADOOP_COMMON_HOME”),但原因不同。我已经写好了所有环境变量,但是在文件 hadoop-functions.sh 中(例如,在使用 start-dfs.sh 时执行该文件),无论我如何尝试修复它,它都没有检测到环境变量 HADOOP_COMMON_HOME 。 我找到的解决方案是在文件 hadoop-functions.sh 中对这些路径进行硬编码(不仅失败了 hadoop_common_home,还失败了其他 hadoop 变量)。我在出现第一个错误之前创建了所有这些变量(第 251 行):

HADOOP_COMMON_HOME=/usr/local/hadoop
HADOOP_HDFS_HOME=/usr/local/hadoop
HADOOP_MAPRED_HOME=/usr/local/hadoop
HADOOP_YARN_HOME=/usr/local/hadoop
if [[ ! -d "${HADOOP_COMMON_HOME}" ]]; then
    echo "${HADOOP_COMMON_HOME}"
    hadoop_error "ERROR: Invalid HADOOP_COMMON_HOME"
    exit 1
fi

这修复了我的安装,所以我希望它对任何人也有用。

© www.soinside.com 2019 - 2024. All rights reserved.