
我已將 hadoop 安裝在 /usr/local/hadoop 目錄中
當我嘗試運行commeand $ bin/hdfs namenode -format 時出現錯誤
/usr/local/hadoop/bin/hdfs:第 206 行:usr/jvm/java-7-openjdk-amd64/bin/java :沒有這樣的檔案或目錄
我已經編輯了設定檔 vim etc/hadoop/core-site.xml
fs.defaultFS hdfs://localhost:9000
等等/hadoop/hdfs-site.xml
dfs.複製1
預先感謝您的回答和回覆。
答案1
首先檢查文件JAVA_HOME
中設定是否正確。.bashrc
用於echo $JAVA_HOME
檢查是否已設定。如果沒有,請使用
export JAVA_HOME=/usr/lib/jvm/java-7-openjdk-amd64
注意:對文件進行更改後.bashrc
,您需要透過登出並重新登入或使用. ~/.bashrc
中指出的方式重新載入它“如何在不登出並重新登入的情況下重新載入 .bashrc?”。
看來JAVA_HOME
您的 .txt 檔案中的變數設定不正確hadoop-env.sh
。設定JAVA_HOME
為/usr/lib/jvm/java-7-openjdk-amd64
而不是usr/jvm/java-7-openjdk-amd64
.目前設定(由錯誤指出)。
使用
export JAVA_HOME="/usr/lib/jvm/java-7-openjdk-amd64"
在你的hadoop-env.sh
文件中。