
Я установил свой hadoop в каталог /usr/local/hadoop
когда я пытаюсь запустить команду $ bin/hdfs namenode -format я получаю ошибку
/usr/local/hadoop/bin/hdfs: строка 206: usr/jvm/java-7-openjdk-amd64/bin/java : такого файла или каталога нет
я отредактировал файл конфигурации vim etc/hadoop/core-site.xml
fs.defaultFS hdfs://localhost:9000
и т.д./hadoop/hdfs-site.xml
dfs.репликация 1
Заранее спасибо за ваши ответы и отклики.
решение1
Сначала проверьте, JAVA_HOME
правильно ли установлено в .bashrc
файле. Используйте echo $JAVA_HOME
для проверки, установлено ли оно или нет. Если нет, установите его с помощью
export JAVA_HOME=/usr/lib/jvm/java-7-openjdk-amd64
Примечание: После внесения изменений в .bashrc
файл вам необходимо перезагрузить его, либо выйдя из системы и войдя снова, либо выполнив действия, . ~/.bashrc
указанные в«Как перезагрузить .bashrc, не выходя из системы и не входя снова?».
Похоже, JAVA_HOME
переменная неправильно установлена в вашем hadoop-env.sh
. Установите JAVA_HOME
значение /usr/lib/jvm/java-7-openjdk-amd64
вместо usr/jvm/java-7-openjdk-amd64
. , как она установлена в настоящее время (на что указывает ошибка).
Использовать
export JAVA_HOME="/usr/lib/jvm/java-7-openjdk-amd64"
в вашем hadoop-env.sh
файле.