Sparkを起動できません

Sparkを起動できません

私はこれに従いました答え次のエラーが発生します:

spark-class: 行 86: /usr/lib/jvm/java-8-oracle/bin/java: そのようなファイルまたはディレクトリはありません

そして驚いたことに、私は次のことを経験しました。

gsamaras@gsamaras:/usr/lib/jvm$ ls
java-1.7.0-openjdk-amd64  java-7-openjdk-amd64
gsamaras@gsamaras:/usr/lib/jvm$ $JAVA_HOME
bash: /usr/lib/jvm/java-8-oracle: No such file or directory

どうすれば修正できますか?

詳細情報(ここ):

gsamaras@gsamaras:~$ which java
/usr/bin/java
gsamaras@gsamaras:~$ ls -alh /usr/bin/java
lrwxrwxrwx 1 root root 22 Feb 10 00:54 /usr/bin/java -> /etc/alternatives/java
gsamaras@gsamaras:~$ ls -alh /etc/alternatives/java
lrwxrwxrwx 1 root root 46 Feb 10 00:54 /etc/alternatives/java -> /usr/lib/jvm/java-7-openjdk-amd64/jre/bin/java

私は次のように~/.profile付け加えました:

export JAVA_HOME=/usr/lib/jvm/java-7-openjdk-amd64
export PATH=${JAVA_HOME}/bin:${PATH}
export HADOOP_CLASSPATH=${JAVA_HOME}/lib/tools.jar

私からHadoopの経験それをソースにすると、Spark を起動することができました。


編集:

gsamaras@gsamaras:~/spark-1.6.0-bin-hadoop2.6/conf$ ls
docker.properties.template  metrics.properties.template   spark-env.sh.template
fairscheduler.xml.template  slaves.template

答え1

Spark が Java 7 で動作するかどうかはわかりませんが、動作しない場合は Java 8 をインストールするのが明らかな解決策です。

sudo add-apt-repository ppa:webupd8team/java
sudo apt-get update
sudo apt-get install oracle-java8-installer

正しい箇所で「はい」と答えると、デフォルトでJava 8が使用されるはずです。

sudo update-java-alternatives -s java-8-oracle

うまくいくでしょう。

アップデートJAVA_HOME: とはいえ、OpenJDK 7で実行したい場合は、どこが間違って設定されているかを調べる必要があります。

gsamaras@gsamaras:/usr/lib/jvm$ $JAVA_HOME
bash: /usr/lib/jvm/java-8-oracle: No such file or directory

これを修正しようとしているので.profile(ログインし直しましたか?) 、Spark を起動する前に実行される他のスクリプトをhash -r確認することをお勧めします。load-spark-env.sh

乾杯、

答え2

フォルダ内の spark-env.sh ファイルを見つけて、そこに記載されている JAVA_HOME を確認してください。etc/environment で指定されている場所は、両方のファイルで同じである必要があります。

関連情報