Wie starte ich „Spark-Shell“ von der Befehlszeile aus?

Wie starte ich „Spark-Shell“ von der Befehlszeile aus?

Ich habe Java Scala 2.11.6 und 7 installiert, es funktioniert, aber wenn ich spark-shell es eingebe, kommt die Meldung „Befehl nicht gefunden“.

Bildbeschreibung hier eingeben

Antwort1

Die folgenden Befehle sollten funktionieren:

cd /home/m1/workspace/spark-1.6.1/bin
./spark-shell

Ich sehe, Sie haben noch weitere Exemplare spark-shellhiervon:

/home/m1/workspace/spark-2.0.0-bin-hadoop2.6/bin/spark-shell
/home/m1/Téléchargements/spark-1.6.1/bin/spark-shell
/home/m1/Téléchargements/spark-1.6.1-bin-hadoop2.6/bin/spark‌​-shell
/home/m1/Téléchargements/spark-2.0.0-bin-hadoop2.6/bin/spark‌​-shell

und diese können mit dem gleichen Muster geöffnet werden, das ich im ersten Beispiel angegeben habe, oder sogar in Ihr Konto eingegeben werden, $PATHum den Zugriff zu erleichtern ...

verwandte Informationen