2016-12-13 9 views
0

私はSparkには非常に新しく、あなたの助けが必要です。spark 2.0.2(Hadoop 2.7)私はシステム変数と値を次のように定義しています。C: .... bin spark-shell 'cmd'は....と認識されません '

Java_Home C:\Progra~1\Spark Ecosystem\JDK\jdk1.8.0_111. 
Hadoop_Home C:\Program Files\Spark ecosystem\winutils. 
Spark_Home C:\Program Files\Spark ecosystem\Spark\bin. 
Path   %Java_Home%\bin; %Hadoop_Home%; %Spark_Home%; 

私はEclipseをインストールしました。そのexeファイルが動作しています。 Java -versionはうまくいきますが、spark-shellコマンドは認識されません。

答えて

0

でない場合は、パスを無効にしてください。ちょうどそれに追加してください。

cmdは、Windowsの "シェル"で、%WINDIR%\system32にあります。あなたがパスにそれを残しておく必要があります(それは場合のように、あなたは、Linux上の/binへのパスを削除:あまりありませんが、その後に動作します)

例えば、これは(あなたの起動スクリプトでPATHの元の値を追加)します:

set PATH=%Java_Home%\bin;%Hadoop_Home%;%Spark_Home%;%PATH% 

ミニマバージョン:

set PATH=%WINDIR%\system32;%Java_Home%\bin;%Hadoop_Home%;%Spark_Home% 
+0

おかげジャン・フランソワ・ファーブル。あなたが提案した通りに(%PATH%を追加して)PATHを設定しましたが、問題は変わりません。 – Khan

+0

私の編集をチェックしてください(2行目) –

+0

ありがとうJean-FrançoisFabre! 'WINDIR \ ...'を入力した後、少し進歩がありますが、まだ??? spark-shellを実行して「指定されたパスが見つかりません」というエラーが表示されたら、このプログラムを実行する前にSparkをビルドする必要があります。 – Khan

関連する問題