2016-09-02 17 views
1

私はwin10でスパークの作業をしようとしています。私はsparkシェルを実行しようとすると、このエラーが表示されます:Windows 10のスパークが動作しない

'Spark \ spark-2.0.0-bin-hadoop2.7 \ bin .. \ jars "" \は内部または外部コマンドとして認識されません、操作可能なプログラムまたはバッチファイル。

Spark jarsディレクトリを見つけることができませんでした。このプログラムを実行する前にSparkをビルドする必要があります。

私は、hadoop 2.7以降にあらかじめ組み立てられたスパークを使用しています。私はjava 8、eclipse neon、python 2.7、scala 2.11をインストールしました。hadutop 2.7.1のwinutilsを入手しました。

私は火花をドローしたとき、それはtgzに入っていて、そこに別のtzgがあるので、私もそれを抽出して、すべてのビンのフォルダとものを得ました。私はスパークシェルにアクセスする必要があります。誰も助けることができますか?

EDIT: ソリューション私が使用して終了:

1)仮想ボックス

2)Linuxのミント

+2

あなたは完全なエラーの詳細を投稿してもらえますか? – Bhavesh

答えて

1

おそらくビンスパークするために間違ったフォルダパスを与えています。

コマンドプロンプトを開き、ディレクトリをsparkフォルダ内のbinに変更してください。

タイプspark-shellを確認してください。

は参照してください:Spark on win 10

関連する問題