私はwin10でスパークの作業をしようとしています。私はsparkシェルを実行しようとすると、このエラーが表示されます:Windows 10のスパークが動作しない
'Spark \ spark-2.0.0-bin-hadoop2.7 \ bin .. \ jars "" \は内部または外部コマンドとして認識されません、操作可能なプログラムまたはバッチファイル。
Spark jarsディレクトリを見つけることができませんでした。このプログラムを実行する前にSparkをビルドする必要があります。
私は、hadoop 2.7以降にあらかじめ組み立てられたスパークを使用しています。私はjava 8、eclipse neon、python 2.7、scala 2.11をインストールしました。hadutop 2.7.1のwinutilsを入手しました。
私は火花をドローしたとき、それはtgzに入っていて、そこに別のtzgがあるので、私もそれを抽出して、すべてのビンのフォルダとものを得ました。私はスパークシェルにアクセスする必要があります。誰も助けることができますか?
EDIT: ソリューション私が使用して終了:
1)仮想ボックス
2)Linuxのミント
あなたは完全なエラーの詳細を投稿してもらえますか? – Bhavesh