2016-03-21 17 views
0

私にはWindows 8.1のPCがあります。 Sparkとpythonのバージョン情報は以下の通りですPython 3の代わりにPython 2でsparkを実行しています

3.5.1の代わりにpython2を使用するようにSparkを設定する方法はありますか?

c:\spark-1.6.1-bin-hadoop2.6\spark-1.6.1-bin-hadoop2.6>bin\pyspark 
Picked up _JAVA_OPTIONS: -Djava.net.preferIPv4Stack=true 
Python 3.5.1 |Anaconda 2.5.0 (64-bit)| (default, Jan 29 2016, 15:01:46) [MSC v.1900 64 bit (AMD64)] on win32 
Type "help", "copyright", "credits" or "license" for more information. 
Picked up _JAVA_OPTIONS: -Djava.net.preferIPv4Stack=true 
Picked up _JAVA_OPTIONS: -Djava.net.preferIPv4Stack=true 
16/03/20 20:34:53 WARN NativeCodeLoader: Unable to load native-hadoop library for your platform... using builtin-java classes where applicable 
Welcome to 
     ____    __ 
    /__/__ ___ _____/ /__ 
    _\ \/ _ \/ _ `/ __/ '_/ 
    /__/.__/\_,_/_/ /_/\_\ version 1.6.1 
     /_/ 

Using Python version 3.5.1 (default, Jan 29 2016 15:01:46) 
SparkContext available as sc, HiveContext available as sqlContext. 

私は以下しようとしたが、それが失敗した:(

c:\spark-1.6.1-bin-hadoop2.6\spark-1.6.1-bin-hadoop2.6>export PYSPARK_PYTHON=python2 
'export' is not recognized as an internal or external command, 
operable program or batch file. 

答えて

0

あなたpython2の実行可能ファイルの場所であるかを調べる

EXの場合C:\ Python2はpython2ディレクトリです。 exeがインストールされている/

Windowsで環境変数PYSPARK_PYTHONを設定するには、次のように実行する必要があります。 -

set PYSPARK_PYTHON=C:\Python2

ありがとう、 チャールズ。

関連する問題