2016-07-07 11 views
0

spark-defaults.conf、xmlファイルにcore-site.xml、hive-site.xmlを設定し、環境変数をエクスポートしました。その後、pyspark設定でpythonスクリプトを実行

$ pyspark --master yarn 

と::私はpysparkコンソールを実行すると

>>> sqlContext.sql("show tables").show() 

すべてが正しいですが、私は純粋なPythonインタプリタを使用するとき、私は私の表を参照してくださいすることはできません。

from pyspark import SparkContext, SparkConf 
from pyspark.sql import SQLContext 
conf = SparkConf().setMaster("yarn-client") 
sc = SparkContext(conf=conf) 
sqlContext = SQLContext(sc) 
sqlContext.sql("show tables").show() 

どのようにすれば、すべての設定ファイルを見ることができますか?

+0

を修正するには

+0

私はPythonでそれを実行すると空の結果が得られます – user2357858

答えて

0

PySparkシェルを実行すると、スパークはHiveのサポートでインスタンス化されます。つまり、HiveContext(デフォルトはSQLContext)です。

しかし、PythonプログラムまたはPythonインタプリタを実行しているときは、SQLContextにはHiveサポートが付属していません。インタプリタでコードを実行すると、あなたが得る結果/例外とは何ですか?この

sqlCtx = HiveContext(sc) 
sqlCtx.sql("show tables").show() 
+0

ありがとう、それは動作します! :) – user2357858

+0

私はpysparkのsciptのコードを使用しようとしましたが、それも動作しますが、あなたのソリューションははるかに簡単です。 – user2357858

関連する問題