私はスパークするのが新しいです。現在、Pysparkを使用してFacebook APIデータを抽出しようとしています。私は主ファイルにsparkcontextを作成しています。私は、main.pyプログラムを起動したときに、これらがすべて実行されるフォルダにmultiple.pyファイルを持っています。あるpyファイルで作成されたsparkcontextを別のpyファイルにインポート/チェックする方法は?
プログラムが他の.pyファイルに行くと、私が作成したsparkcontextが存在するかどうかをチェックしたいと思います。もしそうなら、そのsparkcontextをother.pyファイルの実行に使用したいと思います。誰でも私にこれをやってもらうことができますか?私がどこにいても間違っていれば。最高のアイデアを提案してください。
例:これは単なる小さなコードと私の問題
# Calling file name: main_file.py
def fb_calling():
import file2
file2.fb_generaldata()
f __name__ == "__main__":
conf = SparkConf()
conf.setAppName('fb_sapp')
conf.setMaster('yarn-client')
sc = SparkContext(conf=conf)
fb_calling()
# File:file2.py
def fb_generaldata():
sc.parallelize('path')
を示す私の全体のコードではありません私の問題は、私はfile2.py で使用するmain_file.pyで作成しsparkcontextを使用することができますしたいですそれがどうやって起こっているか教えてください。私が間違っていると、私を正しく導くことができます。私は全く新しいスパークです。 はあなたの助け
ありがとうございます...あなたのコードサンプルを試しました...その作業...ありがとうございました – Rahul
クール!あなたは答えを受け入れることができますか?ありがとう – germanium