2016-09-22 6 views
1

私はそれがjupyterのノートブックでDataBricksのオートコンプリートを大変羨ましく思っていますが、ローカルインストールでは動作しません。Jupyterのオートコンプリート(pyspark&scalaあり)

%config IPCompleter.greedy = True pythonでは動作しますが、pysparkまたはspark-shell(scala)では動作しません。 誰でもこの作業を行う方法を知っていますか?

私はスパーク2.0.0 &スパーク2.11とubuntu 16.04 64bitで作業しています。 また、spark 2.0で動作するtoree & Spark2.11、私はコンパイルしました toree-assembly-0.2.0.dev1-incubating-SNAPSHOT これはhyoon下の私のbinstarにあります。 https://anaconda.org/hyoon/toree

+0

私が知る限り、これらのオートコンプリートはどれもうまく動作しません。私は通常、Intellijのアイデアに自分のコードを書いてテストし、プレゼンテーションやプロットのために自分のコードをノートブックに移動します。私はより良い方法が欲しいですが、最高のdatabricksが行っているかもしれないが、いずれか良いではなかった。 –

+0

私は両方のIntellij n ensimeを使用しています。これはほぼ同等です(少なくともEmacsとは)。私は、将来、ジュピターがサブタイムと一体化し、スカラーサイドの世話をしなければならないことを願っています。 spark-notebookとzepplineはどちらもjupyterより少し実験的なようです。私はコンパイルまたはインプレッション側を持っていた。 – user6273920

+0

私は以前にensime + emacsをテストしました。私はintellijが全体的に優れていることを発見しました。私は本当にそれが好きだった。 emacsが好きな人は(私は)、ensem + emacsは神が送る! –

答えて

0

このように思われるのは、スパーク2.2です。しかし、環境変数を正しく設定することを忘れないでください。今はすべてが機能します。

以下は重要です!

export PYTHONPATH=$SPARK_HOME/python:$SPARK_HOME/python/build:$SPARK_HOME/python/lib/py4j-0.10.1-src.zip:$PYTHONPATH 
関連する問題