2016-04-07 7 views
0

私はsparkRについて勉強しています。CRANには非常に多くの便利なRパッケージがあることがわかりました。しかし、RパッケージはsparkRでは使用できないようです。そのことはよくわからない。sparkRでRパッケージを使用することはできますか?

本当ですか?そうでない場合は、RパッケージをsparkRにインポートする方法を説明できますか?

答えて

0

私はあなたがincludePackageコマンドを参照することができるを推測している:

SparkRも、クロージャ内の既存のRパッケージを簡単に利用することができます。 includePackageコマンドを使用すると、すべてのクロージャがクラスタ上で実行される前に がロードされるパッケージを指定できます。

出典:R frontend for Spark

+0

SparkRがhttp://spark.apache.org/docs/latest/api/RにAPIの約2数百を提供するのはなぜSparkRは、既存のRパッケージを使用することができる場合/index.html?それは単に使いやすさのためですか? –

+0

実際には、[公式ドキュメント](https://spark.apache.org/docs/latest/sparkr.html)の** SparkR **に質問があります。* SparkRは、 Spark 1.6.1では、選択、フィルタリング、集約など(Rデータフレーム、dplyrと同様)の操作をサポートする分散データフレーム実装を提供しますが、大きなデータセット*実際の使用方法をきちんと示している[このチュートリアル](https://github.com/amplab-extras/SparkR-pkg/wiki/SparkR-Quick-Start)をご覧になることをお勧めします。 – Konrad

関連する問題