stdthread

    9

    2答えて

    私はApache Sparkの学習者で、RDDアクションaggregateに出くわしました。どのように機能するのか分かりません。いくつかのいずれかが綴る、私たちは、コードについては、以下の結果に到達しなかったかのステップで、詳細ステップで説明することができ、ここで RDD input = {1,2,3,3} RDD Aggregate function : rdd.aggregate((0

    1

    3答えて

    それは常に使用されヴァルのように、私はVARスパークプログラムで使用を見ていない。見えますだからこそ裏切っている理由は何か不思議です。私が理解していることは、RDDは不変であり、既存のRDDを変更または更新したくないということです。ありがとう!

    0

    1答えて

    私はTitan Documentation 1.0を読んでいますが、クラスタ環境の設定方法についてはまだ混乱しています。 1)たとえば、192.168.1.2、192.168.1.3、192.168.1.4にhbaseがすでにインストールされている場合、3台のサーバまたはそのすべてにtitanをインストールする必要がありますか? 2)タイタン文書を読んだ後、私はまだタイタンサーバーと通信するために

    0

    1答えて

    Pipelineモジュールを使用してpysparkにDecisionTreeClassifierを実装しています。これは、私のデータセットに対していくつかの機能エンジニアリング手順を実行するためです。 コードは、Sparkのドキュメントからの例のようになります。 from pyspark import SparkContext, SQLContext from pyspark.ml import

    3

    3答えて

    Kerberosを有効にしてSparkアプリケーションをHBaseに接続しようとしています。スパークのバージョンは1.5.0、CDH 5.5.2は糸クラスターモードで実行されます。 HbaseContextが初期化されると、それはこのエラーがスローされます。 ERROR ipc.AbstractRpcClient: SASL authentication failed. The most like

    0

    2答えて

    私はApache Sparkで新しく、Spark Streaming + Kafkaインテグレーションの直接アプローチの例(JavaDirectKafkaWordCount.java)を実行しようとしています。 私はすべてのライブラリをダウンロードしましたが、私は実行しようとすると、私は、任意の提案 Exception in thread "main" java.lang.NoSuchMethod

    2

    1答えて

    タイムスタンプ列を持つDFがあり、この列でソートされています。これを行う方法はありますか?各レコードについて、次のレコードにアクセスして2つの行の間の時間差を計算しますか? 2つの行が異なるノードで処理される可能性があるため、マップ関数ではこれが可能ではないと私は考えています。 ありがとうございました!

    1

    2答えて

    これは私のjsonデータです。これをkafkaトピックに送信し、spark rdd、 を読み込み、cassandraに保存します。 [{ "sensor": "swapSensor", "sendtime": "2016-09-15T11:05:01.000Z", "data": [{ "@context": "Context" }] }] これは私がテーブルの列enti

    0

    1答えて

    データフレームに1つの列があり、別のデータフレームに類似のスキーマ列があるとします。コラムにある値をチェックする方法は、共通属性がないので、それらを結合することなく同じかどうかをチェックする方法です。 DF1 serial_nm ABC MNC PQR DF2 ser_nm HGF MNC PQR UIO LOK と私は 感謝を助けてください が、私はこの val DF3 = DF1.filter

    2

    2答えて

    私はBluemix Spark Clusterに提出するSparkアプリケーションを持っています。 DASHDBデータベースから読み取り、その結果をCloudantに書き込みます。このコードは、SparkとJDBCの両方を使用してDASHDBにアクセスします。 DASHDBデータベースのユーザーID &のパスワードが、引数としてプログラムに渡されます。私はspark-submitを介してこれらのパ