2017-02-01 6 views
0

私は3つのデータフレームを作成しましたが、今はそれらに結合したいと思います。しかし、私はこのエラーに実行しています:データフレーム結合エラー

val join1 = c1_df.join(ck_df, ck_df.col("APP_ID") === c1_df.col("ID")) 

val joinFinal = join1.join(c2_df, c2_df.col("APP_ID") === join1.col("APP_ID")) 

joinFinal.show() 

答えて

1

次のスニペットは、問題なく動作します。 NoSuchMethodError: org.apache.spark.rdd.RDD.mapPartitionsInternal$default$2()Z

ここでは、コードです。 c1_dfck_dfc2_dfは有効なデータフレームですか?これは、バージョン管理上の問題を引き起こす可能性もあります。正しいバージョンのSparkを使用していることを確認し、SPARK_HOME変数が適切に設定されていることを確認してください。

val c1_df = sc.parallelize((1 to 10)).toDF("ID") 
val ck_df = sc.parallelize((1 to 10)).toDF("APP_ID") 
val c2_df = sc.parallelize((1 to 10)).toDF("APP_ID") 
val join1 = c1_df.join(ck_df, ck_df.col("APP_ID") === c1_df.col("ID")) 
val joinFinal = join1.join(c2_df, c2_df.col("APP_ID") === join1.col("APP_ID")) 
joinFinal.show() 
+---+------+------+ 
| ID|APP_ID|APP_ID| 
+---+------+------+ 
| 1|  1|  1| 
| 6|  6|  6| 
| 3|  3|  3| 
| 5|  5|  5| 
| 9|  9|  9| 
| 4|  4|  4| 
| 8|  8|  8| 
| 7|  7|  7| 
| 10| 10| 10| 
| 2|  2|  2| 
+---+------+------+ 
+0

ありがとうございます。 3つのデータフレームが機能しており、コンテンツを見ることができました。しかし、私が参加したとき、それが私が問題に取り組んでいるところです。 – SFatima

関連する問題