spark.implicits._
をインポートしていますが、ScalaプログラムのRDDからDataframeへの暗黙的な変換を実行できません。Spark Scalaプログラムのインプリシットが機能しない
ご協力いただければ幸いです。暗黙と
メインプログラム:以下のように
object spark1 {
def main(args: Array[String]) {
val spark = SparkSession.builder().appName("e1").config("o1", "sv").getOrCreate()
import spark.implicits._
val conf = new SparkConf().setMaster("local").setAppName("My App")
val sc = spark.sparkContext
val data = sc.textFile("/TestDataB.txt")
val allSplit = data.map(line => line.split(","))
case class CC1(LAT: Double, LONG: Double)
val allData = allSplit.map(p => CC1(p(0).trim.toDouble, p(1).trim.toDouble))
val allDF = allData.toDF()
// ... other code
}
}
はエラーは次のとおりです。
Error:(40, 25) value toDF is not a member of org.apache.spark.rdd.RDD[CC1] val allDF = allData.toDF()
メトロポリス、感謝をクリーンアップするために。マーク – user1154422