2017-02-13 7 views
-1

を呼び出すときに、私は以下のような二重の配列の配列(配列[配列[ダブル]])からデータフレームを作成しようとオーバーロードメソッドを取得します。Scalaのスパーク - createDataFrame

val points : ArrayBuffer[Array[Double]] = ArrayBuffer(
Array(0.19238990024216676, 1.0, 0.0, 0.0), 
Array(0.2864319929878242, 0.0, 1.0, 0.0), 
Array(0.11160349352921925, 0.0, 2.0, 1.0), 
Array(0.3659220026496052, 2.0, 2.0, 0.0), 
Array(0.31809629470827383, 1.0, 1.0, 1.0)) 

val x = Array("__1", "__2", "__3", "__4") 
val myschema = StructType(x.map(fieldName ⇒ StructField(fieldName, DoubleType, true))) 

points.map(e => Row(e(0), e(1), e(2), e(3))) 
val newDF = sqlContext.createDataFrame(points, myschema) 

しかし、このエラーが表示されます。

<console>:113: error: overloaded method value createDataFrame with alternatives: 
(data: java.util.List[_],beanClass: Class[_])org.apache.spark.sql.DataFrame <and> 
(rdd: org.apache.spark.api.java.JavaRDD[_],beanClass: Class[_])org.apache.spark.sql.DataFrame <and> 
(rdd: org.apache.spark.rdd.RDD[_],beanClass: Class[_])org.apache.spark.sql.DataFrame <and> 
(rows: java.util.List[org.apache.spark.sql.Row],schema: org.apache.spark.sql.types.StructType)org.apache.spark.sql.DataFrame <and> 
(rowRDD: org.apache.spark.api.java.JavaRDD[org.apache.spark.sql.Row],schema: org.apache.spark.sql.types.StructType)org.apache.spark.sql.DataFrame <and> 
(rowRDD: org.apache.spark.rdd.RDD[org.apache.spark.sql.Row],schema: org.apache.spark.sql.types.StructType)org.apache.spark.sql.DataFrame 
cannot be applied to (scala.collection.mutable.ArrayBuffer[Array[Double]], org.apache.spark.sql.types.StructType) 
val newDF = sqlContext.createDataFrame(points, myschema) 

インターネットで検索しましたが、修正方法が見つかりませんでした。だから、誰かがこれについて何か考えているなら、私を助けてください!

答えて

-1

は、これが私の作品:

import org.apache.spark.sql._ 
import org.apache.spark.sql.types._ 
import scala.collection.mutable.ArrayBuffer 

val sqlContext = new org.apache.spark.sql.SQLContext(sc) 

val points : ArrayBuffer[Array[Double]] = ArrayBuffer(
    Array(0.19238990024216676, 1.0, 0.0, 0.0), 
    Array(0.2864319929878242, 0.0, 1.0, 0.0), 
    Array(0.11160349352921925, 0.0, 2.0, 1.0), 
    Array(0.3659220026496052, 2.0, 2.0, 0.0), 
    Array(0.31809629470827383, 1.0, 1.0, 1.0)) 

val x = Array("__1", "__2", "__3", "__4") 
val myschema = StructType(x.map(fieldName ⇒ StructField(fieldName, DoubleType, true))) 

val rdd = sc.parallelize(points.map(e => Row(e(0), e(1), e(2), e(3)))) 
val newDF = sqlContext.createDataFrame(rdd, myschema) 

newDF.show 
+0

私はdownvoted理由を説明のために感謝します。ありがとうございました – semsorock

+0

ありがとう!これは私のために働く! –

0

ArrayBuffer[Array[Double]]のインスタンスを受け入れるメソッドcreateDataFrameのオーバーロードはありません。 points.mapへのコールに何も割り当てられていない場合、インプレースで操作するのではなく新しいインスタンスを返します。試してみてください:

val points : List[Array[Double]] = List(
    Seq(0.19238990024216676, 1.0, 0.0, 0.0), 
    Seq(0.2864319929878242, 0.0, 1.0, 0.0), 
    Seq(0.11160349352921925, 0.0, 2.0, 1.0), 
    Seq(0.3659220026496052, 2.0, 2.0, 0.0), 
    Seq(0.31809629470827383, 1.0, 1.0, 1.0)) 

val x = Array("__1", "__2", "__3", "__4") 
val myschema = StructType(x.map(fieldName ⇒ StructField(fieldName, DoubleType, true))) 

val newDF = sqlContext.createDataFrame(
    points.map(Row.fromSeq(_), myschema) 
関連する問題