val temp = sqlContext.sql(s"SELECT A, B, C, (CASE WHEN (D) in (1,2,3) THEN ((E)+0.000)/60 ELSE 0 END) AS Z from TEST.TEST_TABLE")
val temp1 = temp.map({ temp => ((temp.getShort(0), temp.getString(1)), (USAGE_TEMP.getDouble(2), USAGE_TEMP.getDouble(3)))})
.reduceByKey((x, y) => ((x._1+y._1),(x._2+y._2)))
ハイブレイヤーの計算(ケース評価)を行っている上記のコードの代わりに、私はスカラで変換を行いたいと思います。どうすればいい?ハイブSQLクエリからSparkへの変換を移動する
マップ内のデータを埋めて同じことを実行できますか?
の呼出Scalaの機能ロジックは 'withColumn'method離れ以下sarveshによって示唆' map'方法から別のアプローチであるなら –