2016-10-04 5 views
0

クローダを使用する8.1。 Hiveでは、ORC形式の表をCSVファイルでロードしました。ロードされたテーブルを照会しようとする際にこのエラーが発生する:ハイブORCテーブルでClassCastExceptionを取得する

例外が発生して失敗しました。java.io.IOException:org.apache.hadoop.hive.ql.metadata.HiveException:java.lang.ClassCastException:org.apache.hadoop。 hive.serde2.io.HiveVarcharWritableは、これは私が多くの人々が作る見る共通の問題であるorg.apache.hadoop.io.IntWritable

+0

メタデータとデータの詳細を入力してください。 –

答えて

0

にキャストすることができない、

その後、CSV形式でハイブ外部表を作成することができ "INSERT INTO TABLE FINAL SELECT * FROM TEMP_TABLE"は、CSVデータをORCテーブルにコピーします。

この方法を使用することで、Hiveは組み込みライブラリを使用してCSVデータをORCに変換します。

+0

はいできました。しかし、ORC形式の最終テーブルから質問をすると、上記のエラーが発生します。 – BengalTiger

+0

問題は、INT has stringと定義されている列の1つです。 – BalaramRaju

+0

例外メッセージから、そのように見えます。しかし、仕様をORCからParquetに変更すると、うまくいきました。私はClouderaバージョン8.1のHiveパッケージにORC serde実装のバグがあると思います。 – BengalTiger

関連する問題