2016-05-04 21 views
0

スタック: や店舗のnvarchar

  • Sqoopを使用してHDFSへ

    1. 負荷SQL Serverテーブル:私は次のようだということAmbari 2.1 の手順を使用してHDP-2.3.2.0-2950をインストール

    私はsqoopインポートコマンドを実行中に/ Unicodeは/ UTF-8文字セットするために関係するものを使用していませんでしたハイブ

  • に外部表を作成し、インポートが成功した

    Hiveの外部テーブルを作成する際に、元のSQL Serverテーブルのnvarcharカラムにどのデータタイプを選択すればいいのか疑問に思っていましたが、インポート中にSqoopでさえ対処する必要があると心配しています。

    1. はSqoopのcharset/nvarchar型など関連するオプションを見つけることができませんでしたハイブに
    2. をインポートし、varchar型/文字列盲目的にnvarchar型
    +1

    HadoopとHiveはネイティブで** UTF-8 **を使用しているため、従来の文字セットに関する従来の問題には注意する必要はありません。 SQL Serverのすべての列でcharset定義が正常で、Microsoft JDBCドライバがソース文字セットをJavaクライアントのcharsetに変換する作業を行う場合は、完了です。 –

    +0

    私はStringの代わりにvarcharハイブのデータ型を進めましたが、何の問題も生じないことを願っています。 Sqoopのインポートではエラーは発生しませんでした。 –

    +0

    Hiveでは、VARCHAR ==(STRING +は、実際の長さが最大長に準拠することを確認してください)違いが美容的です。 –

    答えて

    0

    の代わりに使用することができます私たちは、nvarcharタイプがあることを知っていますsqoopで理解できない場合は、varchar と入力するだけです

    select 
    CAST(col1 AS varchar) AS col1, 
    col2, 
    col3, 
    col4 
    from table_name