hiveql

    0

    1答えて

    私の入力タイムスタンプとして変換していないこと 2017年6月8日午後07時02分03秒EDT のようなもので、私は にそれを変換するために探しています 2017-06-08 19:02:03 以下のクエリを実行しようとしていますが、 2017-01-01 18:02:03 私は何をしないのです: select from_unixtime(unix_timestamp('06/08/2017 1

    0

    2答えて

    私はハイブを使用してJSON文字列を解析しようとしていると私のようないくつかの値のための2つの異なるキーがあることに気づい: get_json_object(json_string, '$.user_name') get_json_object(json_string, '$.User_Name') は、一つのキーまたは別のはちょうどその存在しているかどうかを確認する方法はあります値を解析テ

    1

    1答えて

    私は時系列データを持つ1.6Tハイブテーブルを持っています。私はHive 1.2.1 とSpark 1.6.1をscalaに使用しています。 私のコードには次の質問があります。しかし、私はいつもJava out of memory errorを得る。繰り返しハイブテーブルから一度に少数のレコードを選択することで val sid_data_df = hiveContext.sql(s"SELECT

    0

    1答えて

    サンプル入力: PARTY |TYPE | TIMESTAMP ------------------------------------- 135761103 |AA |2017-04-24 11:18:46.233 135761103 |BB |2017-04-24 11:19:18.436 所望の出力: PARTY |AA_TIMESTAMP|BB_TIMESTAMP -----

    0

    1答えて

    私はCloudera CDHで作成されたシンプルなテーブルを持っています。使用されるバージョンはHive 1.1.0 CDH 5.8です。私はinsert文に insert into student (id,name,valid) values (1, 'ABC', 'Y'); を実行しようとするとそれはNoViableAltExceptionがで '' '(' '' ID '' に近い入力を

    -2

    1答えて

    私は比較的新しいHiveです。キーによって互いに接続されていない2つのテーブルをマージする方法を探る。だから、私はクエリで 'ON'条件を使用していません。 以下のtable_1ある: COL1 hello 以下であるtable_2: COL2 world excellent 期待される結果: hello world NULL excellent 実績: hello world

    0

    1答えて

    私はDB2とHiveの行数を比較し、一致するかどうかを調べるシェルスクリプトを作成しようとしています。 同じことをしながら、私はハイブカウントの問題に直面しています。 私はそのフォーマットの下で来て、テキストファイルにハイブカウントを取っていたよう:その後 +---------+--+ | _c0 | +---------+--+ | 713313 | +---------+--+ 私

    1

    1答えて

    私は2つの列を持つハイブテーブルを1つ持っています。両方の列の型は文字列です。 1つは単純なクライアントIDであり、他はコマンドIDで区切られたアイテムIDです。同じクライアントIDを持つ複数の行がありますが、異なるアイテムID文字列があります。 2つの列を持つテーブルを生成する1つのハイブクエリが必要です。 1つはクライアントID、もう1つはカンマで区切られた文字列で、すべてのユニークな項目ID

    0

    2答えて

    誰でもPythonを使用して.hqlクエリを実行する方法を教えてください。 Hiveutils libを試しましたが、開発環境には存在しません。クエリを実行する他の方法?

    0

    2答えて

    私はこの作業を行う方法を見つけることができません:id2''(empty string)と少なくとも1つも空でないid2を持つすべてのid1を取得する必要があります。 私はこれを取得:だから今、私はこのid1を取得する必要がありSELECT id1, id2 FROM mytable WHERE id1 = ... GROUP BY id1,id2 id1 id2 1 b2