db2

    0

    1答えて

    私はpysparkに新しくなりました。私はPython 3.5 &私のUbuntu 16.0にspark2.2.0を使用しています。私はpysparkに使用してBigSQLを接続するためのコードを、以下の書いた from pyspark.sql.session import SparkSession spark = SparkSession.builder.getOrCreate() spa

    0

    1答えて

    DB2には、指定されたタイム・スタンプ以後にレコードが更新されたテーブル/レコードをフェッチするSQLクエリがありますか? 私が使用した次のクエリは、テーブルが変更された場合にのみ取得され、レコードが更新される場合は使用されませんでした。 SELECT TRIM(TABSCHEMA) || '.' || TRIM(TABNAME), MAX(CREATE_TIME,ALTER_TIME

    0

    1答えて

    db2コマンドまたはSQLクエリで、テーブルスペースの現在の状態への最終変更時刻が表示されますか?

    0

    1答えて

    私はすべての暗号化された値をスキャンして復号化された値で置き換える必要があるXMLのブロックを持っています。私は解読関数を持っており、解読される必要のあるxml要素には、それらが暗号化されていることを示す属性があります。すべての値が暗号化されているわけではなく、返されるXMLは、新しい暗号化された値を除いて開始XMLと同一でなければなりません。 とにかくこれをすると思います。私はxqueryを初め

    1

    1答えて

    私はyes/noの値を持つ列がたくさんあります。これらは、その長さは3であることによって識別されます SELECT colname FROM syscat.columns WHERE tabname='CL' AND length = 3 私は、これらの列のいずれかのためにイエスを持つすべての行をカウントしたいと思います。 だから、通常は私がやるだろう: SELE

    0

    1答えて

    感情分析の結果は1つの列にあります。 Neg | Neutral | Pos ---------+-----+----- 30 | 55 | 100 私は無駄に、私はインターネット上で見つけた多くの異なったアプローチを試してみた:私はこのように、どのような各数が表すカウントを表示したいと思います。 db2構文が頻繁に変更されているようですが、私が見つけたドキュメントは現在のblue

    0

    1答えて

    db2ReadLogを呼び出す外部UDFを介してDB2 LUWデータベースでトランザクション・ログ情報を取得しようとすると、(SQLステートメントで実行しようとした)SQL0487Nが戻されます。同じ共有ライブラリをストアドプロシージャとして使用すると、エラーは発生しません。 UDFである必要がある理由は、トランザクションログから実際のエントリを返すテーブル値のUDFを最終的に作成できるようにする

    1

    1答えて

    同じ列を持つ複数のCSVファイルがありますが、列の順序は異なります。 これらのすべてのCSVファイルを「インポート」によってマージしたいと思います。 このインポートステートメントでお手伝いできますか?このインポートステートメントを列の順序と一致させるにはどうすればよいですか?

    0

    1答えて

    DB2からデータを取り込んで、データを処理してmongoDBに書き込む通常のケースを取ってください。これは私が春のバッチ列範囲パーティション(リモートパーティション)でやっているが、問題は私のDB2のテーブルには、順次の列がないので、各パーティションは異なるデータ数を持っています。このため、各スレーブごとに負荷が異なります。私の要求は、スレーブに負荷を均等に分散させることです。

    -1

    2答えて

    DBの値を読み込んでレポートを生成する効果的な方法についていくつか質問があります。 私は、複数のテーブルからのデータを見るためにhadoopを使い、その結果に基づいてデータ解析を行います。 複数のテーブルからデータを読み込んで、特定の列の値がテーブル全体で同じであるかどうかを評価し、同じでない場合にレポートを送信する効果的なツールや方法があるかどうかを知りたい...私には2つのオプションがあります