sqoop2

    -1

    3答えて

    私はhadoopとsqoopの言葉で新しくなりました。私はhadoop 2.7.3(擬似モード)をインストールし、システム上正常に動作しています。 私はsqoopとの統合を望みます。私はsqoop sqoop-1.99.7-bin-hadoop200を使用しています。 1)Iは、tarファイルを抽出し、.bashrcファイルには/ usr/local/sqoop 2)セットSqoop路内に抽出され

    0

    1答えて

    sqoopは実行のためにどのようにvcoresを取得しますか?私は、4つのマッパーを持つsqoopジョブを提出し、利用可能な約50のvcoresがある場合でもアプリケーションは1つのvcoreから開始します。したがって、parelllizationはありません。これは、テキストファイルへのインポートsqoopジョブです。これらは、vcroreの割り当てに関する糸のコンフィギュレーションパラメタです

    1

    1答えて

    sqoop import -D mapred.map.child.java.opts='-Doracle.net.tns_admin=. -Doracle.net.wallet_location=.' -files $HOME/wallet/cwallet.sso,$HOME/wallet/ewallet.p12,$HOME/wallet/sqlnet.ora,$HOME/wallet/tnsna

    0

    1答えて

    UbuntuマシンにCDH5かかわらインストールアンインストールするために、私はまだ端子を介してsqoopバージョンを参照してください。実行しているClouderaのマネージャサービスを取り付ける [email protected]:~$ sqoop version Warning: /opt/cloudera/parcels/CDH-5.13.1-1.cdh5.13.1.p0.2/bin/..

    0

    1答えて

    sqoopを使用してmysqlデータベースのテストからhadoopにデータをインポートしようとしています。しかし、プライマリといくつかのテーブルを持ついくつかのテーブルでは、プライマリキーがありません。 $sqoop import-all-tables --connect jdbc:mysql://192.168.0.101/mysql -username test -P --warehouse-

    0

    1答えて

    私はsqoopを学習しています。 選択したテーブルをデータベースからインポートしたいのですが、どうすればいいですか? 1つのデータベースに1000個のテーブルがある場合は、500個のテーブルしかインポートしません。 -exclude-tablesを使用できますが、除外するコマンドラインに500個のテーブル名をすべて入力することはできません。親切に私にそれを達成する方法をお勧めしますか?

    0

    1答えて

    入力データをhdfsからsqoopを介してpostgress dbにエクスポートします。 入力データがpostgressテーブルで適切な形式になっているときにこれを実現できます。 しかし、私はそれを置く前に、私は各値にいくつかのノーを追加したいと言うように、私は入力データをdbにエクスポートする前にいくつかの操作を実行したいと思います。 ので、sqoopこの.. sqoopバージョンpeformす

    0

    1答えて

    私は10のマッパーでsqoop stmtを持っています。各データが1GBを超えると、全体のデータがハーフープで10個になります。私は、データを複数の小さなファイルに分割したいと思います。10以上のファイルは、それぞれ200MBの50個のファイルのようなものです。しかし、DBのボトルネックの問題のため、私はsqoopで10以上のマッパーを作成することはできません。簡単な解決策があれば教えてください。

    0

    1答えて

    Sqoopジョブは、特定のデータベースのJDBCドライバとともにコネクタを使用してデータベースに接続しています。しかし、ダイレクトオプションを有効にすることでSqoopのドキュメントで述べたように、 'mode import.Howは、JDBCドライバを使用する通常のコネクタとは異なります。私はドキュメントを読みましたが、明確な理解は得られていません。 Teradata用のダイレクトコネクタもあり

    0

    2答えて

    sqoopは、テーブル主キーまたは--split-by <columns>を使用してRDBMSからHDFSに転送します。デフォルトのマッパー数は4であると思います。しかし、--directによって、マッパーを使わずに転送を高速化することができます。私の質問は、マッパーが使用されていない場合、SqoopがHadoopフレームワークでの転送をどのように処理できるかです。