2017-11-18 1 views
2

私は200を超えるMSSQLテーブルを持っており、データをAzure Data Lake Storageに転送したいと考えています。 私が考えているアプローチの1つは、SSISを動的データフローで使用することです。つまり、テーブル名変数を作成し、テーブル名とテーブルごとにforeachループを実行します。しかし、この方法は間違っているようですが、正しいスキームでData Lakeストレージにファイルが作成されますが、データが間違ったマッピングによって転送されません。 1つの動的データフローを作成し、膨大な数のテーブルのデータを転送する一般的な方法はありますか?SSIS複数テーブルのコピー

+1

ADFが役立つかどうかを確認するためにazure-data-factoryタグを追加する方法についてのチュートリアルをご覧ください。 –

+0

メタデータベース内の各テーブルのメタデータを追加します。転送を処理するストアドプロシージャを自動的に作成します。 SQLジョブエージェントでパラレルを実行します。 – plaidDK

答えて

関連する問題