私はAzure Data Factoryを使用して、Azure Data Lake StoreのデータをCosmos DBのコレクションにコピーしています。私たちはデータレイクに数千のJSONファイルを持ち、各JSONファイルは約です。 3 GB。私はデータファクトリのコピーアクティビティを使用しています。最初の実行では、1つのファイルがコレクションをロードするのに10000 RU /秒に設定され、データファクトリはデフォルト設定を使用してロードされました。今私はそれを50000 RU/sにスケールアップし、cloudDataMovementUnitsを32に設定し、writeBatchSizeを10に設定してスピードを向上させるかどうかを確認し、同じファイルを読み込むのに2.5時間かかるようになりました。それでも何千ものファイルを読み込む時間が長くかかるでしょう。Azure Data LakeからCosmos DBへのコピーを高速化する方法
もっと良い方法でこれを行うにはいくつかの方法がありますか?
サイズがGBのコスモスに1つのドキュメントを読み込もうとしていますか?コスモスの文書の最大サイズは2MBです –
いいえ、私が不明な場合は申し訳ありません。各ファイルには数百万のJSON文書が含まれています。JSON文書には位置情報が含まれているため、空間計算を行う必要があります。そのため、Cosmos DBを選択しました。 –