GCPの新機能で、次の点に関する助けが必要でした。 .jsonファイルをクラウドストレージにアップロードしていて、解析のためにデータをクラウドデータストアに移動する必要があります。 /クエリ。クラウドストレージ上のJSONファイルからデータストアへのデータフローパイプラインの作成方法
大きなデータセットがネイティブにインポートするには時間がかかりすぎる可能性があるので、データフローを使用して変換して読み込むのは興味深いと思います。 アイデアや助けをいただければ幸いです。
GCPの新機能で、次の点に関する助けが必要でした。 .jsonファイルをクラウドストレージにアップロードしていて、解析のためにデータをクラウドデータストアに移動する必要があります。 /クエリ。クラウドストレージ上のJSONファイルからデータストアへのデータフローパイプラインの作成方法
大きなデータセットがネイティブにインポートするには時間がかかりすぎる可能性があるので、データフローを使用して変換して読み込むのは興味深いと思います。 アイデアや助けをいただければ幸いです。
これはかなり簡単な問題です。
レビューここでデータフローパイプラインの作成の基本:GCSから https://beam.apache.org/documentation/pipelines/design-your-pipeline/
がエンティティにJSONを変換する:あなたがする必要があります https://cloud.google.com/dataflow/java-sdk/JavaDoc/com/google/cloud/dataflow/sdk/coders/TableRowJsonCoder (または類似)
希望します。