GoogleBigqueryにjsonファイルをロードしようとしていますが、 https://github.com/GoogleCloudPlatform/python-docs-samples/blob/master/bigquery/api/load_data_by_post.pyのスクリプトを少し修正して使用しています。 私はMediaFileUploadに大きなファイルにBigQueryスクリプトが失敗しました
,chunksize=10*1024*1024, resumable=True))
を追加しました。
このスクリプトは、数百万のレコードを持つサンプルファイルに対して正常に動作します。実際のファイルは約140 GBで約200,000,000レコードです。 insert_request.execute()は常に半時間かそこら後
socket.error: `[Errno 32] Broken pipe`
で失敗します。どのようにこれを修正することができますか?各行は1 KB未満なので、クォータの問題ではありません。
ここで同じ質問があります。 http://stackoverflow.com/questions/38971523/insert-large-amount-of-data-to-bigquery-via-bigquery-python-library –
固定フォーマットとタイプミス – Prune
Hey Jayadevan、BigQueryエンジニアリングチームあなたがプロジェクトと仕事のIDを投稿したいのであれば、私たちのログに何か目立つものがあるかどうかを見てみることができます。 – Tib51