3
spark-redshift
で列を切り捨てる方法については、エラーを返すのではなく、列の内容が長すぎる場合には不思議です。列の内容が長すぎる場合、spark-redshiftで列をトランケートする方法はありますか?
spark-redshift
で列を切り捨てる方法については、エラーを返すのではなく、列の内容が長すぎる場合には不思議です。列の内容が長すぎる場合、spark-redshiftで列をトランケートする方法はありますか?
spark-redshift
コネクタは、フードの下のredshift-jdbc
コネクタを使用します。このコネクタは、適切なCOPY
およびUNLOAD
コマンドをAWS Redshiftに自動的にトリガーするために使用されます。
しかし、あなたは、例えば、データをロードするときにAWS赤方偏移COPY
コマンドに追加する余分なオプションのリストであるextracopyoptions
を指定することができますあなたの場合はTRUNCATECOLUMNS
です。
これらのオプションはCOPY
コマンドの最後に追加されているので、コマンドの最後に意味をなすだけのオプションを使用することができることを注意、それは最も可能性のユースケースをカバーする必要があります。
実行しているコマンドは何ですか? Redshiftから抽出したのですか、Redshiftにデータを挿入しましたか? Amazon Redshiftには、「COPY」を介してデータをロードする際に、[TRUNCATECOLUMNS](https://docs.aws.amazon.com/redshift/latest/dg/copy-parameters-data-conversion.html#copy-truncatecolumns) 'コマンド。 'spark-redshift'で使えるかどうか不明です。 –
それに慣れていれば、スパーク・レッドシフト・ライブラリにそれを呼び出すフラグがあるのだろうかと疑問に思う。 – flybonzai
明日の仕事に入るまで、解決策を確認する機会はない。それから私は受け入れて閉じます! – flybonzai