2016-07-17 6 views
1

Redshiftをspark-redshift-connector(scala)で定期的に更新したいと考えています。 各更新は、削除操作から始まります。 (私はを実行中です。RedshiftにUpsertを入力してください)spark-redshift-connector:削除クエリで赤色シフトに保存する

ライブラリで実行できる方法はありますか? トランザクションを使用することはできますか?

アドバイスをいただければ幸いです。

ありがとう、 Eran。

答えて

1

トリックを行う「preactions」(および「postactions」)というオプションがあるようです。

は、ドキュメントを参照してください。 https://github.com/databricks/spark-redshift

+0

あなたは、参考のために実施例を共有することはできますか? upsertの条件付き削除を行うために、Redshiftの着陸エリアに火花データフレームを送信する必要はありませんか?言う:----------- '' 'test_2からtest_2を削除するにはtest_1を使用します。ここで、test_2.a = test_1.aとtest_2.b = test1.b'''は-----私たちは必然的にred_1でtest_1とtest_2を持っています----どのような事前対応がここで助けになるのですか? – user1652054

関連する問題