これは、Confluentプラットフォームで直列化されたAvrosです。私はこのような実施例を見つけたいSpark Streamingを使用して、Kafkaからバイナリシリアル化されたAvro(Confluent Platform)を読むにはどうすればいいですか?
:
が、スパーク構造化されたストリーミング用
。kafka
.select("value")
.map { row =>
// this gives me test == testRehydrated
val test = Foo("bar")
val testBytes = AvroWriter[Foo].toBytes(test)
val testRehydrated = AvroReader[Foo].fromBytes(testBytes)
// this yields mangled Foo data
val bytes = row.getAs[Array[Byte]]("value")
val rehydrated = AvroReader[Foo].fromBytes(bytes)
解決策を見つけましたか? – aasthetic
@aasthetic以下を参照 – zzztimbo