私は、ストリーミングアプリを構築するためにSpark/Kafkaを統合しようとしています。 Kakfaバージョン:0.9 spark:1.6.2SparkStreaming/Kafkaオフセット処理
RDDバッチでデータを処理した後にどのようにオフセットを処理しますか?
オフセットの処理に関する詳細を教えていただけますか?
sparkは自動的にオフセットを保存して読み込む機能を備えていますか?または私はmongo oracleのようないくつかの店からのオフセットを読むためにsparkを導く必要がありますか?
JavaInputDStream<String> directKafkaStream = KafkaUtils.createDirectStream(jsc, String.class, String.class,
StringDecoder.class, StringDecoder.class, String.class, kafkaParams, topicMap,
(Function<MessageAndMetadata<String, String>, String>) MessageAndMetadata::message);
directKafkaStream.foreachRDD(rdd -> {
この回答は非常に幅広く、スパークのドキュメントのコピーだけです。 – avr