2016-09-12 7 views
2

私はKafkaから消費し、HadoopとElasticsearchにデータを保存したいと考えています。 私はこれを行う2つの方法を現在見てきました.Filebeatを使用してKafkaから消費し、ESに送信し、Kafka-Connectフレームワークを使用します。 Kafka-Connect-HDFSとKafka-Connect-Elasticsearchモジュールがあります。Kafka-ConnectとFilebeat&Logstash

ストリーミングデータを送信するためにどちらを使用するかわかりません。ある時点でKafkaからデータを取り出してCassandraに入れることを望むなら、私はKafka-Connectモジュールを使用することができますが、Filebeatにはこのような機能はありません。

+0

ここではFilebeatが使われる理由を理解できません。それは、KafkaからのTCPメッセージではなく、ファイルを読み込みます。あなたはビートは必要ありません、ただLogstash –

答えて

2

Kafka Connectはストリーミングデータを扱うことができ、さらに柔軟性があります。あなたが弾力をつけようとしているのであれば、Filebeatはログソースのクリーンな統合です。しかし、あなたがカフカからいくつかの異なるシンクに行くなら、カフカコネクトはおそらくあなたが望むものです。私は現在、あなたの使い捨てでオープンソースコネクタのいくつかの例を見るためにコネクタハブをチェックすることをお勧めします。

+2

事は私はあなたに同意しますが、私は一方的な方法が他よりも優れている証拠を持っていません。あなたの答えを少し拡大してもよろしいですか? – Adrian

+1

完全な開示、私はカフカの観点からこれに着きます。私は、カフカコネクトが一般的に、カフカデータを他のデータストアとの間でやりとりするための柔軟性とプラガブル性が高いと思います。 Filebeatはデータをエラスティックに移動することを専門としているため、設計上汎用されていません。 – dawsaw

+2

これらのオプションの間のパフォーマンスに関する情報はありますか? – imehl

関連する問題