2016-08-23 8 views
0

フォーマットが異なる別々のシステムに移動する必要のある受信データストリーム(ウェブサイトからデータを取り除いたデータ)があります。ストリームはJSON形式で非常に詳細に届きますので、ElasticSearchにプッシュする必要がありますが、このデータの一部をリレーショナルデータベースやグラフデータベースに追加する必要があります。 これは、ElasticSearch、Neo4Jなどの消費者とKafka/Stormの良いユースケースですか?また、監視システムの情報を最初のストリームから派生させたいので、監視用の消費者も持っているかもしれません。 これは、このユースケースがKafkaやStormのようなものを見るのが理にかなっていれば、もっと建築的な疑問です。 ありがとう フィリピンKafka、Storm、Elasticsearchでデータパイプラインを構築する

答えて

1

はいいいえ、データをストリーミングし、そのデータを別のデータベースにプッシュするための良いケースKafkaのようです。処理側では、Storm、Flink、Sparkなどの複数のオプションがあります。ユースケースに基づいて1つを選択できます。

+0

ありがとうSunil私はStormとFlinkのドキュメントを見てきました。最初の反応として、私はFlinkが好きだと言っていますが、APIの例は非常に直感的に読めました。私はウィンドウのメカニズムをかなりうまく使うことができると思います。しかし、FlinkとStormを比較している他の質問があります。ストームでは明らかに、発生する一連の事柄を定義するようなトポロジーがあります。私は、Flinkで変換を行い、その後Kafkaにフィードバックし、別のFlinkの消費者がそれを消費し、別の変換を行うという1つのプログラムを持つと言っているのは間違いありませんか? –

関連する問題