2017-09-28 10 views
0

私はkafkaで雲の流れを湧き上げ、そのコンセプトについて何か疑問を抱く初心者です。私のアプリケーションでは、ソースがカフカバインダーにストリームを送信すると、データが積み重なりません。データソースが実際に消費されていないKafkaのコンシューマーで動作しているのがわかります。Kafkaバインダー付きSpring Cloudストリームとソースからデータをキューに入れる方法

しかし、私は受信機に積まれたデータを消費することができませんでした(プロセッサのリスナー)。ほぼリアルタイムでソースからストリーミングされたデータだけを消費することができます。

例を挙げておきます。プロデューサーのために 、消費者のために

data1, data2, data3, data4, data5, ... (streaming for producer) 

DATA4が生産されたとき、それが開始されるだろう。その後、私はカフカ、DATA1、DATA2の概念を知っているように私のアプリケーションは

data4, data5, data6, .... (streaming for consumer) 

...データ4からデータを取得し、DATA3は、消費者を待っているしなければならないだろうが、それは私のためにしません。何が間違っていて、これを解決しようとしているのか分かりますか?

答えて

0

設定を表示する必要があります。

匿名のコンシューマ(spring.cloud.stream.bindings.xxx.groupを持たない消費者)は、(開始時に)トピックの最後から消費を開始するため、一部のメッセージを「見逃す」可能性があります。

group(消費したことのない消費者)の冒頭が開始されます。 group(前に消費した消費者)の消費者は、中止したところから始まります。

+0

これははっきりしており、私はカフカでグループが何を意味するのかを探しました。あなたは私の一日を作った。どうもありがとうございます。私のように苦労している人々のためにいくつかの情報を提供するために、同じチャネルにグループを追加すると、データをアウトバウンドすることができます。 1つのトピックと1つの消費者があってもグループを使用することをお勧めします。乾杯! – sunsets

関連する問題