kafka-consumer-api

    0

    1答えて

    特定のカフカパーティションにpythonコンシューマスクリプトを添付する方法。 コンシューマスクリプトのインスタンスを2つ実行すると(以下に示す)、それぞれがランダムに1つのパーティションを取得し、その特定のパーティションのすべてのメッセージを消費/印刷します。 しかし、ディスク上のローカルファイルという名前のパーティションにこれらのメッセージを出力する必要があるため、事前に宣言されたパーティショ

    0

    1答えて

    kafka .netクライアントを使用して、2人のカフカ消費者のデータの負荷をどのように分けることができますか。

    0

    1答えて

    カフカトピックに入ってくるすべてのレコードをDynamoDBに挿入します。同じことができるオープンソースのプラグインがありますか?それとも、DynamoDB自体の中で私がそれをやり遂げることができる他の良い方法がありますか? Plsのは、提案DynamoDBのでカフカのメッセージを格納 ロークシュナラヤン

    0

    2答えて

    Apache Kafkaにキューイングシステムを構築しました。アプリケーションは特定のKafka topicへのメッセージを生成し、消費者側ではそのトピックに生成されたすべてのレコードを消費する必要があります。 新しいJava Consumer APIを使用してコンシューマを作成しました。 コードはここ Properties props = new Properties(); p

    0

    1答えて

    私はカフカの高レベル消費者です。 public class KafkaHighLevelConsumer implements Runnable { private final KafkaConsumer<String, String> consumer; private final List<String> topics; private final int id;

    3

    1答えて

    私はビッグデータがさらに新鮮です。 私はMySQLのデータベースを持っており、これをストリーミングプロセスのためにApache Kafkaにインポートする方法がわかりません。 そして、消費者からデータを入手してください。 私に助言してください。

    3

    2答えて

    私はカフカと仕事をする必要があるかもしれません。私はそれを絶対に新しくしています。私は、カフカのトピックでログを取得するカフカのプロデューサーがいることを理解しています。 私は消費者からKafkaトピックから読むことに取り組む必要があります。コンシューマーAPIを設定してから、SparkStreaming Context(PySpark)を使用してストリーミングするか、KafkaUtilsモジュー

    0

    1答えて

    私はKafkaキュー0.8.2を使用しており、標準のポーリングとプッシュコールを実装しています。今、Simple Consumerの実装が必要なpollByIndexメソッドに行きたいと思っています。 はシンプルな消費者を実装する作業の多く:) アップグレード0.9には、私のためにまだConsumerAPIないオプションを使用することができるので、誰かがすでにこのようなメソッドを扱ういくつかのカス

    10

    1答えて

    https://www.safaribooksonline.com/library/view/kafka-the-definitive/9781491936153/ch04.htmlのドキュメントには、と記載されています。自動コミットを有効にすると、pollの呼び出しは常に前のポーリングによって返された最後のオフセットをコミットします。ポーリングによって返されたすべてのイベントを常に処理してからp