プロデューサからプロデューサへのランダムメッセージをコマンドラインで公開する基本的な例を試してみました。 ローカルマシンに存在するすべての1GBのデータを公開します。そのために、私はその1GBのデータをプロデューサーにロードするのに苦労しています。ローカルマシンから直接1GBのファイルをKafkaプロデューサにロード
お願いします。
プロデューサからプロデューサへのランダムメッセージをコマンドラインで公開する基本的な例を試してみました。 ローカルマシンに存在するすべての1GBのデータを公開します。そのために、私はその1GBのデータをプロデューサーにロードするのに苦労しています。ローカルマシンから直接1GBのファイルをKafkaプロデューサにロード
お願いします。
あなたは、単にカフカのトピックに簡単にリダイレクトしてファイルをダンプすることができます。 1.xmlが1GBファイルであると仮定すると、以下のコマンドを使用することができます。
bin/kafka-console-producer.sh --broker-list localhost:9092 --topic test123 < ./1.xml
socket.request.max.bytes
,socket.receive.buffer.bytes
,socket.send.buffer.bytes
。max.message.bytes
を設定する必要があります。console-producer.sh
に変更してください。これらは、カフカのデータをロードするための一般的な手順です。 エラーが発生した場合は、さらに理解できます。
だからアプローチのカップルが助けることができる: 1)あなたは、このようなユースケースのために構築されている水路のようなビッグデータ・プラットフォームを使用することができます。 2)あなたはあなた自身のコードを実装したい場合は、新しいファイルをフォルダ(Capture events happening inside a directory)で、あなたは、あなたがデータを公開するコードを呼び出すことができたら到着したときにイベントをキャプチャして、あなたを助けるたApacheのコモンズのLibを使用することができますカフカで 3)私たちのプロジェクトでは、Logstash APIを使ってフォルダからフェッチし、ファイルからkafkaにデータを公開し、Stormで処理します。
あなたのコマンドは、データをプロデューサからブローカにプッシュすることです。これは私がすでに知っている。私の作ったプロデューサーは、場所からリアルタイムで大きなビッグファイルを読み込みます。ある場所にある新しいファイルはすべてプロデューサーによって読み込まれ、自動的にブローカーに送られます。 –
私はエラーに直面していません。私は始動だけに問題があります。私はプロデューサに場所からリアルタイムですべてのファイルを読むように指示する方法を意味します –
したがって、いくつかのアプローチが役立ちます:1)そのようなユースケース用に構築されたFlumeのような大きなデータプラットフォームを使用できます。 2)独自のコードを実装したい場合は、新しいファイルがフォルダに到着したときにイベントをキャプチャするのに役立つApache commons Libを使用することができます(http://stackoverflow.com/questions/19678170/capture-events-happening-ディレクトリ内にあります)、一度それがあれば、カフカのデータを公開するコードを呼び出すことができます。 3)私たちのプロジェクトでは、Logstash APIを使ってフォルダからフェッチし、ファイルからkafkaにデータを公開し、Stormで処理します。 – Amar
何が問題ですか? – serejja
は、カフカの場所から多くのファイル(そのフォルダは1GBになります)を読み込みます。 –