私は2つのドッキングコンテナ、1つはLogstash、もう1つはZookeeperとKafkaを実行しています。 Logstashからカフカにデータを送信しようとしていますが、カフカのトピックにデータを渡すことができないようです。ドッカー:logstashコンテナからカフカコンテナにデータを送ることはできません
私はDocker Kafkaコンテナにログインし、端末から自分のトピックへのメッセージを生成し、消費することもできます。私は./bin/logstash agent --config /etc/logstash/conf.d/01-input.conf
私はこのエラーを取得を実行すると
output {
kafka {
topic_id => "MyTopicName"
broker_list => "kafkaIPAddress:9092"
}
}
ipAddressは私がdocker inspect kafka2
を実行しているからだ:
私は、出力カフカプラグインを使用しています。
Settings: Default pipeline workers: 4
Unknown setting 'broker_list' for kafka {:level=>:error}
Pipeline aborted due to error {:exception=>#<LogStash::ConfigurationError: Something is wrong with your configuration.>, :backtrace=>["/opt/logstash/vendor/bundle/jruby/1.9/gems/logstash-core-2.3.3-java/lib/logstash/config/mixin.rb:134:in `config_init'", "/opt/logstash/vendor/bundle/jruby/1.9/gems/logstash-core-2.3.3-java/lib/logstash/outputs/base.rb:63:in `initialize'", "/opt/logstash/vendor/bundle/jruby/1.9/gems/logstash-core-2.3.3-java/lib/logstash/output_delegator.rb:74:in `register'", "/opt/logstash/vendor/bundle/jruby/1.9/gems/logstash-core-2.3.3-java/lib/logstash/pipeline.rb:181:in `start_workers'", "org/jruby/RubyArray.java:1613:in `each'", "/opt/logstash/vendor/bundle/jruby/1.9/gems/logstash-core-2.3.3-java/lib/logstash/pipeline.rb:181:in `start_workers'", "/opt/logstash/vendor/bundle/jruby/1.9/gems/logstash-core-2.3.3-java/lib/logstash/pipeline.rb:136:in `run'", "/opt/logstash/vendor/bundle/jruby/1.9/gems/logstash-core-2.3.3-java/lib/logstash/agent.rb:473:in `start_pipeline'"], :level=>:error}
stopping pipeline {:id=>"main"}
OKを返した次のコマンドを実行して、ファイルの構成をチェッカーで確認しました。
./bin/logstash agent --configtest --config /etc/logstash/conf.d/01-input.conf
Configuration OK
誰もが今までこの渡って来て、それは私がカフカコンテナのポートを開いて、どのように私は実行中のカフカを維持しながら、それを行うことができますもしそうならなかったということでしょうか?
作品100%ありがとう – Gman