Kafka ConnectはLog4Jを使用しているので、必要なロギングを持つインターフェイスはすべて使用されます。あなたのように見えますpreviously realised that :)
SocketAppender
を使用すると、Kafka Connectと簡単にやり取りできます。
ここで私は私のetc/kafka/connect-log4j.properties
に追加するときに機能の設定例です:
log4j.rootLogger=INFO, server
log4j.appender.server=org.apache.log4j.net.SocketAppender
log4j.appender.server.Port=4512
log4j.appender.server.RemoteHost=localhost
log4j.appender.server.ReconnectionDelay=10000
は、その後、私は、接続の起動時に:
$ ./bin/connect-distributed ./etc/kafka/connect-distributed.properties
、私はこれを見て、別のセッションでのnetcatを使用しました:
$ nc -l -k 4512
��sr!org.apache.log4j.spi.LoggingEvent��#t�?
ZmdcCopyLookupRequiredZndcLookupRequiredJ timeStampLcategoryNametLjava/lang/String;LlocationInfot#Lorg/apache/log4j/spi/LocationInfo;LmdcCopytLjava/util/Hashtable;Lndcq~LrenderedMessageq~L
throwableInfot+Lorg/apache/log4j/spi/ThrowableInformation;xp^�'�[email protected]erpppt<Registered loader: [email protected] pxysr!org.apache.log4j.spi.LoggingEvent��#t�?
ZmdcCopyLookupRequiredZndcLookupRequiredJ timeStampLcategoryNametLjava/lang/String;LlocationInfot#Lorg/apache/log4j/spi/LocationInfo;LmdcCopytLjava/util/Hashtable;Lndcq~LrenderedMessageq~L
throwableInfot+Lorg/apache/log4j/spi/ThrowableInformation;xp^�'�'[email protected]erppptDAdded plugin 'org.apache.kafka.connect.file.FileStreamSinkConnector'tmainpwN pxysr!org.apache.log4j.spi.LoggingEvent��#t�?
ZmdcCopyLookupRequiredZndcLookupRequiredJ timeStampLcategoryNametLjava/lang/String;LlocationInfot#Lorg/apache/log4j/spi/LocationInfo;LmdcCopytLjava/util/Hashtable;Lndcq~LrenderedMessageq~L
次に、log4j logstash pluginを実行する必要がありますこれをデコードする。
sending Log4J to Logstashについては、このノートをお読みください。代わりに答えはFilebeatを使用することです。
あなたはこれをしたい理由を説明できますか?そのサウンドから、あなたのConnectタスクからログを取り出して別の場所に置いてもらいたいのですか? 「どこか」とは何ですか?これは、カスタムコネクタではなく、Connect自体でやりたいことのように思えます。 –
logstashで公開されているポートにkafkaコネクタアプリケーションログを投稿します。だから、私は弾力的な検索ですべての私のカフカ接続ログをホストすることができます –