私は、dockerを使用してSpring Cloud Dataflowサーバーを展開しています。私はソース、プロセッサ、およびシンクとしてスプリングブートアプリケーションのカップルをデプロイすることによって、データフローサーバー内にデータ処理パイプラインを作成しました。各サービスのログにアクセスするためには、ドッカー・ダーバー(bash)の内側から尾を引くか、ドッカー・コンテナからローカル・ディスクにコピーする必要があります。Spring Cloud Dataflowサーバーログの管理
後で分析するためにlog4j-kafka appenderを使用してこれらのログをkafkaにプッシュしたいとします。私はすでに、春の雲のデータフローの外で動作する他のサービスのためにこれをやっています。 log4jを使用して、春のクラウドデータフロー内で実行されているサービスのログを管理する方法はありますか?あなたがコンテナであなたの春のクラウドサーバーとカフカを実行している場合は
コンテナは既にリンクされています。私は問題は、データフローサーバーが、各サービスのクラスパスにあるlog4jファイルを使用する代わりに、デフォルトのバネロギングメカニズムを使用していることです。 – krajwade