2017-05-18 14 views
0

私は、dockerを使用してSpring Cloud Dataflowサーバーを展開しています。私はソース、プロセッサ、およびシンクとしてスプリングブートアプリケーションのカップルをデプロイすることによって、データフローサーバー内にデータ処理パイプラインを作成しました。各サービスのログにアクセスするためには、ドッカー・ダーバー(bash)の内側から尾を引くか、ドッカー・コンテナからローカル・ディスクにコピーする必要があります。Spring Cloud Dataflowサーバーログの管理

後で分析するためにlog4j-kafka appenderを使用してこれらのログをkafkaにプッシュしたいとします。私はすでに、春の雲のデータフローの外で動作する他のサービスのためにこれをやっています。 log4jを使用して、春のクラウドデータフロー内で実行されているサービスのログを管理する方法はありますか?あなたがコンテナであなたの春のクラウドサーバーとカフカを実行している場合は

答えて

1

Spring Cloud StreamおよびSpring Cloud Taskアプリケーションは、スタンドアロンのSpringブートアプリケーションです。このSO threadには、SpringブートアプリケーションからKafkaへのログを一貫して公開するための関連ライブラリの追加に関するいくつかの洞察があります。

OOTBアプリにこの機能を追加する場合は、リファレンスガイドに記載されているpatching procedureをご確認ください。

0

あなたはコンテナが、私はこのリンクDBコンテナ チェックにWebアプリケーションコンテナをリンクしていますインスタンス$ docker run -d -P --name web --link db training/webapp python app.pyため互いに と話すこれらのコンテナをリンクするdocker linkを使用することができます詳細情報https://docs.docker.com/engine/userguide/networking/default_network/dockerlinks/#communication-across-links

+0

コンテナは既にリンクされています。私は問題は、データフローサーバーが、各サービスのクラスパスにあるlog4jファイルを使用する代わりに、デフォルトのバネロギングメカニズムを使用していることです。 – krajwade

関連する問題