0
私はKafkaからmsgを読み込んで何らかの処理を行うSparkアプリケーションを継続して実行しています。集約された「アプリケーションログ」を取得する方法はありますか?Sparkアプリケーションの実行から集約ログを取得する方法
AFAIK、ログ集計は、SparkContextが破棄された場合にのみ発生します。
私はKafkaからmsgを読み込んで何らかの処理を行うSparkアプリケーションを継続して実行しています。集約された「アプリケーションログ」を取得する方法はありますか?Sparkアプリケーションの実行から集約ログを取得する方法
AFAIK、ログ集計は、SparkContextが破棄された場合にのみ発生します。
ログ用に標準のYARNコマンドを試しましたか?
ヤーンログ-applicationId some-id
YARNで実行していますか?あなたはYARNのログをしたいですか? –
はいArun。ここに私のコマンドはありますか?/ usr/bin/spark-submit - マスター糸 - デプロイモードクライアント - supervise - ドライバメモリ20G - エグゼキュータメモリ20G - ドライバクラスパス=/home/jvadisela /spark/guava-18.0.jar:/home/jay/spark/jackson-core-2.4.5.jar --class com.collective.datarollup.entry.Startup /home/jay/spark/Test-0.0.1- SNAPSHOT-jar-with-dependencies.jar –
はストリーミングアプリケーションですか? –