私は、デバッグモードをオンにして、EMR(spool)ジョブを実行しています(糸、クラスタモード、一時 - ジョブ終了後にクラスタがシャットダウンします)。すべてのスパーク・ログは期待通りS3にアップロードされているが、私は私自身のカスタムログをアップロードすることはできません... 使用してlog4jの、私はそれはのように思える火花ドキュメントlog4j.appender.algoLog.File=${spark.yarn.app.container.log.dir}/algoLog.log
awsからのカスタムユーザログのスパークEMR
た内容に応じて、folowingパスに書き込むしようとしています変数は未定義です。それはrootに直接書き込もうとします。 /algoLog.log
。 私はそれを他の任意の場所に書いています。それはs3には表示されません。 クラスタをシャットダウンした後にEMRをs3にアップロードする場合は、自分のログファイルをどこに書き込むべきですか?
Sparkのバージョンをお使いですか? –
EMRバージョン5.5.0、Spark 2.1.0 – NetanelRabinowitz