EMRクラスタでスパークジョブを実行しようとしています。Amazon EMRへのスパーク送信時にカスタムlog4j.configurationの場所を指定する方法は?
私は、私はlog4j.properties
--files log4j.properties --conf "spark.executor.extraJavaOptions=-Dlog4j.configuration=file:/log4j.properties"
から読み取るのconfigsを追加した火花提出また、私は私のlog4j構成で
log4j.rootLogger=INFO, file
log4j.appender.file=org.apache.log4j.RollingFileAppender
log4j.appender.file.File=/log/test.log
log4j.appender.file.MaxFileSize=10MB
log4j.appender.file.MaxBackupIndex=10
log4j.appender.file.layout=org.apache.log4j.PatternLayout
log4j.appender.file.layout.ConversionPattern=%d{yyyy-MM-dd HH:mm:ss.SSS} [%thread] %5p %c{7} - %m%n
を追加しました。
私は生成されたログファイルが表示されませんがとにかく私は、コンソールでログを参照してください。私はここで間違って何をしていますか? spark-submit --help
を引用
火花提出--class com.myapp.cloud.app.UPApp --master糸--deployモードクライアントを--driver・メモリ4Gの--executorメモリ2グラム--executor-コア8 --filesのlog4j .properties --conf "spark.executor.extraJavaOptions = -Dlog4j.configuration = file://./log4j.properties" --conf "spark.eventLog.dir =/mnt/var/log /" uber-up-0.0 .1.jar私はまだこれを実行しようとしています。場所/log/test.logに作成されたログファイルは表示されません。 –