0
私はApache Spark 2.0.0とApache Hadoop 2.6.0を使用しています。私は自分のハープ・クラスターでスパーク・アプリケーションを実行しようとしています。spark-yarnはエラーexitCode = 16で終了し、解決方法は?
Iは、コマンドラインを使用した:
bin/spark-submit --class org.JavaWordCount \
--master yarn \
--deploy-mode cluster \
--driver-memory 512m \
--queue default \
/opt/JavaWordCount.jar \
10
しかし、糸= 16エラーexictCodeで終了:
17/01/25 11:05:49 INFO impl.ContainerManagementProtocolProxy: yarn.client.max-cached-nodemanagers-proxies : 0
17/01/25 11:05:49 INFO impl.ContainerManagementProtocolProxy: Opening proxy : hmaster:59600
17/01/25 11:05:49 ERROR yarn.ApplicationMaster: RECEIVED SIGNAL TERM
17/01/25 11:05:49 INFO yarn.ApplicationMaster: Final app status: FAILED, exitCode: 16, (reason: Shutdown hook called before final status was reported.)
17/01/25 11:05:49 INFO storage.DiskBlockManager: Shutdown hook called
私はこのtopicでこの問題を解決しようとしたが、それは仮説的な答えを出すものではありません。
誰でもこの問題を解決する方法を知っていますか?
ありがとうございます。