AWS EMR-Sparkでアプリケーションを実行していました。ここでは、スパーク送信ジョブです。 -AWS EMR-Yarn Container
Arguments : spark-submit --deploy-mode cluster --class com.amazon.JavaSparkPi s3://spark-config-test/SWALiveOrderModelSpark-1.0.assembly.jar s3://spark-config-test/2017-08-08
AWSはリソース管理にYARNを使用します。私はメトリック(以下のスクリーンショット)を見ていて、YARNの「コンテナ」メトリクスについて疑問を抱いていました。ここ
、容器はがしかし、私は4つのノード(3スレーブ+ 1つのマスター)、すべての8コアCPUを用いた2として示されている割り当てられました。では、2つのコンテナはどのように割り当てられますか?
ジョブに割り当てられているコアのメモリ容量はどれくらいですか?ノードの1つがApplication Managerを実行し、そのノードで1つのコアが予約されていることに注意してください。したがって、各エグゼキュータに8つのコアを割り当てると、2つのエグゼキュータのみが起動されます。 –
アプリケーション・マネージャはマスター・ノード上で正しく動作しますか?また、私はコアのメモリを指定していないので、いくつかのデフォルトを取得する必要があります。 – Sanchay
AMはドライバ上ではなくスレーブ上で動作しません。この設定で 'capacity-scheduler.xml'を調整することを思い出しましたか?' 'yarn.scheduler.capacity.resource-calculator ':" org.apache.hadoop.yarn.util.resource.DominantResourceCalculator "'?また、必要なエグゼキュータの数を指定する必要があります。 YARNは自動的にクラスタ全体を利用しません。 –