したがって、AWS R3.4xLargeマシンでいくつかのhadoopジョブを実行しようとしています。彼らは16のvcoresと利用可能なRAMの122ギガバイトを持っています。hadoopは、より多くのノードが使用されたときに十分なコンテナを作成しません。
私のマッパーのそれぞれは、約8ギガのRAMと1つのスレッドを必要とするので、これらのマシンは仕事に非常に近いです。
Iは 、8192に設定され、これは、各マシン上で実行されている(12練習近いで)約14マッパをもたらすはずである-Xmx6144 に設定mapreduce.map.java.opts mapreduce.memory.mbました。
これは実際に、スケジューラがクラスタの90%の使用率を示す2スレーブ設定の場合です。
しかし、例えば4つのスレーブにスケーリングすると、hadoopは単により多くのマッパーを作成しないようです。実際にはそれはLESSを作成します。
私の2つのスレーブ設定では、私は約20以下の4つのスレーブ上で、一度に30のマッパーしか稼働しませんでした。マシンはわずか50%の稼働率で座っていました。
vcoresが存在し、物理メモリがあります。何が欠けているのですか?なぜハーフープはコンテナを作成しないのですか?