下記のHadoop糸では、MapReduceマップメモリがクラスタ上のブロックサイズよりも大きいのはなぜですか?
a)各InputSplitまたはブロックに対して、新しいマップがトリガーされます。
b)クラスタの典型的なブロックサイズは128 MBです。
c)MapReduce.map.memory.mbは、ほとんどのクラスタで1GBより大きく設定されています。
は、実際にはClouderaのブロックサイズの推奨は、128 MBで、ブロックサイズは、我々はマップメモリに1 GBを割り当てる必要があります理由だけで128メガバイト、あるときMapReduce.map.memory.mbはGB1であります(MapReduce.map.memory.mb)?理想的には、128 MBが最大限のニーズを満たす必要があります。なぜマップメモリのブロックサイズ以上を与えているのでしょうか?
ありがとう@トーマスの説明。出力、スピルバッファ、ソートバッファにはメモリが必要であることが理にかなっています。出力として、スピルバッファとソートバッファは、128 MBのブロックで実行されるマップ関数からのデータからのものです。ブロックサイズが256 MBの場合、MapReduce.map.memory.mbに割り当てられるメモリが増えると思いますか? – Premchand
@Premchand私は、入力ブロックサイズに基づいてマッパーのヒープメモリを変更するとは思わないでしょう。 –