私はHadoop上でSparkを使用しており、Sparkが仮想メモリを実行者に割り当てる方法を知りたいと思っています。Sparkで仮想メモリはどのように計算されますか?
YARN vmem-pmemによると、コンテナに仮想メモリを2.1倍与えます。
したがって、XMXが1 GBの場合、 - > 1 GB * 2.1 = 2.1 GBがコンテナに割り当てられます。
Sparkではどのように動作しますか?そして、以下のステートメントは正しいですか?
私は、その後、= 1ギガバイト= 1ギガバイト
合計仮想メモリ* 2.1 * spark.yarn.executor.memoryOverheadをキュータのメモリを与えた場合。これは本当ですか?
もしそうでなければ、Sparkで計算されたエグゼキュータの仮想メモリはどのようになっていますか?スパークキュータリソース、糸クライアント糸クラスタモードの
http://stackoverflow.com/questions/21005643/container-is-running-beyond-memory-limits。私はこれがあなたを助けることを願って – Backtrack
私の答えをチェックしてくださいできますか? – Backtrack