0
私はスパーククラスターに24のコアと124GbのRAMを持つノードを持っています。 spark.executor.memoryフィールドを80gに設定すると、ノードごと、またはコアごとに80gのRAMを使用できることが予想されますか?pyspark spark.executor.memoryはコアまたはノードごとですか?
私はスパーククラスターに24のコアと124GbのRAMを持つノードを持っています。 spark.executor.memoryフィールドを80gに設定すると、ノードごと、またはコアごとに80gのRAMを使用できることが予想されますか?pyspark spark.executor.memoryはコアまたはノードごとですか?
エグゼキュータごとに、複数のコアを持つように設定できます。あなたは、次の関連する設定を指定できます。
に与える - 各エグゼキュータに
また、ドライバとオペレーティングシステムの両方にいくつかのコアとRAMを残しておく必要があります。だから、実際の設定のためにあなたがあるためにあなたのエグゼキュータのメモリを必要と何かのように:
NUM_EXECUTORS =(desired_total_executor_cores/num_cores_per_executor) EXECUTOR_RAM =(desired_total_executor_ram/NUM_EXECUTORS)