2017-06-22 10 views

答えて

0

sparkジョブで使用するコアの数を制限するには、--total-executor-coresオプションをspark-submitコマンドに追加する必要があります。各エグゼキュータが使用するメモリ量を制限するには、--executor-memoryオプションを使用します。たとえば:

spark-submit --total-executor-cores 10 \ 
      --executor-memory 8g \ 
      --class com.example.SparkJob \ 
      SparkJob.jar 

また、これは、火花シェル

spark-shell --total-executor-cores 10 \ 
      --executor-memory 8g 
+0

あなたの応答をありがとうスティーブンで動作します。ただし、ジョブレベルごとの設定が必要です。私の質問は、スレーブサーバーレベルであり、そのため、マスターサーバーは、特定のスレーブサーバーのCPUコアおよび/またはメモリのサブセットのみを使用します。このユースケースの詳細は次のとおりです。 1.それぞれ16コアの2つのスレーブサーバー。 2.スレーブサーバー#1上のすべての16コアを使用することができます 3.スレーブサーバー#2も別のプログラムを実行しますので、マスターサーバーに最大16個のCPUコアを使用できます。 4.複数のジョブが同時に実行されているため、ジョブごとに制約をかけたくありません。 – Michael

関連する問題