1
私はSpark 2.1を使用しています。この質問は、Sparkスレーブサーバーのいくつかが他のアプリケーションを実行するユースケースです。特定のCPUコアまたはスレーブサーバのメモリだけを使用するようにSpark Masterサーバに指示する方法はありますか?スパーク - CPUコア数またはスレーブサーバのメモリをキャッピング
ありがとうございました。
私はSpark 2.1を使用しています。この質問は、Sparkスレーブサーバーのいくつかが他のアプリケーションを実行するユースケースです。特定のCPUコアまたはスレーブサーバのメモリだけを使用するようにSpark Masterサーバに指示する方法はありますか?スパーク - CPUコア数またはスレーブサーバのメモリをキャッピング
ありがとうございました。
sparkジョブで使用するコアの数を制限するには、--total-executor-cores
オプションをspark-submitコマンドに追加する必要があります。各エグゼキュータが使用するメモリ量を制限するには、--executor-memory
オプションを使用します。たとえば:
spark-submit --total-executor-cores 10 \
--executor-memory 8g \
--class com.example.SparkJob \
SparkJob.jar
また、これは、火花シェル
spark-shell --total-executor-cores 10 \
--executor-memory 8g
あなたの応答をありがとうスティーブンで動作します。ただし、ジョブレベルごとの設定が必要です。私の質問は、スレーブサーバーレベルであり、そのため、マスターサーバーは、特定のスレーブサーバーのCPUコアおよび/またはメモリのサブセットのみを使用します。このユースケースの詳細は次のとおりです。 1.それぞれ16コアの2つのスレーブサーバー。 2.スレーブサーバー#1上のすべての16コアを使用することができます 3.スレーブサーバー#2も別のプログラムを実行しますので、マスターサーバーに最大16個のCPUコアを使用できます。 4.複数のジョブが同時に実行されているため、ジョブごとに制約をかけたくありません。 – Michael