3
sparkシェルでスパークプログラムを実行すると、プログラムがハープクラスター全体を何時間も悩ませる可能性がありますか?スパークシェルのエグゼキュータとコアのデフォルト数
通常、num-executorsおよびexecutor-coreという設定があります。
spark-shell --driver-memory 10G --executor-memory 15G --executor-cores 8
しかし、それらが指定されていない場合、私は単に "spark-shell"を実行します...それはクラスタ全体を消費するでしょうか?または合理的なデフォルトが存在します。
ヤーンコンテナの数は? –
@KnowsNotMuch私はYARNのSparkについてよく知らないけど、Sparkの[Running on YARN documentation](http://spark.apache.org/docs/latest/running-on-yarn .html#configuration) –