が2GB以上の労働者のメモリ容量を増やすことができません:<code>sparkling-shell</code>を実行している場合スパークリングウォーターシェル
bin/sparkling-shell
次のエラーが発生します。
org.apache.spark.SparkException: Asked to launch cluster with 2048 MB RAM/worker but requested 20480 MB/worker
我々はspark-env.sh
に次のように設定しています
export SPARK_WORKER_MEMORY=108GB
export SPARK_WORKER_INSTANCES=4
そして、spark-defaults.conf
の中では、
spark.executor.memory 20g
spark.driver.memory 8g
我々はシェルが起動するように得ることができる唯一の方法が2GBに労働者の記憶をリセットすることです:
spark.executor.memory 2g
しかし、それは私たちの仕事を実行するための単純な方法は不十分です。誰でもこの問題の回避策を見つけましたか?
:投票が閉じます。あなたはおそらく、スパークリングシェルがSparkに関連したプログラミングのアーティファクトであることに気がつかないでしょう。この質問は「スーパーユーザー」に属していません。スパークメーリングリストによれば、すべてのapache-spark関連の質問は*ここにあると明示的に*言及されていることに注意してください。 – javadba