ローカルで動作するSparkアプリケーションの最大メモリを設定しようとしています。 私はさまざまな方法で試しました。プログラムスパークメモリを設定できません
SparkConf conf = new SparkConf();
conf.setMaster("local[2]");
conf.setAppName("app");
conf.set("spark.executor.memory", "4G");
conf.set("spark.driver.memory", "4G");
sc = new JavaSparkContext(conf);
そして
./bin/spark-submit.cmd ./local/app.jar --master local[2] --driver-memory 4G
を実行するには
しかし、私は常に次の
INFO [MemoryStore] MemoryStore started with capacity 366.3 MB
とスパークは、ディスクにRDDをこぼします。 スパークバージョンは2.0です。
私は何ができますか?
の前に来る必要があり、すなわち
--driver-memory
は関係しているようだあなたは、小さな「G」をしようとしたのですか? – numX@numX小さなgを試したところ、結果は同じです。 –