2016-10-19 11 views
1

Sparkでアルゴリズム(高速フーリエ変換、FFT)を試みました。java.lang.OutOfMemoryError:Apache SparkのJavaヒープスペース

(それが本当に小さいですが)データは64メートルを超えている場合、コンソールは、メッセージを示しています。

java.lang.OutOfMemoryError: java heap space. 

Iは、32ビットのUbuntuシステムを使用し、火花1.6.0。 Scala IDE、Eclipseを使用します。

ローカルモードとスタンドアロンモードを使用します。データが32mより小さい場合は正常に動作しますが、64mより大きい場合は動作しません。

JVM設定を-Xms1000m-Xmx4000mに設定しようとしました。また、コードにSparkConfを作成するときに.set("spark.exetutor.memory", "8g")を追加しようとしました。しかし、両方とも機能しません。

どうすればこの問題を解決できますか?

+0

可能な複製http://stackoverflow.com/questions/21138751/spark-java-lang-outofmemoryerror-java-heapspace無料 – Nio

+0

問題は解決しました。私は32ビットのubuntuを使用しました... 64ビットシステムに変更すると、問題は解決されます。 –

答えて

1

spark.master = localを使用する場合、調整する関連値はspark.driver.memoryです。このオプションは、JVM(つまりドライバ)がローカルモードで起動する前に設定する必要があるので、既存のSparkContextを修正すると、JVMが既に起動されているため変更できません。

+0

ありがとうございます。しかし、私の問題は、システムが32ビットであることです。私は64ビットシステムを再インストールし、問題は解決されました。 –

関連する問題