pyspark
ライブラリを使用してPythonスクリプトを実行しようとしています。 私は次のコマンドを使用してSparkConf()
オブジェクトを作成:私は、スクリプトを実行するとPythonからSparkを実行するとJavaヒープサイズエラーが発生する
conf = SparkConf().setAppName('test').setMaster(<spark-URL>)
、その行がエラーに実行されます。
Picked up _JAVA_OPTIONS: -Xmx128m
Picked up _JAVA_OPTIONS: -Xmx128m
Error occurred during initialization of VM Initial heap size set to a larger value than the maximum heap size.
私はコンフィギュレーションを設定することで問題を解決しようとしましたプロパティspark.driver.memory
をさまざまな値に変更しましたが、何も変更されませんでした。
問題は何ですか?どのように修正できますか?
おかげ
を提出します.executor.memory' – mrsrinivas