私はpysparkでPythonスクリプトを実行すると、次のエラーを得ています: NameError:名前「スパーク」がスパーク設定を変更してspark.dynamicAllocation.enabledを許可する方法は?
が定義されていない、私はそれを見て、その理由はspark.dynamicAllocation.enabled
がまだ許可されていないことであることがわかりました。
Sparkの文書(https://jaceklaskowski.gitbooks.io/mastering-apache-spark/content/spark-dynamic-allocation.html#spark_dynamicAllocation_enabled)によると、spark.dynamicAllocation.enabled
(デフォルト:false
)は、動的割り当てを有効にするかどうかを制御します。 spark.executor.instances
が設定されていないか、または0(デフォルト値)であるとみなされます。
デフォルト設定はfalse
なので、スパーク設定をspark.dynamicAllocation.enabled
に変更する必要があります。
スパークを沸かしてインストールしましたが、設定や設定は変更されませんでした。
設定を変更してspark.dynamicAllocation.enabled
を有効にするにはどうすればよいですか?
ありがとうございます。
上記のリンクは公式な文書を作成するものではありません。ジャックのApache Spark Bookをマスターしています。それを適切に変更してください:) –