私はsparkのパフォーマンスを調整する必要があるプロジェクトに取り組んでいます。私はスパークの性能を調整するのに役立つ4つの最も重要なパラメータを見つけました。それらは次の通りです:Apache Sparkのパフォーマンス調整
- spark.memory.fraction
- spark.memory.offHeap.size
- spark.storage.memoryFraction
- 私が欲しかったspark.shuffle.memoryFraction
私が正しい方向に進むかどうかを知るために?私が他のいくつかのパラメータも忘れてしまったのなら、 私に知らせてください。
ありがとうございます。
私が指摘したいのは、質問に記載されている1つのオプションを廃止し、レガシーモードでのみ使用することです。 – zero323
ありがとうございます@ zero323! – eliasah