DataprocクラスタでSparkジョブを実行しようとしていますが、Yarnの設定ミスによりSparkが起動しません。Dataprocクラスタの自動設定後、Yarn/Sparkのメモリ割り当てが正しくない
シェルから "spark-shell"(マスター上ではローカル)を実行したり、ローカルマシンからweb-GUIおよびgcloudコマンドラインユーティリティを使用してジョブをアップロードすると、次のエラーが表示されます。
15/11/08 21:27:16 ERROR org.apache.spark.SparkContext: Error initializing SparkContext.
java.lang.IllegalArgumentException: Required executor memory (38281+2679 MB) is above the max threshold (20480 MB) of this cluster! Please increase the value of 'yarn.s
cheduler.maximum-allocation-mb'.
/etc/hadoop/conf/yarn-site.xml
の値を変更しようとしましたが、何も変更されませんでした。私はそれがそのファイルから設定を引き出すとは思わない。
私は、複数のサイト(主にヨーロッパ)で複数のクラスタの組み合わせを試してきましたが、低メモリバージョン(4コア、15GBのメモリ)でしか動作しませんでした。
I.e.これは、糸のデフォルトよりも高いメモリに設定されたノードでのみ問題になります。
Holy moly!私がまだ試していなかったのはおそらく唯一の組み合わせでした。どうもありがとう!それは魅力のように働いた:) – habitats
この変更は新しい問題を導入したように見えます。この新しい設定で実行しているとき、私は[次のエラー](http://i.imgur.com/5UVnFJP.png)を取得します:。ロー・メモリー・クラスターは、同一の.jarファイル・ジョブに問題はありません。 – habitats
新しい問題として投稿する必要がありますか? – habitats