setMaster("local")
でコンパイルしたスパークジョブ(2.2.0)をspark-submit --master yarn --deploy-mode cluster
で送信するとどうなりますか?明示的なsetMaster( "local")を持つスパークジョブ、YARNでスパーク送信に渡されました
私はこれを試しました。ジョブはパッケージ化され、ローカルではなくYARNクラスタで実行されたように見えました。
なぜこの作業を行います。私は明確ではないよ何
?ドキュメントによれば、
SparkConf
に設定したものは、コマンドラインから渡されたものよりも明示的に優先されるか、(https://spark.apache.org/docs/latest/configuration.html参照)より優先されます。私はSparkSession.getBuilder
を使用しているのでこれは違うのですか?setMaster("local")
をコードから除外して除外した場合の影響はそれほどありませんか?私が見ているのは、クラスタリソースを適切に使用するのではなく、クラスタ内でローカルモードで実行されているジョブのようなものなのだろうかと思います。
ありがとう、これは私が探していた答えです。これは混乱を招く恐れがあります:Sparkがローカルモードで動作している場合は、YARNアプリケーションマネージャ内でローカルモードであることがすぐに分かりません。 – wrschneider