スパークスタンドアロン:このモードではSpark StandaloneとYARNとローカルモードの違いは何ですか?
私はあなたのローカルマシン上のマスターとワーカーノードを実行することを実現しました。
ローカルマシンでYARNのインスタンスが実行されていることを意味しますか? SparkをインストールするとHadoopが付属しているので、通常YARNもHadoopに同梱されていますか?そして、このモードでは、本格的にはフルバージョンのクラスタの小さなバージョンをシミュレートできます。
スパークローカルモード:
これは私も上の混乱しています一部です。このモードで実行するには、val conf = new SparkConf().setMaster("local[2]")
を実行します。
このモードでは、YARNなどのリソースマネージャのタイプは正しくありませんか?単に"local[2]"\
に提供するスレッド数でSpark Jobを実行するだけですか?
SparkジョブをYARNクラスタに(ローカルマシンからのspark submitを使用して)送信した場合、SparkContextオブジェクトはHadoopクラスタの接続先をどのように知っていますか? – CapturedTree
現在、Spark-submitを使用し、 '--deploy-mode'を' cluster'と指定しています。しかし、SparkContextは、HadoopクラスタがHDFSデータノード上でスパークアプリケーションを実行する場所をどのように知っていますか? Hadoopクラスタの場所とSparkContextのインスタンスをインスタンス化するたびに、その設定ファイルが原因でクラスタがどこにあるのかを指定するSparkの設定がありますか? – CapturedTree