YARNモードでスパークアプリケーションをHDFSファイルシステムを使用して実行しようとすると、以下のプロパティを提供するときに正常に動作します。HA対応クラスタ用にSparkContextを設定する方法
sparkConf.set("spark.hadoop.yarn.resourcemanager.hostname",resourcemanagerHostname);
sparkConf.set("spark.hadoop.yarn.resourcemanager.address",resourcemanagerAddress);
sparkConf.set("spark.yarn.stagingDir",stagingDirectory);
しかし、これで問題は次のとおりです。
- 私のHDFSはNamdeNode HAは、私がHDFS
例hdfs://hdcluster/user/tmp/
というエラーを与える:
は、未知のホストhdcluster
を持っている。しかし、私はhdfs://<ActiveNameNode>/user/tmp/
としてURLを与えたときにそれが正常に動作しますが、我々はアクティブになりますどの事前に知っていないので、どのように行います私はこれを解決する?
SparkContextはHadoopの設定を取りますが、SparkConfigurationクラスにはHadoopの設定を受け入れるメソッドがありません。
- Resource ManagerがHAで動作しているときに、リソースマネージャのアドレスを指定するにはどうすればよいですか。 あなたが
yarn-site.xml
のようなHadoopの設定ファイル内に既に存在している設定パラメータを使用する必要が
を追加することです。このようなセクションにコードを入れてください。最後に感謝と名前を書く必要はありません。 – surajsn