1
HighAvailabilityを持つHadoop ClusterでSpark-submitコマンドを実行しているときに例外が発生しています。HighAvailabilityを持つHadoopクラスタでSpark-submitを実行中の例外
次のコマンドは、HAが有効になっていない他のクラスタで正常に動作しています。
spark-submit --master yarn-client --executor-memory 4g --executor-cores 2 --class com.domain.app.module.mainclass target/SNAPSHOT-jar-with-dependencies.jar
HAが有効で、次の例外をスローするクラスタでは、同じコマンドが動作しません。
Exception in thread "main" java.lang.AbstractMethodError: org.apache.hadoop.hdfs.server.namenode.ha.ConfiguredFailoverProxyProvider.getProxy()Lorg/apache/hadoop/io/retry/FailoverProxyProvider$ProxyInfo
私は、スパークconf内に任意の構成を設定する必要があることを提案してください。