クラスタモード(糸クラスター)でSpark-submitを使用すると、jarsとpackagesの設定が混乱します。jarファイルでは、ローカルディレクトリではなくHDFSに配置できます。しかし、パッケージの場合、HDFSを使ってMavenをビルドするため、動作できません。私の方法以下のように:スパーク送信設定の使い方:jars、packages:クラスタモードですか?
spark-submit --jars hdfs:///mysql-connector-java-5.1.39-bin.jar --driver-class-path /home/liac/test/mysql-connector-java-5.1.39/mysql-connector-java-5.1.39-bin.jar --conf "spark.mongodb.input.uri=mongodb://192.168.27.234/test.myCollection2?readPreference=primaryPreferred" --conf "spark.mongodb.output.uri=mongodb://192.168.27.234/test.myCollection2" --packages com.mongodb.spark:hdfs:///user/liac/package/jars/mongo-spark-connector_2.11-1.0.0-assembly.jar:1.0.0 --py-files /home/liac/code/diagnose_disease/tool.zip main_disease_tag_spark.py --master yarn-client
エラーが発生します。
`Exception in thread "main" java.lang.IllegalArgumentException: requirement failed: Provided Maven Coordinates must be in the form 'groupId:artifactId:version'. The coordinate provided is: com.mongodb.spark:hdfs:///user/liac/package/jars/mongo-spark-connector_2.11-1.0.0-assembly.jar:1.0.0
誰もがどのようにクラスタモードで瓶やパッケージを使用するために私を伝えることができますか?私のやり方に何が問題なの?
だろうか? – ShuaiYuan
はい、私も ' - master yarn-cluster'を試します – lac