spark KMeansを使用するためのスパークジョブを送信しようとしています。私はscalaファイルを正しくパッケージ化していますが、ジョブをサブミットしたいときは常にClassNotFoundExceptionがあります。spark ClassNotFoundException kmeansを実行中にエラーが発生しました
名: はここに私のsbtフィーユある= "sparkKmeans" + = "org.apache.spark"
libraryDependencies %% "スパーク・コア" %ここで "1.1.1"
と私のscalaクラス:
sparkがシリアライザに問題があると言われていたので、私は最後の2行をコメントしました。しかし、まだ問題があります。
java.lang.ClassNotFoundException: sparkKmeans
at java.net.URLClassLoader$1.run(URLClassLoader.java:366)
at java.net.URLClassLoader$1.run(URLClassLoader.java:355)
at java.security.AccessController.doPrivileged(Native Method)
at java.net.URLClassLoader.findClass(URLClassLoader.java:354)
at java.lang.ClassLoader.loadClass(ClassLoader.java:425)
at java.lang.ClassLoader.loadClass(ClassLoader.java:358)
at java.lang.Class.forName0(Native Method)
at java.lang.Class.forName(Class.java:278)
at org.apache.spark.util.Utils$.classForName(Utils.scala:174)
at org.apache.spark.deploy.SparkSubmit$.org$apache$spark$deploy$SparkSubmit$$runMain(SparkSubmit.scala:689)
at org.apache.spark.deploy.SparkSubmit$.doRunMain$1(SparkSubmit.scala:181)
at org.apache.spark.deploy.SparkSubmit$.submit(SparkSubmit.scala:206)
at org.apache.spark.deploy.SparkSubmit$.main(SparkSubmit.scala:121)
at org.apache.spark.deploy.SparkSubmit.main(SparkSubmit.scala)
と使用してジョブをサブミット::誰も私を助けることができれば
./bin/spark-shell --class sparkKmeans ......
私は理解されるであろう、ここで
と
はエラーです。
ビルド定義に 'spark-mllib'依存関係がありません。スパーク1.1を使用することは言うまでもありません。今は1.6/2.0だった。 – zero323
アプリケーションをjarファイルにどのようにパッケージ化していますか? --classの後に完全なコマンドを書くことができますか? – Abhi