0

Spark Mllibの新機能で、サンプルコードをウェブサイトから実行しようとしました。しかし、私はロギングエラーを取得します。私もTwitter分析をやってみたときに同じエラーが発生しました。スレッド "main"の例外java.lang.NoClassDefFoundError:org/apache/spark/Logging

**Exception in thread "main" java.lang.NoClassDefFoundError: org/apache/spark/Logging** 
at java.lang.ClassLoader.defineClass1(Native Method)` 
at java.lang.ClassLoader.defineClass(ClassLoader.java:763) 
at java.security.SecureClassLoader.defineClass(SecureClassLoader.java:142) 
at java.net.URLClassLoader.defineClass(URLClassLoader.java:467) 
at java.net.URLClassLoader.access$100(URLClassLoader.java:73) 
at java.net.URLClassLoader$1.run(URLClassLoader.java:368) 
at java.net.URLClassLoader$1.run(URLClassLoader.java:362) 
at java.security.AccessController.doPrivileged(Native Method) 
at java.net.URLClassLoader.findClass(URLClassLoader.java:361) 
at java.lang.ClassLoader.loadClass(ClassLoader.java:424) 
at sun.misc.Launcher$AppClassLoader.loadClass(Launcher.java:331) 
at java.lang.ClassLoader.loadClass(ClassLoader.java:357) 
at org.apache.spark.mllib.recommendation.ALS$.train(ALS.scala:599) 
at org.apache.spark.mllib.recommendation.ALS$.train(ALS.scala:616) 
at scalamornprac.ML$.main(ML.scala:30) 
at scalamornprac.ML.main(ML.scala) 
at sun.reflect.NativeMethodAccessorImpl.invoke0(Native Method) 
at sun.reflect.NativeMethodAccessorImpl.invoke(NativeMethodAccessorImpl.java:62) 
at sun.reflect.DelegatingMethodAccessorImpl.invoke(DelegatingMethodAccessorImpl.java:43) 
at java.lang.reflect.Method.invoke(Method.java:498) 
at com.intellij.rt.execution.application.AppMain.main(AppMain.java:147) 
Caused by: java.lang.ClassNotFoundException: org.apache.spark.Logging 
at java.net.URLClassLoader.findClass(URLClassLoader.java:381) 
at java.lang.ClassLoader.loadClass(ClassLoader.java:424) 
at sun.misc.Launcher$AppClassLoader.loadClass(Launcher.java:331) 
at java.lang.ClassLoader.loadClass(ClassLoader.java:357) 
... 21 more 
16/11/10 10:02:29 INFO SparkContext: Invoking stop() from shutdown hook 

私はのIntelliJ IDEAを使用するには、以下のようにエラーがあります。 sbtは以下の通りです。

name := "Spark-Packt" 
version := "1.0" 
scalaVersion := "2.10.6" 

libraryDependencies += "org.apache.spark" % "spark-core_2.10" % "2.0.0" 
libraryDependencies += "org.apache.spark" % "spark-streaming_2.10" % "2.0.0" 
libraryDependencies += "org.apache.spark" % "spark-mllib_2.10" % "1.0.0" 
libraryDependencies += "org.apache.spark" % "spark-mllib-local_2.10" % "2.0.0" 

はまた、私は私のコードでを輸入org.apache.log4j。{レベル、ロガーを}インポートしている注意してください。それでもまだ動かない。火花シェル 輸入org.apache.spark.Loggingから

+0

あなたのアプリケーションを展開しようとするプラットフォームでは、どのようなスパークバージョンですか? – FaigB

+0

私はまったくその質問を理解できませんでした。コマンドラインバージョンのSpark Iは1.6.1、Intellijでは2.0.0を使用しています。お役に立てれば。 –

答えて

0

チェックそれはスパークのパッケージはあなたが環境上で実行されていることを意味していない場合はbuild.sbt

libraryDependencies += "org.apache.spark" % "spark-core_2.10" % "1.6.1" 
libraryDependencies += "org.apache.spark" % "spark-streaming_2.10" % "1.6.1" 
libraryDependencies += "org.apache.spark" % "spark-mllib_2.10" % "1.6.1" 
libraryDependencies += "org.apache.spark" % "spark-mllib-local_2.10" % "1.6.1" 

で適切な変更を行い、その後動作するかどうか含まれていませんorg.apache.spark.Logging

関連する問題