2017-01-05 10 views
2

私はscalaとsparkのかなり新しいです。 spark/scala開発のセットアップを修正しようとしています。私はバージョンと欠けている瓶に混乱しています。私はstackoverflowで検索しましたが、まだこの問題で立ち往生しています。たぶん何かが見つからないか、誤って設定されているScala/Spark:原因:java.lang.ClassNotFoundException:org.apache.spark.Logging

[email protected]:~/spark-2.1.0$ bin/spark-submit --class ETLApp /home/me/src/etl/target/scala-2.10/etl-assembly-0.1.0.jar 

出力:

... 
Exception in thread "main" java.lang.NoClassDefFoundError: org/apache/spark/Logging 
... 
Caused by: java.lang.ClassNotFoundException: org.apache.spark.Logging 

build.sbt:

name := "etl" 

version := "0.1.0" 
scalaVersion := "2.10.5" 
javacOptions ++= Seq("-source", "1.8", "-target", "1.8") 
mainClass := Some("ETLApp") 

libraryDependencies += "org.apache.spark" %% "spark-core" % "1.5.2" % "provided"; 
libraryDependencies += "org.apache.spark" %% "spark-sql" % "1.5.2" % "provided"; 
libraryDependencies += "org.apache.spark" %% "spark-streaming" % "1.5.2" % "provided"; 
libraryDependencies += "org.apache.spark" %% "spark-streaming-kafka" % "1.5.2"; 
libraryDependencies += "com.datastax.spark" %% "spark-cassandra-connector" % "1.5.0-M2"; 
libraryDependencies += "org.apache.curator" % "curator-recipes" % "2.6.0" 
libraryDependencies += "org.apache.curator" % "curator-test" % "2.6.0" 
libraryDependencies += "args4j" % "args4j" % "2.32" 

のjava -version Javaバージョン "1.8.0_101"

Scalaのコマンドを実行している

-version 2.10.5

スパークバージョン2.1.0

任意のヒントを歓迎しました。ありがとう

答えて

1

その場合、あなたの瓶は火花に送信されるときに一緒にすべての依存クラスを持って来なければなりません。

これは、アセンブリプラグインとjar-depend-dependencies記述子で可能です。 sbtを使って簡単にgoogleが見つかりました:https://github.com/sbt/sbt-assembly

関連する問題