2017-10-31 15 views
0

私はScala(Eclipse IDE)でSparkプロセスを開発していて、ローカルクラスタで正常に動作しますが、私のPCにインストールしたSBTでコンパイルしようとすると、写真参照)。SBTで未解決の依存関係生成用のジャー

私の最初の疑問は、私のbuild.sbtでscalaVersionを明示的に2.11.11に設定した場合、SBTがスカラー2.12でコンパイルしようとする理由です。私は他のPCでも同じ結果を持った他のSBTバージョンをインストールしようとしましたが、動作しませんでした。私はそれを解決するために助けが必要です。

  • scala_version(スパーク):2.11.11
  • sbt_version:1.0.2
  • スパーク:2.2

assembly.sbt

name := "Completitudf" 
version := "1.0" 
organization := "com.bcp.spark" 
scalaVersion := "2.11.11" 
libraryDependencies ++= Seq(
"org.apache.spark" %% "spark-core" % "2.2.0" % "provided", 
"org.apache.spark" %% "spark-sql" % "2.2.0" % "provided" 
) 

build.sbt

addSbtPlugin("com.eed3si9n" % "sbt-assembly" % "1.0.2") 

Console Error

答えて

1

にごassembly.sbtファイルを変更してみてください:ここではドキュメントに記載されているように

addSbtPlugin("com.eed3si9n" % "sbt-assembly" % "0.14.5") 

https://github.com/sbt/sbt-assembly

私は最近、火花core_2.11バージョンであることを使用2.2.0それは働いた。

関連する問題