0
私はScala(Eclipse IDE)でSparkプロセスを開発していて、ローカルクラスタで正常に動作しますが、私のPCにインストールしたSBTでコンパイルしようとすると、写真参照)。SBTで未解決の依存関係生成用のジャー
私の最初の疑問は、私のbuild.sbtでscalaVersionを明示的に2.11.11に設定した場合、SBTがスカラー2.12でコンパイルしようとする理由です。私は他のPCでも同じ結果を持った他のSBTバージョンをインストールしようとしましたが、動作しませんでした。私はそれを解決するために助けが必要です。
- scala_version(スパーク):2.11.11
- sbt_version:1.0.2
- スパーク:2.2
assembly.sbt
name := "Completitudf"
version := "1.0"
organization := "com.bcp.spark"
scalaVersion := "2.11.11"
libraryDependencies ++= Seq(
"org.apache.spark" %% "spark-core" % "2.2.0" % "provided",
"org.apache.spark" %% "spark-sql" % "2.2.0" % "provided"
)
build.sbt
addSbtPlugin("com.eed3si9n" % "sbt-assembly" % "1.0.2")