とスカラ/スパークプロジェクトを構築している間、私は、次のbuild.sbt
とIntelliJのアイデアでスカラ/スパークプロジェクトをビルドしようとしている:警告SBT
name := "try"
version := "1.0"
scalaVersion := "2.11.8"
val sparkVersion = "2.2.0"
resolvers ++= Seq(
"apache-snapshots" at "http://repository.apache.org/snapshots/"
)
libraryDependencies ++= Seq(
"org.apache.spark" %% "spark-core" % sparkVersion,
"org.apache.spark" %% "spark-sql" % sparkVersion,
"org.apache.spark" %% "spark-mllib" % sparkVersion,
"org.apache.spark" %% "spark-streaming" % sparkVersion,
"org.apache.spark" %% "spark-hive" % sparkVersion
)
と警告の束を得る:
8/6/17
1:29 PM SBT project import
[warn] Found version conflict(s) in library dependencies; some are suspected to be binary incompatible:
[warn] * io.netty:netty:3.9.9.Final is selected over {3.6.2.Final, 3.7.0.Final}
[warn] +- org.apache.spark:spark-core_2.11:2.2.0 (depends on 3.9.9.Final)
[warn] +- org.apache.zookeeper:zookeeper:3.4.6 (depends on 3.6.2.Final)
[warn] +- org.apache.hadoop:hadoop-hdfs:2.6.5 (depends on 3.6.2.Final)
[warn] * commons-net:commons-net:2.2 is selected over 3.1
[warn] +- org.apache.spark:spark-core_2.11:2.2.0 (depends on 2.2)
[warn] +- org.apache.hadoop:hadoop-common:2.6.5 (depends on 3.1)
[warn] * com.google.guava:guava:11.0.2 is selected over {12.0.1, 16.0.1}
[warn] +- org.apache.hadoop:hadoop-yarn-client:2.6.5 (depends on 11.0.2)
[warn] +- org.apache.hadoop:hadoop-yarn-api:2.6.5 (depends on 11.0.2)
[warn] +- org.apache.hadoop:hadoop-yarn-common:2.6.5
私はいくつかの、おそらくダム、質問があります。
- は
build.sbt
を構造化するためのより良い方法はあります(Oを追加どのような解決者ですか?)、私は警告を取り除くことができるように? - 警告を気にする必要はありますか?
良い答えを。私はまた、そのような警告に遭遇するたびに、いくつかのlib作成者がそのような警告を生成する方法でlib依存関係を宣言するのはなぜだろうかと思います。私がこれを見ると、「皆さん、SBTであなた自身のプロジェクトを作ろうとしましたか?これらの警告を見たことがありませんか? :) –
@Eugene努力してくれてありがとう、しかし私のSBTはまだ失敗しています(UPDATEのログを見てください)。何か案は? –
@SergeyBushmanov: '' io.netty "%" netty "%" 3.9.9.Final "'を使い、 'sbt'コンソールで' reload'と 'update'を実行します。 – chunjef