私はspark 1.3.0で作業しています。私のbuild.sbtは次のようになります:スパークライブラリからhadoop依存関係をsbtファイルに除外
libraryDependencies ++= Seq(
"org.apache.spark" %% "spark-core" % "1.3.0" % "provided",
"org.apache.spark" %% "spark-sql" % "1.3.0" % "provided",
"org.apache.spark" %% "spark-streaming" % "1.3.0" % "provided",
"org.apache.spark" %% "spark-mllib" % "1.3.0" % "provided",
"org.springframework.security" % "spring-security-web" % "3.0.7.RELEASE",
"com.databricks" % "spark-csv_2.10" % "1.4.0"
)
// META-INF discarding
mergeStrategy in assembly <<= (mergeStrategy in assembly) { (old) =>
{
case PathList("META-INF", xs @ _*) => MergeStrategy.discard
case x => MergeStrategy.first
}
}
このsbtファイルでは、コンパイル時にhadoop 2.2.0が使用されています。しかし、私の実行環境には、hadoop 2.6.0が含まれています。誰もがどのように私はスパークライブラリからhadoopの依存関係を除外し、sbtファイルでhadoop 2.6.0を言及することができますか?
ありがとうございます。