2016-10-22 23 views
1

apache-saprk 2.11のbuild.sbtファイルに次の依存関係を作成しました。IntelliJ Idea 2016.2.4はシンボルspark_2.11を解決できません

name := "Project1" 

version := "1.0" 

scalaVersion := "2.11.8" 

libraryDependencies += "org.apache.spark" % "spark-core_2.11" % "2.0.1" 

libraryDependencies ++= Seq(
"org.scala-lang" % "scala-compiler" % "2.11.8", 
"org.scala-lang" % "scala-reflect" % "2.11.8", 
"org.scala-lang.modules" % "scala-parser-combinators_2.11" % "1.0.4", 
    "org.scala-lang.modules" % "scala-xml_2.11" % "1.0.4" 
) 

しかし、Intellijはspark-core_2.11依存関係を解決できませんでした。私は何回も試みましたが、成功できませんでした。前もって感謝します。

+0

私はあなたのコードをコピーして貼り付けて、うまくいっています! –

+0

コードをコピーして貼り付けただけで、うまく動作しています!しかし、あなたのために働いていない場合。最初に外部からコンパイルしてから、intellijでプロジェクトを再インポートしてみてください。それはあなたの問題を解決するかもしれません! –

答えて

0

は、私はほとんど同じスカラ/スパークバージョンとのIntelliJ 2016年3月2日に同じ問題を抱えていた:それは私は手動で私のプロジェクトライブラリに火花コアjarファイルを追加する必要がありました仕事に

name := "some-project" 

version := "1.0" 

scalaVersion := "2.11.8" 

libraryDependencies += "org.apache.spark" % "spark-core_2.11" % "2.1.0" 

を取得するには、すなわち:

  • プロジェクトを右クリック - >プロジェクトの設定]を開きモジュール設定
  • - >ライブラリは、+クリックして、「Javaのオプションを選択します。
  • jarを参照してください。私はアイビーキャッシュでそれを見つけました。以前はsbtコンソールから 'アップデート'タスクを実行していたので、そこにあると思います。
+0

'' org.apache.spark "%%" spark-core "%" 2.1.0 "%" "はそれを行うべきです。提供されているようにコアライブラリをマークすることを忘れないでください(クラスタがあなたのプログラムにこのライブラリを提供するので、インクルードする必要はありません) – Boern

関連する問題