2015-10-08 14 views
6

火花シェルを起動することはできません。 spark-submitを問題なく使用できます。私は~/spark/bin/spark-shellは私がスパーク1.4.1を使用しています

を実行したときに しかし、私はSPARK_HOMEJAVA_HOMEを設定している の下にエラーが発生しました。 はしかし、それはあなたがScalaのとSBTをインストールしました1.2

15/10/08 02:40:30 WARN NativeCodeLoader: Unable to load native-hadoop library for your platform... using builtin-java classes where applicable 

Failed to initialize compiler: object scala.runtime in compiler mirror not found. 
** Note that as of 2.8 scala does not assume use of the java classpath. 
** For the old behavior pass -usejavacp to scala, or if using a Settings 
** object programatically, settings.usejavacp.value = true. 

Failed to initialize compiler: object scala.runtime in compiler mirror not found. 
** Note that as of 2.8 scala does not assume use of the java classpath. 
** For the old behavior pass -usejavacp to scala, or if using a Settings 
** object programatically, settings.usejavacp.value = true. 
Exception in thread "main" java.lang.AssertionError: assertion failed: null 
     at scala.Predef$.assert(Predef.scala:179) 
     at org.apache.spark.repl.SparkIMain.initializeSynchronous(SparkIMain.scala:247) 
     at org.apache.spark.repl.SparkILoop$$anonfun$org$apache$spark$repl$SparkILoop$$process$1.apply$mcZ$sp(SparkILoop.scala:990) 
     at org.apache.spark.repl.SparkILoop$$anonfun$org$apache$spark$repl$SparkILoop$$process$1.apply(SparkILoop.scala:945) 
     at org.apache.spark.repl.SparkILoop$$anonfun$org$apache$spark$repl$SparkILoop$$process$1.apply(SparkILoop.scala:945) 
     at scala.tools.nsc.util.ScalaClassLoader$.savingContextLoader(ScalaClassLoader.scala:135) 
     at org.apache.spark.repl.SparkILoop.org$apache$spark$repl$SparkILoop$$process(SparkILoop.scala:945) 
     at org.apache.spark.repl.SparkILoop.process(SparkILoop.scala:1059) 
     at org.apache.spark.repl.Main$.main(Main.scala:31) 
     at org.apache.spark.repl.Main.main(Main.scala) 
     at sun.reflect.NativeMethodAccessorImpl.invoke0(Native Method) 
     at sun.reflect.NativeMethodAccessorImpl.invoke(NativeMethodAccessorImpl.java:57) 
     at sun.reflect.DelegatingMethodAccessorImpl.invoke(DelegatingMethodAccessorImpl.java:43) 
     at java.lang.reflect.Method.invoke(Method.java:606) 
     at org.apache.spark.deploy.SparkSubmit$.org$apache$spark$deploy$SparkSubmit$$runMain(SparkSubmit.scala:665) 
     at org.apache.spark.deploy.SparkSubmit$.doRunMain$1(SparkSubmit.scala:170) 
     at org.apache.spark.deploy.SparkSubmit$.submit(SparkSubmit.scala:193) 
     at org.apache.spark.deploy.SparkSubmit$.main(SparkSubmit.scala:112) 
     at org.apache.spark.deploy.SparkSubmit.main(SparkSubmit.scala) 
+0

?あなたの.bashrcに?あなたが得たエラーが原因SPARK_HOMEにある原因は、 '火花shell'は、私は私のSPARK_HOMEを設定する必要がありますどのような' dirname' – user1314742

+0

からそれを見つけようとするように設定されていませんか? SPARK_HOME =は/ usr/local /セラー/ apacheのスパーク/ 2.2.0/binがエクスポートするように設定する必要がありますか? – lordlabakdas

+0

私は問題がSPARK_HOMEだとは思わない。間違ったSPARK_HOMEを指定すると、spark-shellスクリプトはspark-submitを見つけられません。しかし、SPARK_HOMEを保証しているときと、 "spark-submit --class org.apache.spark.repl.Main"を直接呼び出すときの両方で、私のマシンで同じエラーが発生しています。 –

答えて

0

スパークでOKでしたか?
ログは、メインクラスを見つけることができませんでした。

+0

それはsbtによって引き起こされ、scalaはPATHに入れられていないと思いますか? – worldterminator

1

私が火花を実行している同じ問題を抱えていたが、私はそれが適切にスカラ座を構成していない私のせいでした。 は、Java、ScalaのとSBTがインストールされているとスパークが構築されていることを確認します

export JAVA_HOME=/usr/lib/jvm/java-7-oracle 
export PATH=$JAVA_HOME:$PATH 

export SCALA_HOME=/usr/local/src/scala/scala-2.11.5 
export PATH=$SCALA_HOME/bin:$PATH 

export SPARK_HOME=/usr/local/src/apache/spark.2.0.0/spark 
export PATH=$SPARK_HOME/bin:$PATH 

ソースあなたの設定 :

編集し.bashrcファイル vimの

の.bashrcあなたのenv変数を設定します。

チェックScalaの スカラ-version

.bashrcのあなたの反発が再びあなたのスパークシェルを試してみて、起動を開始した場合、REPLは Scalaの

を開始してください。 はあなたが

spark-shell -usejavacp 

を実行してみてください可能性が

1

それは私のために動作しませんでしたが、それはやったスパークREPLを取得する必要があります

を./path/to/spark/bin/spark-shell Spark Issue 18778の説明で誰かのために働く。あなたは `SPARK_HOME`を設定している

関連する問題