2016-11-25 3 views
0

スパークバージョン1.6.2 Hadoopのバージョン2.7.3IllegalStateExceptionが実行されているスパークWORDCOUNT例

スタンドアロンクラスタモード

コマンドWORDCOUNT例で火花を実行している次のエラー

を取得

spark-submit --class org.apache.spark.examples.JavaWordCount --master spark://IP:7077 spark-examples-1.6.2.2.5.0.0-1245-hadoop2.7.3.2.5.0.0-1245.jar file.txt output 

INFO cluster.SparkDeploySchedulerBackend: Executor app-20161125052710-0012/10 removed: java.io.IOException: Failed to create directory /usr/hdp/2.5.0.0-1245/spark/work/app-20161125052710-0012/10  
ERROR spark.SparkContext: Error initializing SparkContext. 
    java.lang.IllegalStateException: Cannot call methods on a stopped SparkContext. 
    This stopped SparkContext was created at: 

    org.apache.spark.api.java.JavaSparkContext.<init>(JavaSparkContext.scala:59) 
    org.apache.spark.examples.JavaWordCount.main(JavaWordCount.java:44) 
    sun.reflect.NativeMethodAccessorImpl.invoke0(Native Method) 
    sun.reflect.NativeMethodAccessorImpl.invoke(NativeMethodAccessorImpl.java:57) 
    sun.reflect.DelegatingMethodAccessorImpl.invoke(DelegatingMethodAccessorImpl.java:43) 
    java.lang.reflect.Method.invoke(Method.java:606) 
    org.apache.spark.deploy.SparkSubmit$.org$apache$spark$deploy$SparkSubmit$$runMain(SparkSubmit.scala:731) 
    org.apache.spark.deploy.SparkSubmit$.doRunMain$1(SparkSubmit.scala:181) 
    org.apache.spark.deploy.SparkSubmit$.submit(SparkSubmit.scala:206) 
    org.apache.spark.deploy.SparkSubmit$.main(SparkSubmit.scala:121) 
    org.apache.spark.deploy.SparkSubmit.main(SparkSubmit.scala) 

    The currently active SparkContext was created at: 

    (No active SparkContext.) 

     at org.apache.spark.SparkContext.org$apache$spark$SparkContext$$assertNotStopped(SparkContext.scala:106) 
     at org.apache.spark.SparkContext.getSchedulingMode(SparkContext.scala:1602) 
     at org.apache.spark.SparkContext.postEnvironmentUpdate(SparkContext.scala:2203) 
     at org.apache.spark.SparkContext.<init>(SparkContext.scala:579) 
     at org.apache.spark.api.java.JavaSparkContext.<init>(JavaSparkContext.scala:59) 
     at org.apache.spark.examples.JavaWordCount.main(JavaWordCount.java:44) 
     at sun.reflect.NativeMethodAccessorImpl.invoke0(Native Method) 
     at sun.reflect.NativeMethodAccessorImpl.invoke(NativeMethodAccessorImpl.java:57) 
     at sun.reflect.DelegatingMethodAccessorImpl.invoke(DelegatingMethodAccessorImpl.java:43) 
     at java.lang.reflect.Method.invoke(Method.java:606) 
     at org.apache.spark.deploy.SparkSubmit$.org$apache$spark$deploy$SparkSubmit$$runMain(SparkSubmit.scala:731) 
     at org.apache.spark.deploy.SparkSubmit$.doRunMain$1(SparkSubmit.scala:181) 
     at org.apache.spark.deploy.SparkSubmit$.submit(SparkSubmit.scala:206) 
     at org.apache.spark.deploy.SparkSubmit$.main(SparkSubmit.scala:121) 
     at org.apache.spark.deploy.SparkSubmit.main(SparkSubmit.scala) 
    16/11/25 04:24:48 INFO spark.SparkContext: SparkContext already stopped. 

スパークマスターノードURL、私は生きている状態で2人の労働者に会います

+0

スパーククラスタを再起動しても問題は解決しますか? – Bhavesh

+0

は '/ usr/hdp/2.5.0.0-1245/spark/workディレクトリを作成できませんでした 'のように思われます。仕事の道を許可した後、うまく働いた –

答えて

0

のように思われますFailed to create directory /usr/hdp/2.5.0.0-1245/spark/workの根本原因でした。 /usr/hdp/2.5.0.0-1245/spark/workのパスを許可した後、正常に動作しました

関連する問題