2017-03-09 5 views
3

私はthisのコードを使って、sparkを使ってscalaプログラムを実行しています。プログラムは正常に実行されますが、StreamingContextが停止しようとすると、このエラーが発生します。Windows 7でspark-submitを実行した後に一時ファイルを削除できませんでした

java.io.IOException: Failed to delete: ..\AppData\Local\Temp\spark-53b87fb3-1154-4f0b-a258-8dbeab6601ab 
     at org.apache.spark.util.Utils$.deleteRecursively(Utils.scala:1010) 
     at org.apache.spark.util.ShutdownHookManager$$anonfun$1$$anonfun$apply$mcV$sp$3.apply(ShutdownHookManager.scala:65) 
     at org.apache.spark.util.ShutdownHookManager$$anonfun$1$$anonfun$apply$mcV$sp$3.apply(ShutdownHookManager.scala:62) 
     at scala.collection.IndexedSeqOptimized$class.foreach(IndexedSeqOptimized.scala:33) 
     at scala.collection.mutable.ArrayOps$ofRef.foreach(ArrayOps.scala:186) 
     at org.apache.spark.util.ShutdownHookManager$$anonfun$1.apply$mcV$sp(ShutdownHookManager.scala:62) 
     at org.apache.spark.util.SparkShutdownHook.run(ShutdownHookManager.scala:216) 
     at org.apache.spark.util.SparkShutdownHookManager$$anonfun$runAll$1$$anonfun$apply$mcV$sp$1.apply$mcV$sp(ShutdownHookManager.scala:188) 
     at org.apache.spark.util.SparkShutdownHookManager$$anonfun$runAll$1$$anonfun$apply$mcV$sp$1.apply(ShutdownHookManager.scala:188) 
     at org.apache.spark.util.SparkShutdownHookManager$$anonfun$runAll$1$$anonfun$apply$mcV$sp$1.apply(ShutdownHookManager.scala:188) 
     at org.apache.spark.util.Utils$.logUncaughtExceptions(Utils.scala:1951) 
     at org.apache.spark.util.SparkShutdownHookManager$$anonfun$runAll$1.apply$mcV$sp(ShutdownHookManager.scala:188) 
     at org.apache.spark.util.SparkShutdownHookManager$$anonfun$runAll$1.apply(ShutdownHookManager.scala:188) 
     at org.apache.spark.util.SparkShutdownHookManager$$anonfun$runAll$1.apply(ShutdownHookManager.scala:188) 
     at scala.util.Try$.apply(Try.scala:192) 
     at org.apache.spark.util.SparkShutdownHookManager.runAll(ShutdownHookManager.scala:188) 
     at org.apache.spark.util.SparkShutdownHookManager$$anon$2.run(ShutdownHookManager.scala:178) 
     at org.apache.hadoop.util.ShutdownHookManager$1.run(ShutdownHookManager.java:54) 

私はコードから何も変更していません。私のローカルファイルシステムに複製して、sbt assemblyコマンドを実行して.jarファイルを生成し、​​を使ってプログラムを実行してください。

また、Windowsの管理者としてcmdを実行しているため、権限の問題ではないと思います。

このエラーの原因に関する手掛かりはありますか?

ありがとうございました!

+0

私と同じです。現在は解決策はありません。以下。 – Li3ro

答えて

0

私はsparkアプリケーションがあなたのローカルシステムに一時的なステージングファイルを作成し(おそらくチェックポイントが呼び出されたとき)、コンテキストが停止して一時ファイルをクリーンアップしようとしたときに削除できないと思う。そこには2つのオプションがあります。すでにファイルが削除されているか、削除する権限がありません。

+3

こんにちは@FiagB。管理者モードでコマンドプロンプトを実行するので、権限の問題ではないと思います。一時的に生成されたファイルを削除するためにsparkにもいくつかの特権が必要なのかどうかはわかりません。 –

+0

特権問題ではないと思います。私はspark-shellを終了するとき、または例を実行するときに同じ問題があります。私は--conf spark.local.dirで作業ディレクトリを変更しようとしましたが、問題は解決されませんでした。誰かが解決策を持っている場合は、共有してください。 –

関連する問題