2016-06-23 23 views
0

redhatマシンでsparkを設定するには、here on rbloggersの指示に従っています。私はRStudioでSparkを使いたいです。RstudioでSparkを実行しようとしたときにspark-cmdが見つかりませんでした

私はspark-1.6.1-bin-hadoop2.6をダウンロードして指示に従ったとRStudioでスクリプトに以下の行を入れている:

# Setting SPARK_HOME 
Sys.setenv(SPARK_HOME = "~/Downloads/spark-1.6.1-bin-hadoop2.6") 

# Setting library path 
.libPaths(c(file.path(Sys.getenv("SPARK_HOME"), "R", "lib"), .libPaths())) 

library(SparkR) 

# create a spark context 
sc <- sparkR.init(master = "local") 

をしかし、最後の行には、次のエラーが返されます。

Launching java with spark-submit command ~/Downloads/spark-1.6.1-bin-hadoop2.6/bin/spark-submit sparkr-shell /tmp/RtmpSwsYUW/backend_port3752546940e6

sh: ~/Downloads/spark-1.6.1-bin-hadoop2.6/bin/spark-submit: No such file or directory

私が試してみましたこれを尋ねる前にインターネット上のすべてのソリューション。例:

  • JAVA_HOMEとSPARK_HOMEが設定されています。
  • chmod a+x spark-submit.cmd(およびchmod u+w spark-submit.cmd)によって実行可能な​​を実行しても機能しませんでした。 (私は正しいライブラリにあったコースの
  • は、端末にspark-shellを試してみましたが、それが動作(作業シェルインのスカラを返す)
  • は、初期化する前にこれを追加する:

    Sys.setenv("SPARK_SUBMIT_ARGS"=" - - master yarn-client sparkr-shell") 
    

私が今考えることができる問題は、ディレクトリにsparkr-shellがないということだけです。ただsparkr.cmdsparkr2.cmdです。今私はそれがダウンロードしたスパークバージョンに関連しているのだろうか?最初にhadoopをインストールする必要がありますか?

SparkR

答えて

0

は(?system2?shQuote参照)shQuoteを使用してコマンドを引用した、system2を通してスパークを呼び出します。つまり、~は展開されません。

だけで完全なパスを指定します。

Sys.setenv(SPARK_HOME = "/home/<youruser>/Downloads/spark-1.6.1-bin-hadoop2.6") 

またはパス展開を自分で行います。

Sys.setenv(SPARK_HOME = path.expand("~/Downloads/spark-1.6.1-bin-hadoop2.6")) 

.cmdファイルが途中で、Windowsのためのものであるので、彼らは関係ありませんね。

関連する問題