redhatマシンでsparkを設定するには、here on rbloggersの指示に従っています。私はRStudioでSparkを使いたいです。RstudioでSparkを実行しようとしたときにspark-cmdが見つかりませんでした
私はspark-1.6.1-bin-hadoop2.6
をダウンロードして指示に従ったとRStudioでスクリプトに以下の行を入れている:
# Setting SPARK_HOME
Sys.setenv(SPARK_HOME = "~/Downloads/spark-1.6.1-bin-hadoop2.6")
# Setting library path
.libPaths(c(file.path(Sys.getenv("SPARK_HOME"), "R", "lib"), .libPaths()))
library(SparkR)
# create a spark context
sc <- sparkR.init(master = "local")
をしかし、最後の行には、次のエラーが返されます。
Launching java with spark-submit command ~/Downloads/spark-1.6.1-bin-hadoop2.6/bin/spark-submit sparkr-shell /tmp/RtmpSwsYUW/backend_port3752546940e6
sh: ~/Downloads/spark-1.6.1-bin-hadoop2.6/bin/spark-submit: No such file or directory
私が試してみましたこれを尋ねる前にインターネット上のすべてのソリューション。例:
- JAVA_HOMEとSPARK_HOMEが設定されています。
chmod a+x spark-submit.cmd
(およびchmod u+w spark-submit.cmd
)によって実行可能なを実行しても機能しませんでした。 (私は正しいライブラリにあったコースの)- は、端末に
spark-shell
を試してみましたが、それが動作(作業シェルインのスカラを返す) は、初期化する前にこれを追加する:
Sys.setenv("SPARK_SUBMIT_ARGS"=" - - master yarn-client sparkr-shell")
私が今考えることができる問題は、ディレクトリにsparkr-shell
がないということだけです。ただsparkr.cmd
とsparkr2.cmd
です。今私はそれがダウンロードしたスパークバージョンに関連しているのだろうか?最初にhadoopをインストールする必要がありますか?
SparkR