0
私はRを使用し、sparkを使ってsparkをテストする簡単な例を実行します。ローカルに実行されているマスタを起動するジョブをサブミットする方法
私は、以下のものを使用してローカルで実行しているスパークマスターを持っている:
spark-class org.apache.spark.deploy.master.Master
コードでステータスページを見ることができます:
system("spark-submit --packages com.databricks:spark-csv_2.10:1.0.3 --master local[*]")
suppressPackageStartupMessages(library(SparkR)) # Load the library
sc <- sparkR.session(master = "local[*]")
df <- as.DataFrame(faithful)
head(df)
今これは時に正常に動作私は次のようにします(コードは「スパークコード」として保存されます):
Rscript sparkcode.R
問題:
しかし、何が起こることは新しいスパークインスタンスが作成されていることですが、私はRは、既存のマスター・インスタンスを使用したい(完了したジョブhttp://localhost:8080/#completed-appとしてこれを見るべきである)
PS:マックOSXを使用して、スパーク2.1.0および3.3.2 R