2017-01-18 12 views
0

play-scalaアプリケーションで1.6からspark 2.0にアップグレードしていて、必要なjarファイルを設定する方法が不明です。以前はSparkConfが定義されていて、呼び出すことのできるメソッドの1つがsetJarsでした。これにより、私が望むすべてのjarファイルを指定することができました。今私はSparkSessionビルダーを使用してsparkのconfとsparkのコンテキストを構築していますが、jarファイルを指定するための類似のメソッドはありません。これどうやってするの?私は「setJars」と同じことを達成するためにsparksessionビルダーを使って何ができるかSpark 2.0 set jars

val sparkConf = new SparkConf().setMaster(sparkMaster).setAppName(sparkAppName). 
    set("spark.yarn.jar", "hdfs:///user/hadoop/spark-assembly-1.6.1-hadoop2.7.2.jar"). 
    set("spark.eventLog.dir", "hdfs:///var/log/spark/apps"). 
    set("spark.eventLog.enabled", "true"). 
    set("spark.executorEnv.JAVA_HOME", "/usr/lib/jvm/jre-1.8.0-openjdk"). 
    setJars(Seq(
    "ALL JAR FILES LISTED HERE" 
)) 

:ここ

は、私は以前に私のsparkconfを作成する方法ですか?

答えて

4

あなたはspark.jarsを設定するには、.config(key, value)メソッドを使用することができます。

SparkSession.builder 
.appName(sparkAppName) 
.master(sparkMaster) 
.config("spark.jars", commaSeparatedListOfJars) 
.config(/* other stuff */) 
.getOrCreate() 
+0

素晴らしい、ありがとう!これは期待通りに機能しました。 – st33l3rf4n

+0

喜んで聞いてください - 将来の読者のためにこれを意味する答えを受け入れるか、またはupvoteしてください。 –

関連する問題