2017-03-23 13 views
0

ノートブックからpysparkを使用していますが、SparkSessionの作成を処理しません。 自分のrddを処理する際に使用したいいくつかの関数を含むjarをロードする必要があります。これは、あなたが私の特別なケースではできない - ジャーを使って簡単に行うことができるものです。 spark scalaコンテキストにアクセスしてaddJarメソッドを呼び出す方法はありますか?私はJavaGateway(sparksession._jvm ...)を使用しようとしましたが、今まで成功していません。何か案が?コンテキストが作成された後にpysparkにjarファイルを追加する

おかげ ギヨーム

答えて

1

sparksession._jsc.addJarは仕事をしていません。

+0

...しかし、この方法は私のドライバノード上で使用可能なノードであるとして、それは部分的にしか私の問題を解決します! – tog

+0

私はこの非常に便利な[post]を見つけました(http://stackoverflow.com/questions/37132559/add-jars-to-a-spark-job-spark-submit) – tog

0

あなたは、すべてのノードのコンテキストにファイルが追加されますされ、この方法を試すことができます。

spark.sparkContext.addFile("filename") 
関連する問題