ノートブックからpysparkを使用していますが、SparkSessionの作成を処理しません。 自分のrddを処理する際に使用したいいくつかの関数を含むjarをロードする必要があります。これは、あなたが私の特別なケースではできない - ジャーを使って簡単に行うことができるものです。 spark scalaコンテキストにアクセスしてaddJarメソッドを呼び出す方法はありますか?私はJavaGateway(sparksession._jvm ...)を使用しようとしましたが、今まで成功していません。何か案が?コンテキストが作成された後にpysparkにjarファイルを追加する
おかげ ギヨーム
...しかし、この方法は私のドライバノード上で使用可能なノードであるとして、それは部分的にしか私の問題を解決します! – tog
私はこの非常に便利な[post]を見つけました(http://stackoverflow.com/questions/37132559/add-jars-to-a-spark-job-spark-submit) – tog