0
私はこのパス/home/mymachine/spark-2.1.0-bin-hadoop2.7
のubuntuにインストールされているApache Sparkを持っていますので、このディレクトリの下にあるpythonディレクトリに移動してsparkを使用できるようにするか、ヘルプでpythonディレクトリ外で使用できます私が欲しいsetspark.init()Permanently
import findspark
findspark.init("/home/mymachine/spark-2.1.0-bin-hadoop2.7")
毎回がfindspark
を使用するには、非常に効果的ではありません。ライブラリーと呼ばれるfindsparkから、しかし私はいつもこのように、このライブラリを初期化する必要がありそうです。このライブラリを永久に初期化するにはどうしたらよいですか?
hereには、変数.bash_profileに変数SPARK_HOME
を設定する必要がありますが、私はそれを行いましたが、運はありません。
こんにちは、私はOSXで同様の問題がありました。意味、私は自分の.bash_profileにSPARK_HOMEを追加しました。私は 'source .bash_profile'を解決する必要がありました。 –
こんにちはbob-haffner '' 'source .bash_profile'''を解決するのはどういう意味ですか? – HelloWorld
こんにちはHW、env var(例:SPARK_HOME)を.bash_profileに追加するときには、シェルを閉じて再オープンするか、 'source .bash_profile'を実行する必要があります。それは理にかなっていますか? –