2017-08-13 13 views
0

私のOSはUbuntu 16で、私の目標はJupyterノートブックで​​です.Jupyter NotebookをSparkをインストールしたディレクトリから(コンソール経由で)起動する必要はありません。私はそうJupyterでpysparkをインポートするノートブックを任意のディレクトリから起動

import findspark 
findspark.init("directory_where_I_installed_spark_to") 
import pyspark 

これは一つのセッションのために働くようfindsparkでそれを試してみましたが、私シャットダウンセッションとは再びノートブックを開いたとき、​​は私にImportError: No module 'pyspark'を取得します。私は何が欠けていますか?

+0

環境変数を定義する必要があります。https://stackoverflow.com/questions/35576621/setting-environment-variables-from-python-code-for-spark –

答えて

0

上記のコードの2行目以降にfindspark.find()を追加すると、 の出力は何ですか?

+0

どちらの場合も(Jupyter Notebookの私のホームディレクトリとSparkディレクトリから起動する)私は同じ出力、つまりSparkをインストールしたディレクトリを取得します。 – Joe

関連する問題