2016-12-19 21 views
2

WindowsのSPARK_ENV変数をC:\ Users \ xxx \ spark-1.6.2-bin-hadoop2.6のパスに設定しました。私はJupyterで以下のコマンドを実行すると:Jupyter(Windows)がSPARK_HOMEを認識しない

--------------------------------------------------------------------------- 
ValueError        Traceback (most recent call last) 
<ipython-input-3-a4bc4c9af84d> in <module>() 
----> 1 findspark.init() 

C:\Users\xxx\Anaconda3\lib\site-packages\findspark.py in init(spark_home, python_path, edit_rc, edit_profile) 
    119 
    120  if not spark_home: 
--> 121   spark_home = find() 
    122 
    123  if not python_path: 

C:\Users\xxx\Anaconda3\lib\site-packages\findspark.py in find() 
    30 
    31  if not spark_home: 
---> 32   raise ValueError("Couldn't find Spark, make sure SPARK_HOME env is set" 
    33       " or Spark is in an expected location (e.g. from homebrew installation).") 
    34 

ValueError: Couldn't find Spark, make sure SPARK_HOME env is set or Spark is in an expected location (e.g. from homebrew installation). 

私はこの問題を修正するために行うには他に何かわからない:

import 
findspark.init() 

私はこのエラーを取得します。私はこれらの指示を使用しています

答えて

2

コマンドラインでSETを試して、すべての環境変数を表示できますか?問題は、findsparkがデフォルトの場所でSparkを見つけることができず、おそらくSPARK_HOMEが正しく設定されていないことです。

SPARK_HOME=C:\Users\xxx\spark-1.6.2-bin-hadoop2.6\libexecを設定してください。さらに、SPARK_ENVの位置は必須ではありません。

+0

あなたが言及したパスにSPARK_HOMEを設定しようとしましたが、私はまだ同じエラーが発生します – zorny

+0

これはなぜこの問題が発生しているのか他のアイデアですか? – zorny

+0

すべての環境変数の概要を印刷しようとしましたか?これがデバッグの第一歩です。 –

関連する問題