2016-04-22 74 views
2

Hy、PySpark - 指定されたパスが見つかりません

私は複数回スパークしました(Spyder IDE)。 今日はのは間違って行く何このエラー(それは同じだコード)

from py4j.java_gateway import JavaGateway 
gateway = JavaGateway() 

os.environ['SPARK_HOME']="C:/Apache/spark-1.6.0" 
os.environ['JAVA_HOME']="C:/Program Files/Java/jre1.8.0_71" 
sys.path.append("C:/Apache/spark-1.6.0/python/") 
os.environ['HADOOP_HOME']="C:/Apache/spark-1.6.0/winutils/" 

from pyspark import SparkContext 
from pyspark import SparkConf 

conf = SparkConf() 
    The system cannot find the path specified. 
    Traceback (most recent call last): 
     File "<stdin>", line 1, in <module> 
     File "C:\Apache\spark-1.6.0\python\pyspark\conf.py", line 104, in __init__ 
     SparkContext._ensure_initialized() 
     File "C:\Apache\spark-1.6.0\python\pyspark\context.py", line 245, in _ensure_initialized 
     SparkContext._gateway = gateway or launch_gateway() 
     File "C:\Apache\spark-1.6.0\python\pyspark\java_gateway.py", line 94, in launch_gateway 
     raise Exception("Java gateway process exited before sending the driver its port number") 
    Exception: Java gateway process exited before sending the driver its port number 

を得ましたか。 お時間をいただきありがとうございます。

+0

私はこのリンクに記載されている答えに従うべきだと思います。http://stackoverflow.com/questions/30763951/spark-context-sc-not-defined/30851037#30851037 –

+0

Ok ...誰かが新しいJavaバージョンをインストールします。 VirtualMachineで私はこのos.environ [JAVA_HOME '] = "C:/ Program Files/Java/jre1.8.0_91"のみを変更し、再び動作します。 – Kardu

答えて

3

Ok ...誰かがVirtualMachineに新しいJavaバージョンをインストールします。私はこれを変更するだけです

os.environ['JAVA_HOME']="C:/Program Files/Java/jre1.8.0_91" 

そしてもう一度動作します。あなたの時間は です。

関連する問題