Apache SparkをPythonでインストールしようとしていて、7月11日のリリースでpip install pythonコマンドを使用しました。これが正常にインストールされている間しかし、私はPythonシェルでpipインストールでApache Sparkが動作しない
from pyspark import SparkContext
を実行することができ、私は
spark-submit.
で、
pyspark
や火花提出を実行することにより、pysparkシェルにアクセスすることはできません
両方のエラーは、 '指定されたパスが見つかりません'です。私はWindows上で、sparkのためのJARファイルがないと思われます。 pipインストールでこれを処理してはいけませんか?
http://blog.prabeeshk.com/blog/2015/04/07/self-contained-pyspark-application/ –