2017-07-17 8 views
2

Apache SparkをPythonでインストールしようとしていて、7月11日のリリースでpip install pythonコマンドを使用しました。これが正常にインストールされている間しかし、私はPythonシェルでpipインストールでApache Sparkが動作しない

from pyspark import SparkContext 

を実行することができ、私は

spark-submit. 
で、

pyspark 

や火花提出を実行することにより、pysparkシェルにアクセスすることはできません

両方のエラーは、 '指定されたパスが見つかりません'です。私はWindows上で、sparkのためのJARファイルがないと思われます。 pipインストールでこれを処理してはいけませんか?

+0

http://blog.prabeeshk.com/blog/2015/04/07/self-contained-pyspark-application/ –

答えて

1

pysparkと​​の位置(<spark install directory>\binである必要があります)がパスにありません。

位置を完全に指定し、インストール場所に移動してpysparkを実行するか、システムパスに追加して実行できます。

+0

お読みください!これは部分的には機能しましたが、別のエラーが発生しました。私はPython27/Lib/site-packages/pyspark/binに移動し、そこにいました。しかし、どのように私は次のメッセージが表示されます: 'Spark jarsディレクトリを見つけることができませんでした。 このプログラムを実行する前にSparkをビルドする必要があります。「私はMavenでビルドする必要があるようですが、ピップインストールの全ポイントは避けることだと思いましたか? @timchap –

+0

[この質問を試してください](https://stackoverflow.com/questions/27618843/why-does-spark-submit-and-spark-shell-fail-with-failed-to-find-spark-assembly-j )。 – timchap

+0

は、その2番目のエラーをGoogleで検出したはずです。ご協力いただきありがとうございます! –

関連する問題