2017-11-23 5 views
0

Windows 10システムにspark 1.6(hadoop 2.6用にビルド済み)をインストールし、環境変数を適切に設定しました。私がpysparkを実行するとき、私はこれを得るerror messagecmd形式のsparkディレクトリからpysparkを実行することができません

しかし、私はsparkディレクトリとその正しい正しいバージョンから "python"コマンドを実行することができます。

誰でもこの問題を解決する手助けはできますか?

+1

なぜWindows上でスパークを試みたのですか?最新バージョン2.2のときにスパーク1.6をダウンロードしたのはなぜですか?試して試してみたいのであれば、データクラックの空きクラスタのような他の方法があります –

答えて

1

pythonを実行するとpythonコマンドラインに直接入りますが、pysparkの場合はこの場所に存在しないpyspark実行可能ファイルを実行する必要があります。 C:\sparkに入っていますが、この場所にあるファイルC:\spark\bin\pysparkのpysparkファイルは、この場所に移動してpysparkを実行する必要があります。

関連する問題