0
Windows 10システムにspark 1.6(hadoop 2.6用にビルド済み)をインストールし、環境変数を適切に設定しました。私がpysparkを実行するとき、私はこれを得るerror message。cmd形式のsparkディレクトリからpysparkを実行することができません
しかし、私はsparkディレクトリとその正しい正しいバージョンから "python"コマンドを実行することができます。
誰でもこの問題を解決する手助けはできますか?
なぜWindows上でスパークを試みたのですか?最新バージョン2.2のときにスパーク1.6をダウンロードしたのはなぜですか?試して試してみたいのであれば、データクラックの空きクラスタのような他の方法があります –