Sparkが非常に不満です。間違ったことをやっていると思って夕方を浪費しましたが、何度もアンインストールして再インストールしました。 CMDプロンプトで Windowsのスパーク10.「Files Spark bin .. jars」「」が内部コマンドまたは外部コマンドとして認識されない
は、私が実行しようとしています:pyspark
または
spark-shell
の手順は、私が続くから、事前に構築されたパッケージをダウンロードし、次のとおりです
https://spark.apache.org/downloads.html
は、hadoop 2.3のspark 2.0.2とhadoop 2.7のspark 2.1.0を含みます。どちらも仕事と私
はこのエラーを取得:
'Files\Spark\bin\..\jars""\' is not recognized as an internal or external command,
operable program or batch file.
Failed to find Spark jars directory.
You need to build Spark before running this program.
私はセットアップ私の環境変数は、罰金だけでなくwinutils.exeトリックを利用してきたが、これらは、当面の問題とは無関係のようです。
私はこの問題を抱えている唯一の人にはなりません。誰でもこのプログラムをWindowsで動作させるための回避策を知っていますか?
私はあなたの答えが好きですが、 "。\ bin \ sparkR"コマンドを実行した後、 "Rは内部または外部コマンド、実行可能プログラムまたはバッチファイルとして認識されません"というメッセージが表示されます。同じ警告を受けましたか? – Katin
私はこれを見ていませんでしたが、最初に気にすることは、環境変数が正しく設定されていない可能性があるということです。 – EB88