2017-03-12 12 views
1

Sparkが非常に不満です。間違ったことをやっていると思って夕方を浪費しましたが、何度もアンインストールして再インストールしました。 CMDプロンプトで Windowsのスパーク10.「Files Spark bin .. jars」「」が内部コマンドまたは外部コマンドとして認識されない

は、私が実行しようとしています:

pyspark 

または

spark-shell 

の手順は、私が続くから、事前に構築されたパッケージをダウンロードし、次のとおりです

https://spark.apache.org/downloads.html

は、hadoop 2.3のspark 2.0.2とhadoop 2.7のspark 2.1.0を含みます。どちらも仕事と私

はこのエラーを取得:

'Files\Spark\bin\..\jars""\' is not recognized as an internal or external command, 
operable program or batch file. 
Failed to find Spark jars directory. 
You need to build Spark before running this program. 

私はセットアップ私の環境変数は、罰金だけでなくwinutils.exeトリックを利用してきたが、これらは、当面の問題とは無関係のようです。

私はこの問題を抱えている唯一の人にはなりません。誰でもこのプログラムをWindowsで動作させるための回避策を知っていますか?

答えて

3

私はこの質問への回答のいずれかに答えを見つけた:

Why does spark-submit and spark-shell fail with "Failed to find Spark assembly JAR. You need to build Spark before running this program."?

を以下の答えは私のために働いたと完全に直感的です:

「Windowsでは、パスにスペースがあるディレクトリ(C:\ Program Files \ Spark)にインストールされていると、インストールが失敗することがわかりました。ルートまたはスペースのない別のディレクトリに移動します。

+0

私はあなたの答えが好きですが、 "。\ bin \ sparkR"コマンドを実行した後、 "Rは内部または外部コマンド、実行可能プログラムまたはバッチファイルとして認識されません"というメッセージが表示されます。同じ警告を受けましたか? – Katin

+0

私はこれを見ていませんでしたが、最初に気にすることは、環境変数が正しく設定されていない可能性があるということです。 – EB88

関連する問題