2017-12-26 22 views
0

Windows 10コンピュータにApache Sparkをインストールしようとしています。このインストール中にダウンロードされたC:\Program Files (x86)\Java一つのフォルダは::\jre1.8.0_151WindowsでSparkをインストールできない

次私はJDK from hereをインストールし、Windows x86バージョンをダウンロードしたスパークをインストールするには、私の最初のステップは、それがこのパスを介してダウンロードされたJava from hereをダウンロードすることでした。私はそれをダウンロードするために上記のJavaフォルダのパスと同じパスを使いました。それは私がJavaフォルダ内の2つのフォルダだった行われた後:その後jdk1.8.0_151 and jre1.8.0_151

を、私はC:\PROGRA~1(x86)\Java\jdk1.8.0_151を指すようにJAVA_HOME変数を設定し、Pathに私はその後、Scala from hereをインストールし、WindowsのためのScalaのバイナリをダウンロードし%JAVA_HOME%を追加しました。私はSpark from hereをインストールし、その後spark-2.2.1-bin-hadoop2.7.tgzをインストールし、私はここにD:\spark-2.2.1-bin-hadoop2.7をこのフォルダを置いC:\PROGRA~1(x86)\scala\bin

次の私は、パスでSPARK_HOMEように、環境変数を追加しました::D:\spark-2.2.1-bin-hadoop2.7\binと私はその後、%SPARK_HOME%\bin

pathを更新し、環境・パスは、次のように pathで追加されました

最後に、すべてがインストールされているかどうかを確認しようとしました。私はjava -versionと入力し、正しいjavaがインストールされています。私はscalaと入力し、式などを入力するためにscalaを開いていました。私はその後、spark-shellに入力されたが、私はこのエラーを得た:

'spark-shell' is not recognized as an internal or external command, operable program or batch file.

私は間違っていることが開いて火花を作っていませんやって何を?注:私はすべてのためにcmdを使用しています。

答えて

2

それは「私はその後、%SPARK_HOME%\binpathを更新」ときには、このようにあなたの%SPARK_HOME%間違った場所に設定されており、のように見える、それは明らかに間違っている、二重\binD:\spark-2.2.1-bin-hadoop2.7\bin\binを追加することになりました。 %SPARK_HOME%\binを付けないでください。一般

あなたがそれらのすべてを表示するには、コマンドラインでecho %PATH%またはSETを呼び出すことにより、ご使用の環境変数をテストすることができ

+0

私が見うーん、私は更新されたときに、このことはまだ言って私にエラーを与える: 'システムを見つけることができません – user2896120

+0

@ user2896120、あなたは '%PATH%'や '%SPARK_HOME%'を調整しましたか? spark-shell.cmdは '%SPARK_HOME%\ bin \ spark-submit2.cmd"を間接的に呼び出すので、あなたは '%SPARK_HOME%'を調整する必要があると信じています。 '%SPARK_HOME% % '。そうでない場合は、最初の行で '@echo off 'の前に' REM '(コメント)を追加して、' bin'フォルダの '.cmd'ファイルをすべて編集してください。このようにして、どのコマンドが失敗したかを知ることができます。それを知らずに私はあなたを助ける方法を知らない。 – SergGr

+1

これで問題はjava_homeにありました。私はパスで(x86)を削除しなければなりませんでした! – user2896120

関連する問題