Windows 10コンピュータにApache Sparkをインストールしようとしています。このインストール中にダウンロードされたC:\Program Files (x86)\Java
一つのフォルダは::\jre1.8.0_151
WindowsでSparkをインストールできない
次私はJDK from hereをインストールし、Windows x86バージョンをダウンロードしたスパークをインストールするには、私の最初のステップは、それがこのパスを介してダウンロードされたJava from hereをダウンロードすることでした。私はそれをダウンロードするために上記のJavaフォルダのパスと同じパスを使いました。それは私がJavaフォルダ内の2つのフォルダだった行われた後:その後jdk1.8.0_151 and jre1.8.0_151
を、私はC:\PROGRA~1(x86)\Java\jdk1.8.0_151
を指すようにJAVA_HOME変数を設定し、Path
に私はその後、Scala from hereをインストールし、WindowsのためのScalaのバイナリをダウンロードし%JAVA_HOME%
を追加しました。私はSpark from hereをインストールし、その後spark-2.2.1-bin-hadoop2.7.tgz
をインストールし、私はここにD:\spark-2.2.1-bin-hadoop2.7
をこのフォルダを置いC:\PROGRA~1(x86)\scala\bin
次の私は、パスでSPARK_HOMEように、環境変数を追加しました::D:\spark-2.2.1-bin-hadoop2.7\bin
と私はその後、%SPARK_HOME%\bin
path
を更新し、環境・パスは、次のように
path
で追加されました
最後に、すべてがインストールされているかどうかを確認しようとしました。私はjava -version
と入力し、正しいjavaがインストールされています。私はscala
と入力し、式などを入力するためにscalaを開いていました。私はその後、spark-shell
に入力されたが、私はこのエラーを得た:
'spark-shell' is not recognized as an internal or external command, operable program or batch file.
私は間違っていることが開いて火花を作っていませんやって何を?注:私はすべてのためにcmdを使用しています。
私が見うーん、私は更新されたときに、このことはまだ言って私にエラーを与える: 'システムを見つけることができません – user2896120
@ user2896120、あなたは '%PATH%'や '%SPARK_HOME%'を調整しましたか? spark-shell.cmdは '%SPARK_HOME%\ bin \ spark-submit2.cmd"を間接的に呼び出すので、あなたは '%SPARK_HOME%'を調整する必要があると信じています。 '%SPARK_HOME% % '。そうでない場合は、最初の行で '@echo off 'の前に' REM '(コメント)を追加して、' bin'フォルダの '.cmd'ファイルをすべて編集してください。このようにして、どのコマンドが失敗したかを知ることができます。それを知らずに私はあなたを助ける方法を知らない。 – SergGr
これで問題はjava_homeにありました。私はパスで(x86)を削除しなければなりませんでした! – user2896120