私はspark 2.1.1を2台のマシンにインストールしましたが、の相対的な場所はです。つまり、NTFSドライブのどこかにインストールしたマシンと、ext4ドライブにインストールしたマシンです。私はスタンドアロンモードでクラスタを2つのスレーブと1つのマシン上に1つのスレーブと1つのスレーブと他のマシンに1つのスレーブを持つことによってマスターを開始しようとしています。start-all.shを使用して、(マスタよりも)別のSPARK_HOMEを使用するスタンドアロンワーカーを起動する方法?
私はマスターノード上start-all.sh
スクリプトを経由して、このクラスタを起動しようとすると、私は次のエラーを取得する: -
192.168.1.154: bash: line 0: cd: /home/<somePath>/spark-2.1.1-bin-hadoop2.7: No such file or directory
私はそれぞれのbashrc
ファイルにSPARK_HOME
適切に設定しています。以下は、(1つのマスター+ 1つのスレーブマシンで)私の奴隷ファイル
localhost
192.168.1.154
私はリモートからssh経由で1つのスレーブマシンにログインすることができます。 Sparkクラスタを各マシンで個別に実行することができます。
start-all.sh
スクリプトを使用してマスターマシンからスレーブをリモートで起動しようとすると、スパークがマスターノードにインストールされている場所に移動しようとしていますが、スレーブノードではスパークが別の場所、それは失敗します。誰も私にこの問題を解決する方法を教えてもらえますか? start-all.shで
は、あなたの応答をありがとうございました。しかし私は厳密に私の質問には関係しません。とにかくSPARK_HOMEは両方のマシンで正しく設定されています – opensam