2016-04-14 10 views
0

私はスカウトをセットアップしました。Hadoop & spark &がマスターノードを正常に起動しました。 私はちょうどscalaをインストールしました& spark &もワーカー(スレーブ)を起動しました。だから私は混乱しているのは、Haddopも作業を実行するために作業者にセットアップすべきではないということですか?公式Apacheのスパークから作業者はSparkにHadoopもインストールする必要がありますか?

+1

実際に誰かがあなたの質問に答えます。あなたは答えを受け入れないであなたの質問を完全に変えます。新しい質問がある場合は、新しい質問として投稿し、質問のタイトルと詳細を変更しないでください。 – eliasah

+0

申し訳ありませんが、私は重複を避けるために編集されたが、答えの2番目の部分は、Hadoopのを必要とする、スパークの構築についてです。しかし、私の両方の質問は、Hadoopがマスターとワーカーの両方にとって不可欠であるかどうかについての質問でした。後で私はHadoopなしで作業員を走らせることができました。それは混乱の原因となり、私はその質問を編集しました。あなたが提供 – user2700022

答えて

0

Thisリンクはスパーククラスタを構成する方法を示しています。そして、scalaとhadoopの両方が必要であるという要件が明確に説明されています。here

+0

2番目のリンクは、私はするつもりはないされ、火花の構築についてです。私はマスターにsparkの準拠バージョンを使用しました。私はスカラ座&火花をインストール&成功した労働者を始めてみました。 – user2700022

関連する問題