私はシステム管理者ではありませんが、管理作業を行う必要があり、そのためにいくつかの助けが必要な場合があります。既存のHadoopクラスタにSparkをインストールしてください
私たちは(リモート)Hadoopクラスタを持ち、人々は通常クラスタ上でmap-reduceジョブを実行します。
クラスタ内のすべてのマシンを利用できるように、クラスタにApache Sparkをインストールする予定です。これは可能なはずと私はhttp://spark.apache.org/docs/latest/spark-standalone.htmlから読んだことがある「あなただけの同じマシン上の別のサービスとして起動することによって、既存のHadoopクラスタと一緒にスパークを実行することができます...」
あなたは前にこれを行っている場合は、私に与えてくださいSparkクラスタを作成するための詳細な手順。あなたはHadoopのがすでにクラスタにインストールされているとYARNに火花を実行したい場合は