2016-11-04 19 views
0

私はAmbariを介してVMのクラスタを設定しました。 Sparkをインストールしようとしています。AmbariからSparkをインストール

すべてのチュートリアル(つまり、here)ではかなり簡単です。

https://docs.hortonworks.com/HDPDocuments/HDP2/HDP-2.3.4/bk_spark-guide/content/install-spark-over-ambari.html

しかし、私のAmbariインスタンスに単にそのようなエントリが存在しないことが表示されます:スパークのインストールは、他のサービスと同様です。

AmbariサービスにSparkエントリを追加するにはどうすればよいですか?

+0

使用しているHDPのバージョンは何ですか? – cjackson

+0

@cjacksonバージョンは2.2です。 – Aliaxander

+0

Spark 1.2.1はHDP2.2で利用可能です。アンバリサーバー '/ var/lib /アンバリサーバー/リソース/スタック/ HDP/2.2/services/SPARK'を実行するノードに次のフォルダが存在しますか? – cjackson

答えて

0

/var/lib/ambari-server/resources/stacks/HDP/2.2/servicesディレクトリの下にSPARKフォルダがあります。さらに、バージョン番号が/var/lib/ambari-server/resources/common-services/SPARKのスパークフォルダが必要です。誰かがあなたの環境を変更したか、Ambariのインストールが悪いまたは標準ではありません。

私は環境に欠けているものが何であるか不明確なものとして追加する必要があるものを正確に言うのは難しいので、再インストールすることをお勧めします。

関連する問題