2017-10-11 16 views
-1

JDK 1.7、Spark 1.6バージョンで事前設定されたCloudera VM 5.10にScala IDE 4.7をインストールしようとしています。 したがって、Clouderaによって与えられた/usr/java/jdk1.7にあるデフォルトのJDKをアンインストールすることによって、/ opt/locationにjdkバージョン1.8をインストールしました。私は.bash_profileにjava環境変数を追加しました。 Scala IDEを正常にインストールできました。 しかし、Hadoopのすべてのエコシステムは、アンインストールして実行時にエラーをスローする古いJDK 1.7を指しています。誰も私に新しい1.8のJDKで動作するようにHadoopエコシステム用のJava変数を設定できる場所を教えていただけますか? Here is the screen shot for referenceHadoopエコシステム用のJava環境変数の再設定

答えて

0

手順1:すべてのhadoopサーバーを停止します。 手順2:bigtop-utilsファイルを編集します。 jdk 1.8の場所を追加しました。 変数BIGTOP_MAJOR = 8を作成します。 jdkを選択する優先順位は6,7,8でJDKを開きます。 手順3:保存して再起動します。

関連する問題