2017-04-07 1 views
1

hadoopクラスタセットアップフォルダを削除すると、スパークシェルは正常に動作します。 hadoopクラスタのセットアップフォルダを作成してsparke-shellを実行すると、「sparkのorg.apache.spark.sql.hive.HiveSessionStateをインスタンス化している間にエラーが発生しました」というようなさまざまなエラーが発生します。しかし、hadoopクラスタでエラーが発生するため、spark-shellを起動できませんでした。ハーフープクラスタなしで正常に動作します。

Error during excecution of ./bin/spark-shell

second part of the same error

+0

アクセスしてからspark-shellがうまく動作します。私は現在のユーザーとしようとすると、上記のエラーを取得しかし、私は現在のユーザーにフルアクセスを与えている。理由は何でしょうか? –

答えて

1

実行:します。mkdir /ユーザー/ $のWHOAMI /スパークでも、私はすべてのhaddopとスパークのクラスタが、エラーを次のようにも火花シェル収率をシャットダウンすることで試してみました、ということに注意してください-warehouse

その後、実行します:スパーク・シェル--conf spark.sql.warehouse.dir =ファイル:私はルートを使用して火花シェルを実行しようとした///ユーザー/ $のWHOAMI /火花倉庫

+0

このハイブのインストールは不要なので避けてください。もしそうなら、PLZは私にどのように教えてくれますか? –

+0

spark-shellを実行する前にhadoopクラスタを起動しましたか? –

+0

私は起動と起動の両方を試みましたが、運がありません....でも今でもハイブをインストールしましたが、同じエラーが表示されます。 –

関連する問題