私はhive.execution.engine
をスパークに設定し、スパーク対応キューを使用しています。 Spark sql
はハイブテーブルにアクセスできます。直接接続されたクラスタマシンからも同様にbeeline
です。Spark実行エンジンを使用するときにHive cliを設定するにはどうすればよいですか?
しかし、hive cli
は追加の手順が必要なようです。これまでのところ、以下が行われています
を**コピー$HIVE_HOME/libs
DIR(または私達はClassNotFoundException
を得る)
からscala
ライブラリは** hive
スクリプト(または.hiverc
中)の開始時に、次を実行します
set hive.execution.engine=spark;
set mapred.job.queue.name=root.spark.sbg.hos;
次のエラーが今Failed to create spark client.
起こるしかし:
SLF4J: Actual binding is of type [org.apache.logging.slf4j.Log4jLoggerFactory]
Logging initialized using configuration in jar:file:/usr/local/Cellar/hive/2.1.1/libexec/lib/hive-common-2.1.1.jar!/hive-log4j2.properties Async: true
hive (default)> insert into sb.test2 values (1,'ab');
Query ID = sboesch_20171030175629_dc310c9a-519e-4f84-a632-f3a44f1df8c3
Total jobs = 3
Launching Job 1 out of 3
In order to change the average load for a reducer (in bytes):
set hive.exec.reducers.bytes.per.reducer=<number>
In order to limit the maximum number of reducers:
set hive.exec.reducers.max=<number>
In order to set a constant number of reducers:
set mapreduce.job.reduces=<number>
Failed to execute spark task, with exception 'org.apache.hadoop.hive.ql.metadata.HiveException(Failed to create spark client.)'
FAILED: Execution Error, return code 1 from org.apache.hadoop.hive.ql.exec.spark.SparkTask
hive
のバックエンドにspark
バックエンドに接続できた人はいますか?私はバニラhive
(Cloudera
またはHortonworks
またはMapR
ではない)経由で接続しています。
こんにちはのような応答を取得する新しいターミナルで
hive --service metastore
を試してみてください - 私はあなたが述べたように、 'ハイブ--service metastore'を開始し、同じ結果をもたらす。 'sparkタスクの実行に失敗しました。例外は「org.apache.hadoop.hive.ql.metadata.HiveException(sparkクライアントの作成に失敗しました。)」です。あなたは何を探すべきかについてのさらなるヒントを持っていますか? – javadbaハイブMetastoreを設定しましたか?メタストアを設定した後、 'hive metastore'を' mysql、postgres、またはmssqlのような 'RDBMSデータベースのどれかで構成しないと、更新された答えで' hive-site.xml'ファイルを編集してください。 – Vignesh
また、 'mysql-connector-java-5.1.42-bin'のような' metastore database connectivity jar libディレクトリをハイブに置きます。ハイブメタストア設定のためのリンクhttp://sandeeppatil101.blogspot.in/2017/05/step- 1-download-hive-2.html – Vignesh