2016-10-07 7 views
0

例外:ファイル:/usr/local/hive/lib/hive-common-2.1ハイブ - Hadoopの2.7.3を使用して起動に関する問題やダービー

ロギング jarファイル内の構成を使用して初期化。 0.jar!/hive-log4j2.properties 非同期:trueスレッド "main"の例外java.lang.RuntimeException: org.apache.hadoop.hive.ql.metadata.HiveException: java.lang.RuntimeException:できませんインスタンス化する org.apache.hadoop.hive.ql.metadata.SessionHiveMetaStoreClientを に設定します。org.apache.hadoop.hive.ql.session.SessionState.start(SessionState。 java:578) at org.apache.hadoop.hive.ql.session.SessionState.beginStart(SessionState.java:518) at org.apache.hadoop.hive.cli.CliDriver.run(CliDriver.java:705 ) sun.reflect.NativeMethodAccessorImpl.invoke(NativeMethodAccessorImpl.javaで sun.reflect.NativeMethodAccessorImpl.invoke0(ネイティブメソッド)で org.apache.hadoop.hive.cli.CliDriver.main(CliDriver.java:641)において: 57) org.apache.hadoop.util.RunJar.runでjava.lang.reflect.Method.invokeで sun.reflect.DelegatingMethodAccessorImpl.invoke(DelegatingMethodAccessorImpl.java:43) (Method.java:606)で(RunJar.java:221)at org.apache.hadoop.util.RunJar.main(RunJar.java:136)原因: org.apache.hadoop.hive.ql.metadata.HiveException: java.lang.RuntimeException:インスタンス化できません org.apache.hadoop.hive.ql.metadata.SessionHiveMetaStoreClientに org.apache.hadoop.hive.ql (Hive.java:366)at org.apache.hadoop.hive.ql.metadata。 Hive.create(Hive.java:310)at org.apache.hadoop.hive.ql.metadata.Hive.getInternal(Hive.java:290)at org.apache.hadoop.hive.ql.metadata.Hive。 get(Hive.java:266)at org.apache.hadoop.hive.ql.session.SessionState.start(SessionState.java:545) ... 9他に発生した:java.lang.RuntimeException:Unable to をインスタンス化する org.apache.hadoop.hive.metastore.RetryingMetaStoreClientでorg.apache.hadoop.hive.metastore.MetaStoreUtils.newInstance(MetaStoreUtils.java:1627) でorg.apache.hadoop.hive.ql.metadata.SessionHiveMetaStoreClient (RetryingMetaStoreClient.java:80) でorg.apache.hadoop.hive.metastore.RetryingMetaStoreClient.getProxy(RetryingMetaStoreClient.java:130) org.apache.hadoop.hive.metastore.RetryingMetaStoreClient.getProxy(RetryingMetaStoreClientました。 java:101) at org.apache.hadoop.hive.ql.metadata.Hive.createMetaStoreClient(Hive.java:3317) at org.apache.hadoop.hive.ql.metadata.Hive.getMSC(Hive.java :3356)at org.apache.had oop.hive.ql.metadata.Hive.getMSC(Hive.java:3336)at org.apache.hadoop.hive.ql.metadata.Hive.getAllFunctions(Hive.java:3590) at org.apache.hadoop .hive.ql.metadata.Hive.reloadFunctions(Hive.java:236) at org.apache.hadoop.hive.ql.metadata.Hive.registerAllFunctionsOnce(Hive.java:221) ... 14もっとひどい: sun.reflect.DelegatingConstructorAccessorImpl.newInstanceでsun.reflect.NativeConstructorAccessorImpl.newInstance(NativeConstructorAccessorImpl.java:57) でsun.reflect.NativeConstructorAccessorImpl.newInstance0(ネイティブ 方法)(DelegatingConstructorAccessorImplでにjava.lang.reflect.InvocationTargetException 。Javaの:45) java.lang.reflect.Constructor.newInstance(Constructor.java:526) で org.apache.hadoop.hive.metastore.MetaStoreUtils.newInstance(MetaStoreUtils.java:1625で) ... 23 javax.jdo.JDOFatalInternalException:もっとによる誤差 トランザクション接続ファクトリNestedThrowablesを作成: で org.datanucleus.api.jdo.NucleusJDOHelper.getJDOExceptionForNucleusException(NucleusJDOHelper.java:671) のにjava.lang.reflect.InvocationTargetException組織プロパティ。 (JDOPersistenceManagerFactory.java:338) でorg.datanucleus.api.jdo.JDOPersistenceManagerFactory.getPersistenceManagerFactory(JDOPersistenceManagerFactory.java:217) sun.reflect.NativeMethodAccessorImpl.invokeでsun.reflect.NativeMethodAccessorImpl.invoke0(ネイティブメソッド)で(NativeMethodAccessorImpl.java:57) でsun.reflect.DelegatingMethodAccessorImpl.invoke(DelegatingMethodAccessorImpl.java:43) javax.jdo.JDOHelper $ 16におけるjava.lang.reflect.Method.invoke(Method.java:606)で.run(JDOHelper.java:1965)at java.security.AccessController.doPrivileged(ネイティブメソッド) にあるjavax.jdo.JDOHelper.invoke(JDOHelper.java:1960)at javax.jdo.JDOHelper.invokeG org.apache.hadoopでetPersistenceManagerFactoryOnImplementation javax.jdo.JDOHelper.getPersistenceManagerFactory(JDOHelper.java:701)で javax.jdo.JDOHelper.getPersistenceManagerFactory(JDOHelper.java:808)で(JDOHelper.java:1166) org.apache.hadoop.hive.metastoreで.hive.metastore.ObjectStore.getPMF org.apache.hadoop.hive.metastore.ObjectStore.getPersistenceManager(ObjectStore.java:453)で(ObjectStore.java:424) .ObjectStore.initialize(ObjectStore.java:327) at org.apache.hadoop.hive.metastore.ObjectStore.setConf(ObjectStore.java:294) at org.a org.apache.hadoop.util.ReflectionUtils.newInstance(ReflectionUtils.java:136) org.apache.hadoop.hive.metastoreで でpache.hadoop.util.ReflectionUtils.setConf(ReflectionUtils.java:76) 。 RawStoreProxy。(RawStoreProxy.java:58) でorg.apache.hadoop.hive.metastore.RawStoreProxy.getProxy(RawStoreProxy.java:67) org.apache.hadoop.hive.metastore.HiveMetaStore $ HMSHandler.newRawStoreで org.apache.hadoop.hive.metastore.HiveMetaStore $ HMSHandler.getMS(HiveMetaStore.java:546) で(HiveMetaStore.java:581) org.apache.hadoop.hive.metastore.HiveMetaStore $ HMSHandler.createDefaultDBで(HiveMetaStore.java:612)で org.apache.hadoop.hive.metastore.HiveMetaStore $ HMSHandler.init(HiveMetaStore.java:398) でorg.apache.hadoop.hive.metastore.RetryingHMSHandler。(RetryingHMSHandler.java:78) で org.apacheでorg.apache.hadoop.hive.metastore.RetryingHMSHandler.getProxy(RetryingHMSHandler.java:84) でorg.apache.hadoop.hive.metastore.HiveMetaStore.newRetryingHMSHandler(HiveMetaStore.java:6396) 。 hadoop.hive.metastore.HiveMetaStoreClient(HiveMetaStoreClient.java:236) を に設定します。org.apache.hadoop.hive.ql.metadata.SessionHiveMetaStoreClient(SessionHiveMetaStoreClient.java:70) ... 28より原因:java。 lang.reflect。 でsun.reflect.NativeConstructorAccessorImpl.newInstance(NativeConstructorAccessorImpl.java:57) でsun.reflect.NativeConstructorAccessorImpl.newInstance0(ネイティブ 方法)でにInvocationTargetException sun.reflect.DelegatingConstructorAccessorImpl.newInstance(DelegatingConstructorAccessorImpl.java:45) で org.datanucleus.plugin.PluginManager.createExecutableExtension(PluginManagerで org.datanucleus.plugin.NonManagedPluginRegistry.createExecutableExtension(NonManagedPluginRegistry.java:606) でjava.lang.reflect.Constructor.newInstance(Constructor.java:526) 。 java:330) at org.datanucleus.store.AbstractStoreMana org.datanucleus.store.rdbms.RDBMSStoreManagerでger.registerConnectionFactory(AbstractStoreManager.java:203) でorg.datanucleus.store.AbstractStoreManager。(AbstractStoreManager.java:162) 。(RDBMSStoreManager.java:284) でsun.reflect.NativeConstructorAccessorImpl.newInstance0 sun.reflect.DelegatingConstructorAccessorImpl.newInstance(DelegatingConstructorAccessorImpl.java:45)で sun.reflect.NativeConstructorAccessorImpl.newInstance(NativeConstructorAccessorImpl.java:57)での(ネイティブ 方法) れるjava.langでコンストラクタ org.datanucleusでorg.datanucleus.NucleusContextHelper.createStoreManagerForProperties(NucleusContextHelper.java:133) でeateExecutableExtension org.datanucleus.plugin.PluginManager.createExecutableExtension(PluginManager.java:301)で(NonManagedPluginRegistry.java:606) .PersistenceNucleusContextImpl.initialise(PersistenceNucleusContextImpl.java:420) org.datanucleus.api.jdo.JDOPersistenceManagerFactory.freezeConfiguration(JDOPersistenceManagerFactory.java:821)以上に起因 ... 57時 :org.datanucleus.exceptions.NucleusException: "BONECP"プラグインを呼び出してConnectionPoolを作成しようとすると、エラー が発生しました:指定されたデータストアdri ver ( "org.apache.derby.jdbc.ClientDriver")がCLASSPATHに見つかりませんでした。 CLASSPATHの仕様とドライバの名前を確認してください。 org.datanucleus.storeでorg.datanucleus.store.rdbms.ConnectionFactoryImpl.initialiseDataSources(ConnectionFactoryImpl.java:117) でorg.datanucleus.store.rdbms.ConnectionFactoryImpl.generateDataSources(ConnectionFactoryImpl.java:232) で(ConnectionFactoryImpl.java:82) ... 75 more原因: org.datanucleus.store.rdbms.connectionpool.DatastoreDriverNotFoundException: 指定されたデータストアドライバ( "org.apache.derby.jdbc.ClientDriver ") がCLASSPATHに見つかりませんでした。 CLASSPATH の仕様とドライバの名前を確認してください。 でorg.datanucleus.store.rdbms.connectionpool.AbstractConnectionPoolFactory.loadDriver(AbstractConnectionPoolFactory.java:58) でorg.datanucleus.store.rdbms.connectionpool.BoneCPConnectionPoolFactory.createConnectionPool(BoneCPConnectionPoolFactory.java:54) ORGで。 datanucleus.store.rdbms.ConnectionFactoryImpl.generateDataSources(ConnectionFactoryImpl.java:213) ... 77もっと

ハイブサイト。XML

<?xml version="1.0"?> 
<configuration> 
<property> 
    <name>javax.jdo.option.ConnectionURL</name> 
    <value>jdbc:derby:;databaseName=/usr/local/hive/metastore_db;create=true</value> 
    <description>JDBC connect string for a JDBC metastore</description> 
</property> 

<property> 
    <name>javax.jdo.option.ConnectionDriverName</name> 
    <value>org.apache.derby.jdbc.ClientDriver</value> 
    <description>Driver class name for a JDBC metastore</description> 
</property> 
</configuration> 

答えて

0

1)org.apache.derby.jdbc.EmbeddedDriver

または

2でjavax.jdo.option.ConnectionDriverNameの値を置き換えます)hive-client/libパス

http://central.maven.org/maven2/org/apache/derby/derbyclient/10.10.1.1/derbyclient-10.10.1.1.jarを追加し、

+0

もう一度試していただきありがとうございます! hadoopマスターでハイブが起動していません derby.logファイルに次の行が含まれています 'Fri Oct 07 17:00:08 PKT 2016: 起動中のDerbyバージョンApache Software Foundation - Apache Derby - $ データベースディレクトリ/クラスローダファイルからロード$ とUSR /ローカル/ハイブ/ metastore_db:/usr/local/hive/lib/derby-10.10.2.0.jar java.vendor =オラクル・コーポレーション java.runtime.version = 1.7.0_60 -b19 はuser.dir =は/ usr/local /ハイブ os.name = Linuxの os.arch = amd64の os.version = 2.6.32-642.1.1.el6.x86_64 derby.system.home = nullを データベースクラスローダが起動しました - derby.database.classp ath = '' – Imran

+0

このリンクをチェック https://cwiki.apache.org/confluence/display/Hive/HiveDerbyServerModeもしあなたが何かのステップを見逃した場合は、 –

+0

ハイブの代わりにmongodbを使うことができますか? – Imran

関連する問題