2016-07-21 11 views
1

私はPhoenixの全く新しいユーザーです。 | 23 /スプルー$ PSは-ef:44:Apache PhoenixがHBaseに接続できません

  • HBaseの

    21までですgrepのHMASTER

    501 55936 55922 0 21:50 ttys014 0:18.12 /Library/Java/JavaVirtualMachines/jdk1.8.0_71.jdk/Contents/Home/bin/java -Dproc_master -XX:OnOutOfMemoryError =殺す-9%pを-Djava.net.preferIPv4Stack =真 - .. -Dhbase.security.logger = INFO、RFAS org.apache.hadoop.hbase.master.HMasterは

  • を開始し、我々はhbase shellと、クエリのものを経由して、それに接続することができます:

    HBaseの(主):010:0>スキャン 'T1'

    ロー・カラム+ CELL R1 C olumn = F1:0.0370秒

でC1、タイムスタンプ= 1469077174795、値= val1と 1行(複数可)今私は$ HBASE_HOME/libのディレクトリ、再起動のHBaseにフェニックス4.4.6 jarファイルをコピーし、しようとしましたsqlline.py経由で接続:

$sqlline.py mellyrn.local:2181 

Setting property: [incremental, false] 
Setting property: [isolation, TRANSACTION_READ_COMMITTED] 
issuing: !connect jdbc:phoenix:mellyrn.local:2181 none none org.apache.phoenix.jdbc.PhoenixDriver 
Connecting to jdbc:phoenix:mellyrn.local:2181 
SLF4J: Class path contains multiple SLF4J bindings. 
SLF4J: Found binding in [jar:file:/shared/phoenix-4.7.0-HBase-1.1-bin/phoenix-4.7.0-HBase-1.1-client.jar!/org/slf4j/impl/StaticLoggerBinder.class] 
SLF4J: Found binding in [jar:file:/usr/local/Cellar/hadoop/2.6.0/libexec/share/hadoop/common/lib/slf4j-log4j12-1.7.5.jar!/org/slf4j/impl/StaticLoggerBinder.class] 
SLF4J: See http://www.slf4j.org/codes.html#multiple_bindings for an explanation. 
16/07/20 22:03:03 WARN util.NativeCodeLoader: Unable to load native-hadoop library for your platform... using builtin-java classes where applicable 
Error: org.apache.hadoop.hbase.DoNotRetryIOException: Class org.apache.phoenix.coprocessor.MetaDataEndpointImpl cannot be loaded Set hbase.table.sanity.checks to false at conf or table descriptor if you want to bypass sanity checks 
    at org.apache.hadoop.hbase.master.HMaster.warnOrThrowExceptionForFailure(HMaster.java:1603) 
    at org.apache.hadoop.hbase.master.HMaster.sanityCheckTableDescriptor(HMaster.java:1535) 
    at org.apache.hadoop.hbase.master.HMaster.createTable(HMaster.java:1452) 
    at org.apache.hadoop.hbase.master.MasterRpcServices.createTable(MasterRpcServices.java:429) 
    at org.apache.hadoop.hbase.protobuf.generated.MasterProtos$MasterService$2.callBlockingMethod(MasterProtos.java:52195) 
    at org.apache.hadoop.hbase.ipc.RpcServer.call(RpcServer.java:2127) 
    at org.apache.hadoop.hbase.ipc.CallRunner.run(CallRunner.java:107) 
    at org.apache.hadoop.hbase.ipc.RpcExecutor.consumerLoop(RpcExecutor.java:133) 
    at org.apache.hadoop.hbase.ipc.RpcExecutor$1.run(RpcExecutor.java:108) 
    at java.lang.Thread.run(Thread.java:745) (state=08000,code=101) 
org.apache.phoenix.except 

.. 

Caused by: org.apache.hadoop.hbase.DoNotRetryIOException: 
org.apache.hadoop.hbase.DoNotRetryIOException: Class 
org.apache.phoenix.coprocessor.MetaDataEndpointImpl cannot be loaded Set 
hbase.table.sanity.checks to false at conf or table descriptor if you want to 
bypass sanity checks 

のでphoenixを起動するために必要なもの上の任意のヒントが参考になります。

答えて

1

$HBASE_HOME/libおよび$HBASE_HOME/conf/hbase-site.xmlHMasterに設定してください。

あなたはフェニックスを起動すると、それは4つのシステムテーブルを作成します:コプロセッサorg.apache.phoenix.coprocessor.MetaDataEndpointImplを使用する

SYSTEM.CATALOG 
SYSTEM.FUNCTION 
SYSTEM.SEQUENCE 
SYSTEM.STATS 

SYSTEM.CATALOGSYSTEM.FUNCTION宣言を、あなたのHMASTERがそれを読み込むことができませんでしたようです。 HBaseのマスターは、HBaseのマスターとバックアップマスターに鳳凰 server.jarをコピーし、その十分ではない、単なる地域サーバを再起動して言っても不死鳥のインストール手順ものの、フェニックスserver.jarを読み込むことができませんでしたときにスローされる例外上記

2

リージョンサーバーと同じで、すべてのサーバーを再起動します。

関連する問題