2016-10-06 9 views
0

を使用して、スパークのHBaseを実行している間、私はJavaのAPI例外 "メイン" java.lang.NoClassDefFoundErrorが:ORG/apacheの/ Hadoopの/ HBaseの/ HBaseConfigurationのJava API

を使用して スパークでのHBaseからデータを取得するために簡単なアプリケーションを実行しています

spark-submitコマンド eg running

bin/spark-submit --master spark://192.168.43.75:7077 --class com.scry.NLPAnnotationController --driver-class-path /usr/lib/hbase/hbase-0.98.22-hadoop2/conf:$SPARK_HOME/lib_managed/jars/*.jar:$HBASE_CLASSPATH/*.jar --jars $SPARK_HOME/lib_managed/jars/*.jar:$HBASE_CLASSPATH/*.jar /home/deepak/hbase.jar 

それは、この問題を解決するために助けてください

Exception in thread "main" java.lang.NoClassDefFoundError: org/apache/hadoop/hbase/HBaseConfiguration

のようなエラーが発生します。事前に

おかげで、あなたは火花提出実行されているコンソールで ディーパック

答えて

0

、最初の火花提出

輸出HADOOP_CLASSPATH = $ HADOOP_CLASSPATHコマンドの下に実行してから実行します:$ HBASE_CLASSPATH

これが動作する場合、私は

+0

...それはあなたのお役に立てば幸いですhadoop-env.sh

にこのエントリを追加これを試しましたが、同じエラーが発生しました。 HBASE_CLASSPATH =/usr/lib/hbase/hbase-0.98.22-hadoop2/lib –

+0

--driver-class-path /usr/lib/hbase/hbase0.98.22-hadoop2/conf:$としてオプションを指定してください。 SPARK_HOME/lib_managed/jars:$ HBASE_CLASSPATHが有効な場合は--jarsオプションもカンマ区切りにする必要があります。したがって、すべてのjarファイルを-jars $ HBASE_CLASSPATH/first.jar、$ HBASE_CLASSPATH/secondのようにカンマで区切って指定してください。瓶など –

関連する問題