2017-09-06 8 views
1

JavaからCsvBulkLoadToolを使用してHBsテーブルにcsvデータファイルを入れたいと思います。Windowsからの実行中にPhoenix CsvBulkLoadToolエラーが発生しました

HBaseとPhoenixはUbuntu VM上で動作しています。

私は、WindowsからCsvBulkLoadTool.run()を実行すると、私は次の例外を取得:私はUbuntuのVM上で動作している私のサンプルアプリケーションをjava -jarとき、私はNEX例外を取得、ところで

java.lang.IllegalArgumentException: Pathname /C:/Users/My_User/.m2/repository/org/apache/htrace/htrace-core/3.1.0-incubating/htrace-core-3.1.0-incubating.jar from hdfs://vm:9000/C:/Users/My_User/.m2/repository/org/apache/htrace/htrace-core/3.1.0-incubating/htrace-core-3.1.0-incubating.jar is not a valid DFS filename. 

を:

java.io.FileNotFoundException: File does not exist: hdfs://vm:9000/usr/local/phoenix-samples-1.0-SNAPSHOT-jar-with-dependencies.jar 

/usr/local/phoenix-samples-1.0-SNAPSHOT-jar-with-dependencies.jarは、Ubuntu VM上の実際のjarファイルの場所です。

CsvBulkLoadToolサンプルをhereから使用しました。

また、Phoenixを介してテーブルに接続してデータを取り込むためにプレーンJDBCを使用している場合、すべて動作します。

+1

は、私は実行するために、CSVはHBaseの中HDFS内のインスタンス上に持っていたと思いましたか?その場合ですか? –

答えて

0

CSVBulkloadToolはhadoop jarとして実行する必要があります。

だから私は実行する必要があります: hadoop jar my-application-with-CSVBulkloadTool.jar

関連する問題