JavaからCsvBulkLoadTool
を使用してHBsテーブルにcsvデータファイルを入れたいと思います。Windowsからの実行中にPhoenix CsvBulkLoadToolエラーが発生しました
HBaseとPhoenixはUbuntu VM上で動作しています。
私は、WindowsからCsvBulkLoadTool.run()
を実行すると、私は次の例外を取得:私はUbuntuのVM上で動作している私のサンプルアプリケーションをjava -jar
とき、私はNEX例外を取得、ところで
java.lang.IllegalArgumentException: Pathname /C:/Users/My_User/.m2/repository/org/apache/htrace/htrace-core/3.1.0-incubating/htrace-core-3.1.0-incubating.jar from hdfs://vm:9000/C:/Users/My_User/.m2/repository/org/apache/htrace/htrace-core/3.1.0-incubating/htrace-core-3.1.0-incubating.jar is not a valid DFS filename.
を:
java.io.FileNotFoundException: File does not exist: hdfs://vm:9000/usr/local/phoenix-samples-1.0-SNAPSHOT-jar-with-dependencies.jar
/usr/local/phoenix-samples-1.0-SNAPSHOT-jar-with-dependencies.jar
は、Ubuntu VM上の実際のjarファイルの場所です。
CsvBulkLoadTool
サンプルをhereから使用しました。
また、Phoenixを介してテーブルに接続してデータを取り込むためにプレーンJDBCを使用している場合、すべて動作します。
は、私は実行するために、CSVはHBaseの中HDFS内のインスタンス上に持っていたと思いましたか?その場合ですか? –