私は、Pentaho Data Integration 7.1を使用して、ローカルファイルをHadoop 2.8.0クラスタにコピーしています。私はPentahoでHadoop Cluster接続を作成しましたが、HadoopのCopy Filesステップを使用しています。私は正常私はGUI(spoon.sh)から私の仕事を実行するとき、私はログに次の行を見ることができるファイルをアップロードすることができますキッチンからジョブを実行するときのジョブの動作が異なります。
Hadoop Copy Files - Processing row source File/folder source : [file:///home/etl/Desktop/users_full_20170620.csv] ... destination file/folder : [hdfs://hadoop:***@spark-master.cu:9000/value_iq]... wildcard : [null]
をしかし、私は使用して同じ変換を実行しようとすると、
Hadoop Copy Files - ERROR (version 7.1.0.0-12, build 1 from 2017-05-16 17.18.02 by buildguy) : Folder file:///value_iq/bin/kettle/data-integration_7.1/hdfs:/hadoop:[email protected]:9000/value_iq does not exist!
どういうわけか、それは目的地の的環境がローカルであると仮定すると、kitchen.shは、HDFSのURLの前に置かれているパスを追加します:kitchen.shは、私は次のエラーを得た失敗しました。
これは私のHadoopのファイルのコピーステップ
のスクリーンショットでこのバグのJIRAレポートはが作成されています:http://jira.pentaho.com/browse/PDI-16443
ありがとう、私はjiraの問題を作成しましたhttp://jira.pentaho.com/browse/PDI-16443 – Jose
また、間違って設定されたhadoopクラスタでコピーしようとしたようです。 file:///value_iq/bin/kettle/data-integration_7.1/ の場合は、名前が「hdfs:」のフォルダがあるかどうか確認してください。存在する場合は削除してください。 – Sedos