2016-07-20 8 views
0

CentOSを実行しているHortonworks VMの下でファイルをHadoopに一括アップロードする方法はありますか? Ambari - SandboxのHDFS Filesツールを使うことができますが、それは1つずつアップロードすることしかできません。明らかに、以前はRedgate's HDFS Explorerを使用していましたが、もう使用できません。 Hadoopは大きなデータを処理するように作られていますが、すべてのファイルを1つずつアップロードする必要はありません。 ありがとうございました!あなたはcopyFromLocal*ワイルドカードを使用することができますもちろんHortonworks VM - Hadoopバッチアップロード?

答えて

0

、f.e:

hdfs dfs -copyFromLocal input/* /tmp/input 
関連する問題