csvの形式でアプリケーションから毎日新しいファイルを取得しています。c:/ program files(x86)/ webapps/apachetomcat/csv各ファイルに異なるデータがあるので、Windowsサーバーからhadoop hdfsにファイルを転送するためのhadoopコンポーネントがあります。私はflume、kafkaに出くわしましたが、適切な例が得られません。csvはWindowsサーバーからubuntuにファイルをダンプします。VirtualBox/hadoop/hdfs
したがって、各ファイルは別々の名前を持ち、10-20MBまでのサイズを持ち、毎日のファイル数は200ファイル以上です。Windowsサーバーにファイルが追加されると、flume/kafkaはそのファイルをhadoop、ファイルを処理したファイルに移動してHDFSの別のフォルダに移動する
詳細をご覧ください、ファイルのサイズ?このデータで何をしたいですか? –