1
この大きなサイズを読み込むにはhadoopファイルをロードしますか?この大きなサイズのhadoopファイルを読み込む方法は?
hadoopからローカルUSBにファイルを読み込む必要があります。
ディレクトリ内の1つのファイルが奇妙で、名前が " - "で、サイズが45Gを超えています。最初にhadoop fs -get
を使用してローカルのLinux VMにデータを取得し、次にWinSCPを使用してデータをローカルUSBにロードします。しかし私のローカルLinux VMの容量はわずか19Gです。これを行う方法?
hadoopコマンドを使用して、45Gファイルを小さいファイルに分割することを検討しています。しかし、私はそのようなコマンドを発見していない。
USBをVMにマウントするだけです –