HDFSのブロックサイズが128MBの場合、200MBのファイルをHDFSに書き込もうとしています。 200MBのうち150MBを書き込んだ後に書き込みが失敗した場合はどうなりますか?書き込まれたデータの一部からデータを読み取ることはできますか?同じファイルをもう一度書き込もうとするとどうなりますか?それは重複しますか?障害発生前に書かれた150MBのデータはどうなりますか?書き込み中に、それが失敗した場合ブロックサイズより大きなファイルをhdfsに書き込む
2
A
答えて
5
HDFSデフォルトのブロックサイズは、128メガバイトです(ファイル拡張子をコピーして、それはHadoopの管理UIでステータスが表示されます。)
のみ150メガバイトのデータがコピーされます。
はい、データの一部(150MB)を読み取ることができます。
コピーを元に戻すと、前のポイントから(パスが同じで、ファイル名が同じ場合)続きます。
すべてのデータについて、レプリケーションファクタに基づいてレプリケーションを見つけることができます。
以前に書かれたデータは、HDFSで利用可能になります。
+0
ありがとうございます.. –
関連する問題
- 1. Javaでhdfsにファイルを書き込む
- 2. HadoopでHDFSのファイルに書き込む
- 3. スパークとJDBC:大きな表を繰り返してhdfsに書き込む
- 4. Aerospikeの最大書き込みブロックサイズ
- 5. HadoopがHDFSに不完全なファイルを書き込む
- 6. HDFSにランダムファイルを書き込む - PySpark
- 7. HDFS内にMetaDataを書き込む
- 8. 非常に大きなファイルを書き込むIOError
- 9. 大きなファイルをSQL Server FILESTREAMに書き込む方法は?
- 10. ファイルをHdfsに書き込む際のIOException
- 11. BufferedOutputStreamを使用して大きなファイルを書き込む
- 12. 大きなバイナリファイルを読み書きするときのブロックサイズ
- 13. 大きなファイルをPythonで修正して書き込む
- 14. HDFSブロックサイズ
- 15. Pythonのhdfsファイルへの書き込み
- 16. 大きなNumPy配列をファイルに書き込む効率的な方法
- 17. ファイルに書き込むpython
- 18. ファイルに書き込む(Python)
- 19. ファイルに書き込む(Python)
- 20. Qt:ファイルに書き込む
- 21. cURL - ファイルに書き込む
- 22. Spark:Avroファイルに書き込む
- 23. ファイルに書き込むキーストローク
- 24. ファイルに書き込む
- 25. xmlファイルに書き込む
- 26. ファイルに書き込む
- 27. Excelに非常に大きな数値を書き込む
- 28. HDFSブロックサイズ混同
- 29. Jsonファイルを書き込む
- 30. Matlab:aviファイルを書き込む
ファイルをHDFSにコピーする方法によって異なります。 hdfsシェルコマンドまたはJavaコードを使用していますか? – Max08
これは私が答えを見つけることができなかったインタビューの質問でした。両方のケースについて知ってもいいですか? –