0
Hadoopの業界標準レプリケーションファクタは3です。つまり、100GBのデータがある場合、HDFSでは300GBとして保存されますか?Hadoopレプリケーションファクタは3です。どのくらいのデータが格納されていますか?
Hadoopの業界標準レプリケーションファクタは3です。つまり、100GBのデータがある場合、HDFSでは300GBとして保存されますか?Hadoopレプリケーションファクタは3です。どのくらいのデータが格納されていますか?
はい。
ファイルサイズが非常に小さい場合やブロックサイズよりもわずかに大きい場合にフラグメンテーションが発生する可能性があるブロックサイズ(デフォルトでは128MB)がありますが、一般にHDFSでは100GBがディスクの300GBになります。
そのデータの操作中に、追加の一時ファイルも作成されることに注意してください –