Я знаю, что HDFS хранит данные, используя обычную файловую систему Linux в узлах данных. Размер блока HDFS: 128 MB
. Допустим, что у меня есть 10 GB
дискового пространства в моем кластере hadoop, что означает, что HDFS изначально имеет в качестве доступного хранилища.Размер блока HDFS Vs фактический размер файла
Если я создаю небольшой файл, скажем 12.8 MB
, #доступные блоки HDFS станут 79. Что произойдет, если я создам еще один небольшой файл 12.8 MB
? Будут ли блокировку #availbale находиться на отметке 79 или она снизится до 78? В первом случае HDFS в основном пересчитывает #доступные блоки после каждого распределения блоков на основе свободного свободного места на диске, поэтому #доступные блоки становятся 78 только после того, как потребляется более 128 МБ дискового пространства. Просьба уточнить.
Это то, что я догадывался. Теперь это яснее. Спасибо за подробное объяснение и эксперимент! – sachin2182