Я хочу получить некоторые пояснения и подтверждения о моем понимании блоков и входных расщеплений.Hadoop - блоки HDFS и расколы (пока работает mapreduce)
любезно прочитайте и дайте мне знать, если я прав.
- Когда файл (скажем, 1 ГБ) копируется из локальной файловой системы HDFS с помощью «поставить» команду, в зависимости от размера блока набора в файлы конфигурации Hadoop, он получит раскол (скажем, 128 MB) в 8 блоков (размер блока 1024 МБ/128 МБ) на 8 разных узлах данных. Также, в зависимости от коэффициента репликации (скажем, 3 раза), он реплицируется на 2 дополнительных копии на разных узлах данных (понимается о локальности данных). Вся эта информация блока (имя файла, имя блока и узлы данных, где они хранятся) хранится в ОЗУ на узле Name. Эта информация не сохраняется в FSImage.
Насколько я понимаю, что до сих пор?
Если я прав до сих пор, что делает FSImage на жестком диске (какой контент в нем)?
- Когда мы запускаем задание mapreduce для этого набора данных, программа драйвера разбивает блоки данных, хранящихся в datanodes, на несколько «разделов ввода» (размер настраивается в xml-файлах) , В этом случае, скажем, каждый входной бит составляет 128 МБ, тогда у нас есть 8 разделов ввода, и каждому расколу присваивается процесс Mapper.
Правильно ли я понимаю?
спасибо много вид касается натх
Большое вам спасибо за ответ –
@basamnath, если это полезно, отметьте ответ как принято – 54l3d
Я пробовал. но он говорит, что у меня недостаточно репутации. –