Предположим, у меня есть 3 файла, которые я хочу сохранить в HDFS, и вы хотите их прочитать через MapReduce.Блоки и мапперы на основе размера файла
Итак, есть 3 файлов внутри места HDFS /omega/usecase/input
в file1.txt, file2.txt, file3.txt
Размер этих 3 файлов file1.txt(64MB),file2.txt(32MB),file3.txt(1MB)
позволяет также предположить, что размер блока по умолчанию является 64MB и фактор репликации 3
Я хотел бы знать, сколько блоков будет для этих 3 файлов и сколько картостроителей будут выполнены, если я пишу программу MapReduce, которая будет читать входной реж /omega/usecase/input
Возможный дубликат [Малые файлы и блоки HDFS] (http://stackoverflow.com/questions/8562934/small-files-and-hdfs-blocks) – vanekjar
Итак, ответ должен быть 3 Mappers? это верно? –