2015-04-21 1 views
0

Я понимаю, что диспетчер ресурсов отправляет программу MapReduce каждому менеджеру узлов, чтобы MapReduce выполнялся в каждом узле.Выполняет ли выполнение этапа Map и Reduce внутри каждого DataNode с помощью Node Manager?

Но увидев это изображение, я смущаюсь, где выполняется фактический Map & Reduce jobs и как происходит перетасовка между узлами данных?

Не требуется ли время для сортировки и передачи/передачи данных по разности. Узел данных для выполнения Reduce Job? Пожалуйста, объясните мне.

Также дайте мне знать, что такое Map Node и Reduce Node на этой схеме. Image Src: http://gppd-wiki.inf.ufrgs.br/index.php/MapReduce

enter image description here

+0

Заканчивать это [ссылка] (http://stackoverflow.com/questions/22141631/what-is-the-purpose-of-shuffling-and-sorting-phase- in-the-reducer-in-map-reduce) – laurentgir

+0

@oftata: эта ссылка объясняет уменьшение карты. Но я спросил, где происходит сокращение карты? – logan

+1

Согласен, но в ответе на учебник Yahoo есть ссылка, которая отвечает на ваш вопрос. – laurentgir

ответ

2

вход разделить логическая фрагмент файла, хранящегося на HDFS, по умолчанию вход сплит представляет собой блок файла где блоки файла может быть сохранен на многих узлах данных в кластере.

A container - это шаблон выполнения задачи, назначенный диспетчером ресурсов на любом узле данных для выполнения задач Map/Reduce.

Сначала Карта задач запускается на выполнение контейнерами на узле данных, где контейнер был выделенных менеджером ресурсов как можно ближе к месту расположения Input Сплита, придерживаясь политики Awareness Rack (Local/Rack Local/DC Local).

Задачи Уменьшить Задачи будут выполняться любыми случайными контейнерами на любых узлах данных, а редукторы будут копировать соответствующие данные от каждого преобразователя процессом Shuffle/Sort.

Мапперы подготавливают результаты таким образом, что результаты внутренне разделены и внутри каждого раздела записи сортируются по ключу, а секционист определяет, какой редуктор должен извлекать секционированные данные.

По случайном порядке и сортировки, копии Редукторы их соответствующие разделы из каждой Картостроители выхода через HTTP, в конце концов, каждый редуктор Merge & Сортировать скопированные разделы и подготавливает окончательный единый отсортированный файл перед методом уменьшения() вызывается.

Изображение ниже может дать больше разъяснений. [IMAGESRC: http://www.ibm.com/developerworks/cloud/library/cl-openstack-deployhadoop/]

enter image description here

+0

спасибо. но вы предоставили Hadoop V1.0 Architecture. У V2.0 нет рабочих заданий и контрольных задач – logan

+0

да, вы правы ... Я надеюсь, что это поможет вам разобраться в потоке тасования/сортировки между картографом и редуктором ... – sureshsiva

Смежные вопросы