2013-05-29 2 views
-1

Я читал, что Mahout разработан на Hadoop, и мы можем использовать Mahout с Hadoop или без него. Что это значит, говоря, что алгоритмы Mahout можно запускать на Hadoop? Алгоритмы Mahout не написаны в форме Map-Reduce правильно? Не могли бы вы объяснить мне пример?Что означает Махут, построенный на Hadoop?

Спасибо!

ответ

3

Вы посмотрели исходный код? Алгоритмы реализованы как Map/Reduce jobs (не все, но многое из них), и именно поэтому это утверждение сделано.

+0

Я прошел через код GenericUserBasedRecommender и понял, что он не в форме Map-Reduce, означает ли это, что он не реализован на Hadoop? –

+0

В этом случае я могу понять, что GenericUserBasedRecommender - это нормальный Java-код, который я могу преобразовать в код Map-Reduce и запускать на Hadoop. Пожалуйста, дайте мне знать, правильно ли я понимаю. –

+0

Есть также версии на основе Hadoop. Вы можете писать все, что хотите –

0

Mahout имеет две версии, не распределенные и распределенные. Существуют некоторые базовые распределенные (Hadoop) имплантации, доступные как Collaborative Filtering для ItemBased. Ограничение по умолчанию распространяется на то, что если ваши данные рейтинга имеют идентификатор пользователя и идентификатор элемента как буквенно-цифровой, вам необходимо будет его настроить.

Если вы хотите реализовать какой-то пользовательский алгоритм, вам придется писать Mapper и Reducers и даже код для их вызова.

У меня есть overriden org.apache.mahout.cf.taste.hadoop.item.RecommenderJob для использования моей пользовательской карты и сокращения задач.

Пожалуйста, ребята исправьте меня, если я ошибаюсь.

Смежные вопросы