Привет Я новичок в Hadoop и это FileSystem. Я видел два разных примера WordCount, используя JobConf
и Configuration
. В чем разница.JobConf v/s Конфигурация для Hadoop 1.0.4
Я изучил, что JobConf
был частью старого пакета org.apache.hadoop.mapred
(который устарел в 0.20.x), но Конфигурация является частью нового пакета org.apache.hadoop.mapreduce
. Но теперь в версии 1.0.4 он устарел.
В настоящее время у нас есть два способа запустить работу по сокращению карты в java, один - с использованием (расширения) классов в пакете org.apache.hadoop.mapreduce
, а другой - путем реализации классов в пакете org.apache.hadoop.mapred
.
Я хочу знать:
В чем разница между
mapred
иmapreduce
пакет структуры и почемуmapred
является не-устаревшим?Какой подход лучше использовать для v1.0.4 и почему?
JobConf
илиConfiguration
?Что лучше для v1.0.4?
mapred
илиmapreduce
?
Возможный дубликат [лучше использовать картуд или пакет mapreduce для создания задания Hadoop?] (Http://stackoverflow.com/questions/7598422/is-it-better-to-use-the- mapred-or-the-mapreduce-package-to-create-a-hadoop-job) –
Я прочитал этот ответ. Этот подход был для v0.20 и v0.21/22. Но здесь я спрашиваю о версии 1.0.4. Не связывайтесь с этим. И не принимайте никакого решения до полного понимания. –
1.0 - это не что иное, как версия от 0.20 до 0.22. Смотрите это как полированная версия 20.x. Вы должны искать существующие ответы перед добавлением нового вопроса, не говоря уже об исследовании нумерации версий. –