2015-07-14 2 views
1

После установки и настройки моего Hadoop 2.7.1 в псевдо-распределенном режиме все работает, как вы можете видеть вMapReduce работа не выполняется

~$ jps 
4825 Jps 
4345 NameNode 
4788 JobHistoryServer 
4496 ResourceManager 

Чем я побежал MapReduce пример

hadoop jar /usr/local/hadoop-2.7.1/share/hadoop/mapreduce/hadoop-mapreduce-examples-2.7.1.jar pi 2 10 

и выполнение frezees (?)

Number of Maps = 2 
Samples per Map = 10 
15/07/14 08:40:09 WARN util.NativeCodeLoader: Unable to load native-hadoop   library for your platform... using builtin-java classes where applicable 
Wrote input for Map #0 
Wrote input for Map #1 
Starting Job 
15/07/14 08:40:13 INFO client.RMProxy: Connecting to ResourceManager at master/10.0.0.4:8032 
15/07/14 08:40:15 INFO input.FileInputFormat: Total input paths to process : 2 
15/07/14 08:40:15 INFO mapreduce.JobSubmitter: number of splits:2 
15/07/14 08:40:16 INFO mapreduce.JobSubmitter: Submitting tokens for job: job_1436860512406_0002 
15/07/14 08:40:17 INFO impl.YarnClientImpl: Submitted application application_1436860512406_0002 
15/07/14 08:40:17 INFO mapreduce.Job: The url to track the job: http://master:8088/proxy/application_1436860512406_0002/ 
15/07/14 08:40:17 INFO mapreduce.Job: Running job: job_1436860512406_0002 

Через 2 часа он показывает тот же ..

пожалуйста, дайте любую идею ..

Благодаря

ответ

2

Здесь я могу видеть, когда вы выполняете команду jps

~$ jps 
4825 Jps 
4345 NameNode 
4788 JobHistoryServer 
4496 ResourceManager 

он не показывает свой data-node. Означает, что ваш узел данных не работает. Вам нужно отформатировать его и начать заново.

У меня была такая же проблема на моем сервере. Эти шаги, которые я последовавшие является:

  1. stop-all.sh
  2. hadoop namenode -format
  3. hadoop datanode -format
  4. Перейти к фактической директории, где ваши HDFS NameNode и DataNode расположены. Удалить все файлы, используя sudo rm -rf *
  5. Удалить файлы из каталога tmp, например. app/hadoop/tmp/
  6. Старт Hadoop с использованием start-all.sh
  7. Проверьте, все ли работает или не используя JPS
0

набор yarn.nodemanager.resource.memory-mb и yarn.nodemanager.resource.cpu-vcores в конфигурации пряжи немного выше, номер и он должен быть решен.

Дополнительная информация о cloudera here

Смежные вопросы