2011-12-14 4 views
7
[email protected]:/usr/local/hadoop$ bin/hadoop dfs -copyFromLocal /tmp/input 
/user/haduser/input 

11/12/14 14:21:00 INFO ipc.Client: Retrying connect to server: localhost/127.0.0.1:54310. Already tried 0 time(s). 

11/12/14 14:21:01 INFO ipc.Client: Retrying connect to server: localhost/127.0.0.1:54310. Already tried 1 time(s). 

11/12/14 14:21:02 INFO ipc.Client: Retrying connect to server: localhost/127.0.0.1:54310. Already tried 2 time(s). 

11/12/14 14:21:03 INFO ipc.Client: Retrying connect to server: localhost/127.0.0.1:54310. Already tried 3 time(s). 

11/12/14 14:21:04 INFO ipc.Client: Retrying connect to server: localhost/127.0.0.1:54310. Already tried 4 time(s). 

11/12/14 14:21:05 INFO ipc.Client: Retrying connect to server: localhost/127.0.0.1:54310. Already tried 5 time(s). 

11/12/14 14:21:06 INFO ipc.Client: Retrying connect to server: localhost/127.0.0.1:54310. Already tried 6 time(s). 

11/12/14 14:21:07 INFO ipc.Client: Retrying connect to server: localhost/127.0.0.1:54310. -Already tried 7 time(s). 

11/12/14 14:21:08 INFO ipc.Client: Retrying connect to server: localhost/127.0.0.1:54310. Already tried 8 time(s). 

11/12/14 14:21:09 INFO ipc.Client: Retrying connect to server: localhost/127.0.0.1:54310. Already tried 9 time(s). 

Bad connection to FS. command aborted. exception: Call to localhost/127.0.0.1:54310 failed on connection exception: java.net.ConnectException: Connection refused 

Я получаю выше ошибки, когда я пытаюсь скопировать файлы из /tmp/input в /user/haduser/input, даже если файл /etc/hosts содержит запись для локального хоста. При запуске jps commandTaskTracker и namenode не указаны.Ошибки при запуске Hadoop

В чем может быть проблема? Пожалуйста, помогите мне с этим.

ответ

1

NameNode (NN) поддерживает пространство имен для HDFS и должно работать для работы файловой системы на HDFS. Проверьте журналы, почему NN не запущен. TaskTracker не требуется для операций с HDFS, достаточно только NN и DN. Ознакомьтесь с учебниками http://goo.gl/8ogSk и http://goo.gl/NIWoK о том, как настроить Hadoop на одном и нескольких узлах.

+0

Я выполнил ту же ссылку для установки. Но все еще получаю ошибки. –

+0

ok - проверьте журналы, почему NN не запущен. –

+0

Мне не удалось отформатировать namenode с помощью команды $ bin/hadoop namenode -format. Это причина, почему наменода не начинается? –

1

Все файлы в бункере являются exectuables. Просто скопируйте команду и вставьте ее в терминал. Убедитесь, что адрес прав, т. Е. Пользователь должен быть заменен чем-то. Это сделало бы трюк.

9

У меня были подобные проблемы - на самом деле Hadoop был привязан к IPv6. Затем я добавил - «export HADOOP_OPTS=-Djava.net.preferIPv4Stack=true» на $HADOOP_HOME/conf/hadoop-env.sh

Hadoop был привязан к IPv6, даже когда я отключил IPv6 в своей системе. Как только я добавил его в env, начал нормально работать.

Надеюсь, это поможет кому-то.

3

Попробуйте сделать SSH к вашей локальной системе, используя IP-адрес, в этом случае:

$ SSH 127.0.0.1

После того, как вы можете сделать SSH успешно. Выполните следующую команду, чтобы узнать список открытых портов

~ $ Lsof -i

искать разъем для прослушивания с именем: локального хоста: < PORTNAME> (Listen)

< копию этого PORTNAME> и замените существующее значение номера порта в теге свойства fs.default.name в вашем файле core-site.xml в папке hadoop conf

Сохраните файл core-site.xml, это должно устранить проблему.

Смежные вопросы