2013-05-13 2 views
0

Я получил все свои настройки правильно, и я могу запустить Hadoop (1.1.2) на одном узле. Однако после внесения изменений в соответствующие файлы (/ etc/hosts, * -site.xml) я не могу добавить в кластер Datanode, и я продолжаю получать следующую ошибку в Slave.Невозможно добавить datanode к Hadoop

Кто-нибудь знает, как исправить это?

2013-05-13 15:36:10,135 INFO org.apache.hadoop.ipc.Client: Retrying connect to server: localhost/127.0.0.1:54310. Already tried 3 time(s); retry policy is RetryUpToMaximumCountWithFixedSleep(maxRetries=10, sleepTime=1 SECONDS) 
2013-05-13 15:36:11,137 INFO org.apache.hadoop.ipc.Client: Retrying connect to server: localhost/127.0.0.1:54310. Already tried 4 time(s); retry policy is RetryUpToMaximumCountWithFixedSleep(maxRetries=10, sleepTime=1 SECONDS) 
2013-05-13 15:36:12,140 INFO org.apache.hadoop.ipc.Client: Retrying connect to server: localhost/127.0.0.1:54310. Already tried 5 time(s); retry policy is RetryUpToMaximumCountWithFixedSleep(maxRetries=10, sleepTime=1 SECONDS) 

ответ

0

Проверьте значение fs.default.name в файле конф ядро-site.xml (на каждом узле в кластере). Это должно быть сетевое имя узла имени, и я подозреваю, что у вас это как hdfs://localhost:54310).

В противном случае это чек на любое упоминание о локальном хосте в файлах конфигурации Hadoop на всех узлах кластера:

grep localhost $HADOOP_HOME/conf/*.xml 
0

попробовать relpacing Localhost с адресом внутрибрюшинно в NameNode или имя сети

Смежные вопросы