2016-10-11 2 views
0

Я пытаюсь настроить кластер из нескольких узлов. У меня есть 3 машины, один из которых действует как namenode и datanode, а два других - как datanode. У меня разные имена пользователей для всех машин, у node1 есть имя пользователя hdfsadmin, node2 имеет имя пользователя hduser, а узел 3 также имеет имя пользователя hduser. Проблема в том, что Hadoop выдает сообщение об ошибке отказа, когда я пытаюсь подключиться к datanode, так как он ожидает того же имени для datanodes, что и имя, которое отличается в моем случае. Как я могу это решить?Конфигурирование кластера Hadoop с несколькими режимами

Заранее спасибо

+0

может у поделиться точные журналы? – cody123

+0

Вы настроили пароль ssh между этими узлами и пользователями.? – BruceWayne

+0

Да, я настроил его, но для ssh между двумя машинами вам также нужно указать имена пользователей, например. ssh hostname будет принимать имя хоста, на котором вы в настоящее время вошли в систему, для того чтобы ssh на другой машине с другим именем пользователя, нам нужно было бы запустить ssh username @ hostname, и в этом проблема. – StarLord

ответ

0

Нет, его не надо иметь такое же имя хоста для всех узлов. Перекрестная проверка:

1) Убедитесь, что вы можете использовать другой узел.

2) Убедитесь, что все имена хостов указаны в файле/etc/hosts с IP-адресом.

hadoopmnmaster 192.168.56.11 
hadoopmnslave1 192.168.56.12 
hadoopmnslave2 192.168.56.13 
hadoopmnslave3 192.168.56.14 

3) Сделать запись на ведущие/подчиненные узлы в файле master/slave в каталоге conf.

4) Убедитесь, что демоны работают на каждом узле.

Если все выше соответствует значению, то ваш кластер должен работать нормально.

+0

Я говорю о имени пользователя, а не имени хоста. – StarLord

0

Вы должны обновить каждый из ключа SSH «SSH-серийник -R имя пользователя» будет обновлять все ключи SSH и и будет разрешен доступ к

Смежные вопросы