Наш узел Cloudera Manager (4.7) на производстве вышел из строя, поэтому мы установили новую ОС на этом узле. Мы пытаемся восстановить Cloudera Manager из резервных копий, которые мы имеем (встроенный) postgresql db. Мы надеемся, что с помощью восстановленной базы данных CM может управлять существующим кластером с существующими конфигурациями.CDH4 Restore Cloudera Manager для существующего кластера
Мы делаем несколько POC, в которых мы пытаемся перенести диспетчер cloudera на новый сервер с шагами, описанными ниже. (В конце концов, мы установим СМ на одном узле)
- установить Cloudera-сервер-демон Cloudera-сервер
- установить Cloudera-сервер-DB
- Судо службу Cloudera-сервер БД запуск => это создает основные роли; восстанавливает пароли и т. д.
- поэтому из нашего pg_dumpall foo.sql мы удалили начальные операторы, которые создали роли и пароли и базу данных.
pql -U cloudera-scm -h localhost -p 7432 -f foo.sql postgres
. Это успешно завершено. - На каждом из узлов кластера измените /etc/cloudera-scm-agent/config.ini, чтобы указать на новый узел
- sudo service cloudera-server start. => мы ожидали, что CM подберет конфиги и просто загрузит. Однако нам нужна страница установщика
- Установите бесплатную версию. Либо поиск ips, либо мы видим, что хосты доступны.
- Затем он обновляет пакеты cdh на каждом узле кластера и просит нас установить службы.
- После этого процесс немного неясен. Однако нам удалось назначить роли соответствующим узлам, например. HDFS с использованием того же корневого каталога, что он не был отформатирован, и все выглядит нормально. Однако вся наша конфигурация отсутствует. Это, по-видимому, свидетельствует о том, что КМ не считывал восстановленную БД.
Вышеуказанные шаги, похоже, не являются правильным способом восстановления состояния диспетчера cloudera. Этот Reference, возможно, содержит простой способ сделать это. Следуя шагам, указанным в ссылке, мы по-прежнему не можем заставить CM читать восстановленную БД. Может кто-нибудь указать на правильные шаги, пожалуйста? Любая помощь приветствуется.