Я хотел попробовать гео-репликацию glusterfs в некоторых виртуальных боксах на моем компьютере для последующего использования, распределенного на нескольких сайтах.glusterfs Не удалось прочитать файл состояния gsyncd
Я установил GlusterFS 3.6 на Ubuntu серверах 32-битных, как это:
add-apt-repository -y ppa:gluster/glusterfs-3.6
apt-get update -qq
apt-get install glusterfs-server -y
В /etc/hosts
на каждом VirtualBox является запись, как это так, что я могу использовать имена хостов:
192.168.1.1 ivymaster.com
192.168.1.2 ivyslave2.com
192.168.1.3 ivyslave1.com
Первые я создал и startet объем на главном (force
для создания на rootfs):
gluster volume create master ivymaster.com:/var/glustermaster/ force
gluster volume start master
Прекрасно работает. Я устанавливаю вход без пароля для входа в систему с помощью ssh-copy-id
и регистрируется один раз вручную, чтобы проверить, правильно ли он настроен, и хост хранится в known_hosts
.
Мне не удалось установить синхронизацию в каталог, как описано в Geo-Replication Terminology - Understanding the URI. Не удалось создать георепликацию с проблемой URI.
gluster volume geo-replication master ivyslave2.com:/var/slave2 start
Staging failed on localhost. Please check the log file for more details.
Logfile содержит записи, как Invalid slave name
, Unable to store slave volume name
, Unable to fetch slave or confpath details
.
При создании тома на ivyslave2.com
и создать гео-репликации с использованием этого объема, это работает:
gluster volume geo-replication master ivyslave2.com::slave2 create push-pem force
Creating geo-replication session between master & ivyslave2.com::slave2 has been successful
К сожалению, gluster volume geo-replication master ivyslave2.com::slave2 status
ВОФК, что статус репликации неисправен.
MASTER NODE MASTER VOL MASTER BRICK SLAVE STATUS CHECKPOINT STATUS CRAWL STATUS
--------------------------------------------------------------------------------------------------------------------------------
ivyVirtMaster master /var/glusterfs_master_nv ivyslave2.com::slave2 faulty N/A N/A
После выполнения этой команды, файл_журнал на мастер содержит Using passed config template(/var/lib/glusterd/geo-replication/master_ivyslave2.com_slave2/gsyncd.conf).
, Unable to read gsyncd status file
, Unable to read the statusfile for /var/glusterfs_master_nv brick for master(master), ivyslave2.com::slave2(slave) session
.
Файл журнала в ведомом состоянии содержит Received status volume req for volume slave2
, tune2fs exited with non-zero exit status
, failed to get inode size
.
Является ли этот объем на ведомом неисправным? Как можно настроить георепликацию без тома? Что-то не так в конфигурации гео-репликации?