2015-12-10 2 views
2

С пониманием того, что Ubernetes разработан, чтобы полностью решить эту проблему, он в настоящее время возможно (не обязательно рекомендуется), чтобы охватить один K8/OpenShift кластер в нескольких внутренних корпоративных datacententers?Единый кластер Kubernetes/OpenShift/экземпляр через датацентры?

Кроме того, предполагается, что время между центрами обработки данных относительно невелико и что инфраструктура в корпоративных центрах обработки данных является относительно последовательной.

Пример: Учитывая 3 корпоративных DC, разверните 1 .. * мастеров в каждом центре обработки данных (как один кластер) и получите 1 .. * узлы в каждом DC с помощью pods/rc/services/..., которые будут развернуты все 3 DC.

Кто-то реализовал что-то вроде этого как решение для устранения пробелов до того, как Ubernetes упадет, и если да, то как это сработало и какие соображения будут приняты во внимание при запуске, как это?

ответ

6

это возможно в настоящее время (не обязательно рекомендуется), чтобы охватить одного K8/OpenShift кластер на нескольких внутренних корпоративных datacententers?

Да, в настоящее время возможно. Узлам присваивается адрес учетных данных apeeperver и client, а затем регистрируются в кластере. Узлы не знают (или не заботятся) о том, что apirusver является локальным или удаленным, а apirusver позволяет любому узлу регистрироваться до тех пор, пока он имеет действительные учетные данные, независимо от того, где узел существует в сети.

Кроме того, предполагая, что задержка между центрами обработки данных является относительно низкого и что инфраструктура через корпоративные центры обработки данных является относительно стабильного.

Это важно, поскольку многие из настроек в Kubernetes предполагают (неявно или явно) сеть с высокой пропускной способностью и низкой задержкой между apiserver и узлами.

Пример: Дано 3 корпоративных ДЦ, развертывание 1 .. * мастера на каждом центров обработки данных (как один кластер) и иметь 1 .. * узлы на каждом DC с стручки/РЦ/услуги/... будучи развернутым во всех 3 DC.

Недостатком этого подхода является то, что если у вас есть один глобальный кластер, у вас есть одна глобальная точка отказа. Даже если вы реплицировали, основные компоненты HA, повреждение данных может по-прежнему полностью отключить ваш кластер. И плохая конфигурация, распространяемая на все модули в контроллере репликации, может отключить всю службу в автономном режиме. Неправильный вывод изображения узла может отключить все ваши узлы. И так далее. Это одна из причин, по которой мы призываем людей использовать кластер на предмет отказа, а не один глобальный кластер.

+0

Кроме того, как всегда, у вас есть план сбоя для вашего кластера. Практика мастер-сценариев и т. Д. - так как ручное вмешательство в членство в etcd в случае сбоя может привести к раздробленному мозгу, убедитесь, что вы знакомы с процессом изменения членства в кластере и имеют хорошие процедуры резервного копирования и восстановления. – Clayton

Смежные вопросы