2012-06-12 4 views
3

У нас есть много m1.medium/больших экземпляров, работающих в ec2. Как правило, эти машины наилучшим образом соответствуют нашим требованиям bang/buck-wize. Тем не менее, мы получаем некоторую действительно ужасную пропускную способность между узлами. Немного копания показывает, что эти узлы находятся в разных подсетях и, возможно, в разных центрах обработки данных.Расположение экземпляров EC2

Чтобы получить большую пропускную способность, я хотел бы попробовать получить EC2, чтобы сблизить эти узлы (network-wize), если это вообще возможно. Наша топология выглядит следующим образом:

  • «сервер» узел хостинг некоторые центральные сохраненные данные на EBS, NFS на экспорт, всегда. m1.large.
  • Пара первичных рабочих узлов, которые находятся на 80% времени. m1-large
  • 0-50 Ведомые узлы, которые работают только на несколько часов за раз. обычно это m1.smalls или m1.medium, но при необходимости может быть m1.large.

Подчиненные узлы монтируют экспортированные приводы NFS.

Очевидно, что если ведомые устройства будут развернуты вдали от сервера, мы получим ужасную пропускную способность.

Мне известны группы мест размещения, однако для них, похоже, требуются гораздо более дорогие типы экземпляров и совершенно другая технология визуализации, а также возможность того, что, когда нам нужно 40 дополнительных узлов, в нашей группе размещения нет места для них.

Это значительно увеличит наши затраты и уменьшит нашу гибкость.

Любые предложения?

ответ

2

Вы должны запускать экземпляры и группы размещения в одной и той же зоне доступности:

http://docs.amazonwebservices.com/AWSEC2/latest/UserGuide/using-regions-availability-zones.html

Наличие зон может быть выбран, когда экземпляр запускается или создается группа размещения (ec2 создать-таргетингом группа). Зоны обычно представляют собой A, B, C или No Preference (по умолчанию - случайные).

Узлы в той же зоне доступности подключены к одной сети 10 Гбит/с - это лучше, чем пропускная способность на твердотельном накопителе, работающем на интерфейсе SATA3 - 6 Гбит/с.

Различные зоны расположены в том же регионе (например, на северо-востоке США), но, как правило, на достаточном расстоянии от них, чтобы обеспечить реализацию аварийного восстановления. Они определенно находятся в разных центрах обработки данных и, вероятно, находятся в разных государствах в том же регионе, например в Северо-Восточной США. Amazon не публикует фактические местоположения.

Обратите внимание, что не существует способа указать зону доступности для создания группы мест размещения через консоль управления AWS - вам, вероятно, потребуется использовать API.

http://docs.amazonwebservices.com/AWSEC2/latest/CommandLineReference/ApiReference-cmd-CreatePlacementGroup.html

Я видел целые зоны доступности идут вниз на EC2 несколько раз - так что если вы собираетесь переместить всю инфраструктуру в ту же зону доступности вы кладете приложения в опасности, вы требуется какое-то аварийное восстановление или отказоустойчивая реализация между двумя зонами.

Надеюсь, это поможет.

+0

На самом деле у меня есть все узлы, которые уже работают в одном AZ (us-east-1d). Я все еще вижу довольно длинные пинговые времена между узлами. – clh

+0

Я знаю, что могу использовать группы мест размещения, для этого потребуются новые изображения и использование более дорогих типов экземпляров. Мне было интересно, существует ли какое-то решение между AZ и PG. a «пожалуйста, возьмите это на той же стойке, если это вообще возможно». – clh

+0

Что такое длительный пинг? – reach4thelasers

Смежные вопросы