Как настроить автомасштабирование AWS для быстрого масштабирования? Я настроил группу автомасштабирования AWS с ELB. Все работает хорошо, за исключением нескольких минут до того, как новые экземпляры будут добавлены и будут в сети. Я наткнулся на следующее в посте про кукольный и автомасштабирования:Быстрое автомасштабирование AWS
время масштабирования может быть снижена от нескольких минут до нескольких секунд, если AMI используется для группы узлов уже в актуальном состоянии.
http://puppetlabs.com/blog/rapid-scaling-with-auto-generated-amis-using-puppet/
ли это? Можно ли сократить время до масштаба до нескольких секунд? Может ли использование марионетки повысить производительность?
Я также прочитал, что меньшие экземпляры начать быстрее, чем крупные:
Малый экземпляра 1,7 Гб памяти, 1 ЕС2 Вычислительный блок (1 виртуальное ядро с 1 EC2 Compute Unit), 160 ГБ например, 32-битная платформа с базой устанавливает CentOS 5.3 AMI
Количества времени запуска экземпляра в наличие: Между 5 и 6 минут нас-восток-1c
Large Instance 7,5 Гб оперативной памяти, 4 EC2 Вычислительные единицы (2 виртуальных ядра с 2 вычислениями EC2 Единицы каждая), 850 Гб памяти экземпляра, 64-битная платформа с базой устанавливает CentOS 5.3 AMI
Количества времени запуска экземпляра в наличие:
Между 11 и 18 минут мы-восток-1cОба были запущены через командную строку с использованием инструментов Amazons.
http://www.philchen.com/2009/04/21/how-long-does-it-take-to-launch-an-amazon-ec2-instance
Хочу отметить, что статья старая и мои экземпляры c1.xlarge, конечно, не принимать 18мин для запуска. Тем не менее, будет ли конфигурация автомасштабируемой группы с 50 микро-экземплярами (с повышением масштаба 100% увеличения емкости) более эффективной, чем одна с 20 большими экземплярами? Или потенциально создание двух групп автомасштабирования, одного из микросов для быстрого запуска и одного из больших экземпляров для добавления CPU grunt через несколько минут? При прочих равных условиях, насколько быстрее работает t1.micro, чем c1.xlarge?