Azure Cloud Services имеет автомасштабирование на основе CPU/Queue. У нас есть набор машин, на которых запущен API для загрузки и обработки файлов. Хотя мы переместили часть обработки на роль рабочего, которая масштабируется в зависимости от размера очереди, серверов, но также заботится о загрузке, отвечая на другие операции, такие как загрузка.Как построить автоматическое масштабирование Azure Cloud Service на основе использования сети?
В настоящее время мы используем больше машин для сценария на каждом конкретном случае, но мы хотим создать способ масштабирования и быть экономичным, имея большой опыт загрузки для наших пользователей.
Каким будет ваш подход для создания способа обнаружения использования сети на всех компьютерах из одной и той же Облачной службы и автоматического масштабирования, если необходимо?
Спасибо за быстрый ответ. Что касается дизайна, загрузка не оказывает давления на серверы. Это делается от Azure Storage/CDN. Облачная служба разрешает и генерирует URL-адрес. Облачная служба обрабатывает блочные загрузки. 1 - Скорость загрузки всегда зависит от клиента. Может быть Мбит/с, может быть скорость Кбит/с. 2 - Какой упорный слой? Memcache? Мы иногда думали, если это правильный подход к загрузке блоков, но поскольку для этого нужны проверки с сервера, похоже, у нас нет другого пути. –
Добро пожаловать. :) Ваш вопрос состоял в том, как автоматически масштабировать использование сети, вы можете использовать мониторинг производительности с компьютеров для сбора этих показателей и применять описанный выше подход. Кроме того, есть ли причина, по которой вы загружаетесь через Cloud Service? Какие проверки проводятся? Мы поддерживаем CORS на Storage, поэтому в сочетании с SAS вы можете безопасно загружать blob и обрабатывать его асинхронно в облачном сервисе после завершения загрузки. Это позволит сэкономить пропускную способность и все проблемы, с которыми вы сейчас сталкиваетесь. –