Я ищу, чтобы использовать API для изменения количества экземпляров веб-заданий, которые у меня работают на основе размера обработки Q, я знаю, что могу настроить правила на портале но минимальное время агрегации составляет 60 минут, и я не хочу, чтобы система ожидала 60 минут, прежде чем увеличивать масштаб, если мы внезапно получим всплеск работы.Azure Web Job - масштабирование убивает существующую веб-работу
Проблема у меня в том, что в настоящее время, если я масштабируюся на портале вручную, скажем от 1 до 5 экземпляров, он убивает одноразовый экземпляр, а затем запускает 5 новых.
Я предполагаю, что если бы я сделал это через API, то случится то же самое, знаете ли вы, есть ли способ избежать этого?
Благодаря
Si
UPDATE: Ниже я представил 4 рабочих мест, а затем как первый обрабатывал я масштабироваться от 1 до 3 случаев, и это то, что произошло, на работу, Никогда не закончил, затем повторите попытку после того, как закончились следующие 3, так как это сообщение вернулось бы в очередь, потому что обработка была неудачной изначально.
Я знаю, что это не прямой ответ на ваш вопрос, но вы можете посмотреть на функции Azure. – 4c74356b41
@ 4c74356b41 привет, я просто посмотрел на функции, но работа в сети довольно тяжелая, и я подозреваю, что ограничение памяти на 1,5 ГБ может помешать преобразованию приложения в функцию. Проблема в том, что я не уверен, какой параметр памяти в свойствах для webjob является тем, что нужно рассмотреть, см. Обновление выше для сведений о памяти. – Simon
Я считаю, что рабочий набор - это то, что вам нужно посмотреть, виртуальная память - это файл страницы? но это данные для каждого экземпляра? если вы масштабируете почти мгновенно (например, лазурные функции), вы не можете распределить нагрузку? – 4c74356b41