1

У меня есть контейнерный кластер, работающий за балансировщиком нагрузки на GKE. Он работает хорошо, но я иногда получаю 502 ошибки при попытке доступа к страницам. Журналы показывают следующее:Google Load Balancer возвращает 502

{ 
metadata: 
{ 
severity: 
"WARNING" 
projectId: 
"###" 
serviceName: 
"network.googleapis.com" 
zone: 
"global" 
labels: 
{…} 
timestamp: 
"2016-04-28T16:35:46.864379896Z" 
projectNumber: 
"###" 
} 
insertId: 
"2016-04-28|09:35:47.696726-07|10.94.35.131|1729057675" 
log: 
"requests" 
httpRequest: 
{ 
requestMethod: 
"GET" 
requestUrl: 
"https://###/user/view/111" 
requestSize: 
"2089" 
status: 
502 
responseSize: 
"362" 
userAgent: 
"Mozilla/5.0 (X11; Linux x86_64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/50.0.2661.86 Safari/537.36" 
remoteIp: 
"###" 
referer: 
"###" 
} 
} 

Когда я просматриваю журналы доступа из моих контейнеров, я не вижу каких-либо запросов соответствия ударяя их в моменты, что 502 ошибок генерируются. Похоже, что они не проходят мимо балансировки нагрузки.

Неужели кто-нибудь испытал эту проблему с балансирами нагрузки? Любое рекомендуемое решение? Благодарю.

+0

Я должен добавить, что все мои экземпляры показываются здоровыми и имеют <20% -ный процессор. – user3113357

+0

Можете ли вы добавить дополнительную информацию о конфигурации ваших контейнеров и балансировщике нагрузки? –

+0

Есть ли какая-то конкретная информация, которая поможет? Я запускаю два контейнера, обслуживающих приложение python через uwsgi. Контейнеры экспонируются через NodePort. Каждый контейнер запускает 4 процесса uwsgi. Балансировщик нагрузки отправляет весь трафик, за исключением запросов на/static/в эти контейнеры. – user3113357

ответ

1

Ошибка 502 предполагает, что балансировщики нагрузки отправляют трафик, но не получают ответы. Возможно ли, что ваши конечные точки сообщают о здоровом состоянии, но некоторые контейнеры не готовы служить?

1

Возможно, вы захотите переехать в другой регион или зону. У меня была аналогичная проблема с запросами, поступающими из Северной и Южной Америки, в то время как запросы от ЕС/Азии были успешными. Это заставило меня подумать, что это была проблема с базовым сервисом в нас - центральным, поэтому я перешел от нас - central1-c к нам - на восток, и после этого все было в порядке.

Смежные вопросы