В нашем кластере Kuberenetes мы сталкиваемся с спорадическими ситуациями, когда у узла кластера заканчивается память, а Linux вызывает убийцу OOM. Глядя на журналы, кажется, что Pods, запланированные на узел, запрашивают больше памяти, чем могут быть выделены узлом.Как получить историю работы Pods на узле Kubernetes?
Проблема заключается в том, что при вызове OOM killer он распечатывает список процессов и их использование в памяти. Однако, поскольку все наши контейнеры Docker являются службами Java, «имя процесса» просто отображается как «java», не позволяя нам отслеживать, какой конкретный Pod вызывает проблемы.
Как я могу получить историю того, какие Pods планировалось запустить на определенном узле и когда?
Одним из способов было бы проверить ' kubectl get events' и получить представление о создании/удалении различных контейнеров на разных узлах. –