Мы пробуем тестовую установку с версией Kubernetes версии 1.0.6 на AWS.Kubernetes pods (некоторые) умирают после работы в течение дня
Эта настройка включает в себя стручки для Cassandra (2-х узлов), Spark (master, 2-worker, driver), RabbitMQ (1-node). Некоторые стручки этой установки умирают через день или около того
Есть ли способ получить журналы от Кубернеса о том, как/почему они умерли?
Когда вы пытаетесь перезапустить спрятанные стручки вручную, вы получаете статус некоторых элементов, поскольку категория «/ искровой рабочий готова, контейнер создает», и начало сборки никогда не завершается.
Только вариант в сценарии - «kube-down.sh, а затем kube-up.sh» и проходит всю установку с нуля.
Вы управляете стручками напрямую или находятся под контроллером репликации? Вы указываете ограничения ресурсов для стручков? Взгляните на '/ var/log/kubelet.log' на узле, где был запущен блок, чтобы узнать, говорит ли он что-нибудь интересное. –
Те, кто умер, запускаются напрямую, поскольку они представляют собой 1 тип экземпляра (например, мастер, драйвер) и не могут выполняться под контроллером репликации. Все вышеперечисленные 8-стручки работают с CPU = «100cpu» (0,10%) на «3-машинах с 2 ядрами каждый» кластер kubernetes –
Всегда ли такие же стручки, которые умирают через 1 день? Вы посмотрели в файле журнала кубе, чтобы узнать, почему они потерпели неудачу? –