Size: a a a

Kubernetes — русскоговорящее сообщество

2020 October 02

ДС

Дмитрий Стрельников... in Kubernetes — русскоговорящее сообщество
Может такое быть при, например рассинхроне etcd на мультимастере?
источник

i

inqfen in Kubernetes — русскоговорящее сообщество
Разве что в etcd некоторое дерьмо случилось
источник

VY

Victor Yagofarov (Na... in Kubernetes — русскоговорящее сообщество
Дмитрий Стрельников
Ребят, всем салют.
Кто-то сталкивался с таким поведением кубера, что в неймспейсе все поды лежат со статусом Init:CrashLoopBackOff, а в деплойментах при этом отображается, что поды живы и здоровы И при этом ингресс говорит, что приложения живут и здравствуют.
ЗЫ доступа к одминке нету, к сожалению.
Похоже на кошмар человека, у которого тормозит контрол плейн , а к нему нет доступа и он об этом не знает.

у меня нечто подобное было вчера на тормозящем кластере для тестирования нововведений ))

также это могут быть тормоза и кубелета на ноде, и kube-proxy, и чего угодно )
источник

ДС

Дмитрий Стрельников... in Kubernetes — русскоговорящее сообщество
Victor Yagofarov (Nas_tradamus)
Похоже на кошмар человека, у которого тормозит контрол плейн , а к нему нет доступа и он об этом не знает.

у меня нечто подобное было вчера на тормозящем кластере для тестирования нововведений ))

также это могут быть тормоза и кубелета на ноде, и kube-proxy, и чего угодно )
печаль, грусть, тлен.
источник

D

Dmitry in Kubernetes — русскоговорящее сообщество
Коллеги, подскажитте, как посмотреть стату поды по количеству выжираемых ей ресурсов на дистанции в несколько дней, есть же встроенный инструмент для этого?
источник

И

Ильдар in Kubernetes — русскоговорящее сообщество
Фикпойми1
источник

ДС

Дмитрий Стрельников... in Kubernetes — русскоговорящее сообщество
Dmitry
Коллеги, подскажитте, как посмотреть стату поды по количеству выжираемых ей ресурсов на дистанции в несколько дней, есть же встроенный инструмент для этого?
поставь прометеус-оператор хелмчартом. Всё сразу красиво в графане
источник

D

Dmitry in Kubernetes — русскоговорящее сообщество
Дмитрий Стрельников
поставь прометеус-оператор хелмчартом. Всё сразу красиво в графане
Да поздно пить боржоми, надо изучить поведение под в прошлом и порезать ресурсы там, где есть излишек, а до мониторинга руки не доходили
источник

ВЕ

Вячеслав Ефимов... in Kubernetes — русскоговорящее сообщество
Подскажите как в helm3 сделать рестарт подов при изменении secret файла или конфигмапа?
При helm upgrade
источник

VI

Vladimir Ivanov in Kubernetes — русскоговорящее сообщество
Вячеслав Ефимов
Подскажите как в helm3 сделать рестарт подов при изменении secret файла или конфигмапа?
При helm upgrade
сикрет или конфигмап в самом чарте? тогда нужно взять checksum сикрет или конфигмап файла и засунуть это аннотацией в теплейт деплоймента
источник

ВЕ

Вячеслав Ефимов... in Kubernetes — русскоговорящее сообщество
Vladimir Ivanov
сикрет или конфигмап в самом чарте? тогда нужно взять checksum сикрет или конфигмап файла и засунуть это аннотацией в теплейт деплоймента
да, в чарте, понял спасибо
источник

VI

Vladimir Ivanov in Kubernetes — русскоговорящее сообщество
template:
   metadata:
   …
     annotations:
       checksum/config: {{ include (print $.Template.BasePath "/configmap.yaml") . | sha256sum }}


примерно так
источник

ВЕ

Вячеслав Ефимов... in Kubernetes — русскоговорящее сообщество
спасибо еще раз, заработало
источник

VY

Victor Yagofarov (Na... in Kubernetes — русскоговорящее сообщество
Дмитрий Стрельников
печаль, грусть, тлен.
ну обычно помогает замониторить троттлинг подов обычно + цпу и диск самой виртуалки/железки
источник

LB

Let Eat Bee in Kubernetes — русскоговорящее сообщество
WTF. Подтвердите/опровергните плиз.

Есть deployment, rolling upgrade strategy, запускает под с репликой 1. Обновляем deployment , новый под не стартует (сrash loop backoff).

Имеем два пода: старый Running, новый crash loop.

Пока всё ожидаемо. Теперь, старый под умирает. WTF момент - его никто не рестартует! Остаемся с одним новым нерабочим подом.
источник

k

kvaps in Kubernetes — русскоговорящее сообщество
Let Eat Bee
WTF. Подтвердите/опровергните плиз.

Есть deployment, rolling upgrade strategy, запускает под с репликой 1. Обновляем deployment , новый под не стартует (сrash loop backoff).

Имеем два пода: старый Running, новый crash loop.

Пока всё ожидаемо. Теперь, старый под умирает. WTF момент - его никто не рестартует! Остаемся с одним новым нерабочим подом.
с rolling upgrade strategy должно быть два активных replicaset на момент пока новый не заработает
источник

LB

Let Eat Bee in Kubernetes — русскоговорящее сообщество
да, но старый replicaset почему-то не рестартанул упавший под
источник

k

kvaps in Kubernetes — русскоговорящее сообщество
Let Eat Bee
да, но старый replicaset почему-то не рестартанул упавший под
смотри в describe
источник

LB

Let Eat Bee in Kubernetes — русскоговорящее сообщество
поздно, евенты уплыли за ночь. сейчас починю прод и буду пробовать повторить :)
источник

k

kvaps in Kubernetes — русскоговорящее сообщество
ну и вообще сколько реплик для него desired
источник