Size: a a a

Kubernetes — русскоговорящее сообщество

2020 December 30

AK

Alexander Kildyakov in Kubernetes — русскоговорящее сообщество
А про hpa как процесс
источник

AK

Alexander Kildyakov in Kubernetes — русскоговорящее сообщество
Ну т.е. по умолчанию поведение, сохранять старичков, что в корне не логично.
источник

DS

Dmitry Sergeev in Kubernetes — русскоговорящее сообщество
Alexander Kildyakov
Ну т.е. по умолчанию поведение, сохранять старичков, что в корне не логично.
не логично хотеть сохранять какие-то специальные поды при hpa.  У тебя поды все одинаковые должны быть. Без разницы сколько они работают. Если это не так, то что-то с приложением не так, либо это не stateless и надо соотвественно с ним работать
источник

L

Lucky SB in Kubernetes — русскоговорящее сообщество
Dmitry Sergeev
не логично хотеть сохранять какие-то специальные поды при hpa.  У тебя поды все одинаковые должны быть. Без разницы сколько они работают. Если это не так, то что-то с приложением не так, либо это не stateless и надо соотвественно с ним работать
/toxic
источник

GG

George Gaál in Kubernetes — русскоговорящее сообщество
Alexander Kildyakov
Ну т.е. по умолчанию поведение, сохранять старичков, что в корне не логично.
Почему ?
источник

GG

George Gaál in Kubernetes — русскоговорящее сообщество
Dmitry Sergeev
не логично хотеть сохранять какие-то специальные поды при hpa.  У тебя поды все одинаковые должны быть. Без разницы сколько они работают. Если это не так, то что-то с приложением не так, либо это не stateless и надо соотвественно с ним работать
+
источник

GG

George Gaál in Kubernetes — русскоговорящее сообщество
Не нравится - пиши свой хпа контроллер с блекджеком и куртизанками
источник

AK

Alexander Kildyakov in Kubernetes — русскоговорящее сообщество
Dmitry Sergeev
не логично хотеть сохранять какие-то специальные поды при hpa.  У тебя поды все одинаковые должны быть. Без разницы сколько они работают. Если это не так, то что-то с приложением не так, либо это не stateless и надо соотвественно с ним работать
Согласен полностью. Но у куба поведение не соответствует, тому с чем мы согласны. Для него поды неодинаковые. И приложение на это не расчитано - да. Условно говоря есть вероятность, что приложение окажется в состояние "здорово" но при этом работы не производит, вероятность очень низкая, зависит от времени работы, если под работает пару-тройку дней, такую вероятность можно считать нулевой, а если пару-тройку лет уже %50 - будет
источник

GG

George Gaál in Kubernetes — русскоговорящее сообщество
Который будет убивать, скажем, самые старые поды
источник

GG

George Gaál in Kubernetes — русскоговорящее сообщество
Alexander Kildyakov
Согласен полностью. Но у куба поведение не соответствует, тому с чем мы согласны. Для него поды неодинаковые. И приложение на это не расчитано - да. Условно говоря есть вероятность, что приложение окажется в состояние "здорово" но при этом работы не производит, вероятность очень низкая, зависит от времени работы, если под работает пару-тройку дней, такую вероятность можно считать нулевой, а если пару-тройку лет уже %50 - будет
Это плохая логика
источник

GG

George Gaál in Kubernetes — русскоговорящее сообщество
Если у тебя частые деплои, к чему вы придёте скоро, то у вас долгоживущих контейнеров быть не должно
источник

GG

George Gaál in Kubernetes — русскоговорящее сообщество
Не говоря про кейсы «мы в облаке на спотовых инстансах и используем дешедулер»
источник

DS

Dmitry Sergeev in Kubernetes — русскоговорящее сообщество
Alexander Kildyakov
Согласен полностью. Но у куба поведение не соответствует, тому с чем мы согласны. Для него поды неодинаковые. И приложение на это не расчитано - да. Условно говоря есть вероятность, что приложение окажется в состояние "здорово" но при этом работы не производит, вероятность очень низкая, зависит от времени работы, если под работает пару-тройку дней, такую вероятность можно считать нулевой, а если пару-тройку лет уже %50 - будет
Проблема в приложении. Для куба все поды одинаковые. Полагаться на то, как он будет удалять поды при изменении количества реплик не нужно - это плохая практика. В вашем случае лечить приложение, исправлять баги
источник

AK

Alexander Kildyakov in Kubernetes — русскоговорящее сообщество
Это не логика - это жизнь. Это микросервисная архитектура, логика этого сервиса сделана пару лет назад и не меняется и меняться не будет в ближайшие несколько лет.
источник

GG

George Gaál in Kubernetes — русскоговорящее сообщество
💩 а не архитектура
источник

GG

George Gaál in Kubernetes — русскоговорящее сообщество
Dmitry Sergeev
Проблема в приложении. Для куба все поды одинаковые. Полагаться на то, как он будет удалять поды при изменении количества реплик не нужно - это плохая практика. В вашем случае лечить приложение, исправлять баги
+
источник

GG

George Gaál in Kubernetes — русскоговорящее сообщество
Как обычно - подкладываем костылей на уровень инфры, а потом удивляемся, почему все так плохо
источник

GG

George Gaál in Kubernetes — русскоговорящее сообщество
Я уж не говорю о том, что для определения степени жизнеспособности приклада есть пробы
источник

DS

Dmitry Sergeev in Kubernetes — русскоговорящее сообщество
Alexander Kildyakov
Это не логика - это жизнь. Это микросервисная архитектура, логика этого сервиса сделана пару лет назад и не меняется и меняться не будет в ближайшие несколько лет.
не хотите исправлять баги в приложении. Ну тогда исправьте логику в kube-controller-manager и используйте свой форк (спойлер: думаю проще исправить баги в приложении)
источник

GG

George Gaál in Kubernetes — русскоговорящее сообщество
Уверены, что все стало плохо - валите пробу, кубер убивает под, он перешедюливается, все довольны
источник