Size: a a a

Kubernetes — русскоговорящее сообщество

2020 November 06

c

citius in Kubernetes — русскоговорящее сообщество
George Gaál
Так хельм релизы же умеют в зависимости ?
так у меня наоборот, мои кастомные ингрессы зависят от чарта.
чарт я беру из апстрима.
источник

c

citius in Kubernetes — русскоговорящее сообщество
крч да, вот это работает как надо.
источник

VT

Valera Trus in Kubernetes — русскоговорящее сообщество
Всем привет. Есть вопрос по eviction-soft. Повесил сегодня на одну ноду правилo, memory.available<10%, зашедулил туда три пода и запустил stress-ng. Пришел в итоге оом киллер и убил stress-ng, при этом нода стала not ready, но никакого аккуратного выселения подов не было. Может я не совсем верно понимаю, как это должно работать. Может кто-нибудь пояснить?
источник

AK

Andrey Klimentyev in Kubernetes — русскоговорящее сообщество
Valera Trus
Всем привет. Есть вопрос по eviction-soft. Повесил сегодня на одну ноду правилo, memory.available<10%, зашедулил туда три пода и запустил stress-ng. Пришел в итоге оом киллер и убил stress-ng, при этом нода стала not ready, но никакого аккуратного выселения подов не было. Может я не совсем верно понимаю, как это должно работать. Может кто-нибудь пояснить?
eviction-hard нужен, если быстро хочешь. Soft для неспешного, мягкого убийства, с таймаутом.
источник

VT

Valera Trus in Kubernetes — русскоговорящее сообщество
@zuzzas верно ли я понимаю, что, при достижении озу < 10%, кубелет должен сначала подождать заданный грэйс тайм, а затем начать освобождать ресурсы на ноде, путем выселения подов с ноды.
источник

AK

Andrey Klimentyev in Kubernetes — русскоговорящее сообщество
Valera Trus
@zuzzas верно ли я понимаю, что, при достижении озу < 10%, кубелет должен сначала подождать заданный грэйс тайм, а затем начать освобождать ресурсы на ноде, путем выселения подов с ноды.
Ага.
источник

AK

Andrey Klimentyev in Kubernetes — русскоговорящее сообщество
Valera Trus
Всем привет. Есть вопрос по eviction-soft. Повесил сегодня на одну ноду правилo, memory.available<10%, зашедулил туда три пода и запустил stress-ng. Пришел в итоге оом киллер и убил stress-ng, при этом нода стала not ready, но никакого аккуратного выселения подов не было. Может я не совсем верно понимаю, как это должно работать. Может кто-нибудь пояснить?
Если hard-eviction настроить по памяти, но всё равно не будет успевать, то следует kubelet'у указать --kernel-memcg-notification или в конфиг KernelMemcgNotification: true прописать. Тогда почти мгновенно SIGKILL'ы вылетать будут.
источник

VT

Valera Trus in Kubernetes — русскоговорящее сообщество
Так вот почему-то в моем примере, выселения подов не было, а просто пришёл оом и все
источник

IT

Ilya T in Kubernetes — русскоговорящее сообщество
дурацкий вопрос - а как узнать FQDN сервиса в кубе? я знаю что оно service-name.namespace - а дальше как узнать? верхние уровни?
источник

AL

Aleksey Lazarev in Kubernetes — русскоговорящее сообщество
Ilya T
дурацкий вопрос - а как узнать FQDN сервиса в кубе? я знаю что оно service-name.namespace - а дальше как узнать? верхние уровни?
источник

AL

Aleksey Lazarev in Kubernetes — русскоговорящее сообщество
Но вообще не понял что ты хочешь конкретно - вполне возможно переформулируешь после того как прочтешь
источник

IT

Ilya T in Kubernetes — русскоговорящее сообщество
ок я просто сделал k exec anypod -- cat /etc/resolv.conf
источник

IT

Ilya T in Kubernetes — русскоговорящее сообщество
и оттуда узнал какой домен у кластера
источник

IT

Ilya T in Kubernetes — русскоговорящее сообщество
.svc.cluster.local без фантазии оказался 😄
источник

A

Artem in Kubernetes — русскоговорящее сообщество
Подскажите, если я в деплойментах выставляю границы потребления cpu (от 0.1 до 1) и делаю к примеру 20 реплик приложения и при этом имею на сервере физических 8 потоков, как будут вести себя кубы? Кому-то при нагрузке отдадут полностью поток по верхнему пределу, а остальных будут тротлить?
источник
2020 November 07

AK

Andrey Klimentyev in Kubernetes — русскоговорящее сообщество
Artem
Подскажите, если я в деплойментах выставляю границы потребления cpu (от 0.1 до 1) и делаю к примеру 20 реплик приложения и при этом имею на сервере физических 8 потоков, как будут вести себя кубы? Кому-то при нагрузке отдадут полностью поток по верхнему пределу, а остальных будут тротлить?
По реквестам выставляется приоритет на CPU. Больше реквесты, больше времени на процессоре проведёт контейнер в пропорции к остальным на ноде.
источник

i

inqfen in Kubernetes — русскоговорящее сообщество
не приоритет
источник

i

inqfen in Kubernetes — русскоговорящее сообщество
А ограничение процессорного времени
источник

A

Artem in Kubernetes — русскоговорящее сообщество
inqfen
А ограничение процессорного времени
В resources в limits указывается же только коэффициент относительно одного потока
источник

i

inqfen in Kubernetes — русскоговорящее сообщество
Artem
В resources в limits указывается же только коэффициент относительно одного потока
Время ядра
источник