Size: a a a

Kubernetes — русскоговорящее сообщество

2021 January 04

AZ

Alexander Zaitsev in Kubernetes — русскоговорящее сообщество
tsla
10% за бан? Чем же таким он вам насолил?
это фанаты helm и kustomize отсыпали из-за обиды на то, что их любимые тулзы говном назвали :)
источник

GG

George Gaál in Kubernetes — русскоговорящее сообщество
Alexander Zaitsev
это фанаты helm и kustomize отсыпали из-за обиды на то, что их любимые тулзы говном назвали :)
И терраформа
источник

GG

George Gaál in Kubernetes — русскоговорящее сообщество
kvaps
Предлагаю рассматривать "за", я уверен он будет не против :)
Гыгыгы
источник

k

kvaps in Kubernetes — русскоговорящее сообщество
Alexander Zaitsev
это фанаты helm и kustomize отсыпали из-за обиды на то, что их любимые тулзы говном назвали :)
Так а @gecube за что топит, не уж-то за операторов?
источник

GG

George Gaál in Kubernetes — русскоговорящее сообщество
Удивительное рядом !!!!!
источник

S

Solyar in Kubernetes — русскоговорящее сообщество
Противники ранчера решили забанить нашего Жору
источник

S

Solyar in Kubernetes — русскоговорящее сообщество
источник

GG

George Gaál in Kubernetes — русскоговорящее сообщество
Solyar
Противники ранчера решили забанить нашего Жору
Надо Артема позвать
источник

GG

George Gaál in Kubernetes — русскоговорящее сообщество
Будем держать оборону вместе
источник

DS

Dmitry Sergeev in Kubernetes — русскоговорящее сообщество
Dmitry Sergeev
Я вот щас начал затаскивать приложуху с 6-10K rps. И чет ingress nginx удручает. Сейчас обычный nginx без проблем держит эту нагрузку при этом тратит 3.5 ядра (на 10K rps). А вот nginx ingress у меня сейчас принимает 800-900rps и потребляет 4 ядра. Есть ощущения, что они там упоролись с lua и оно как-то не эффективно работает.
Возможно буду думать об отказе от nginx ingress, если не получится потюнить его
Чет потестил еще и реально беда. Для чистоты эксперемента развернул обычный nginx в кластере на налогочной ноде, тоже с hostNetwork: true. nginx той же версии что и в ingress controller (1.19.4). Подогнал настройки, выставив по возможности аналогичные важные настройки, что часто влияют на производительность nginx: ssl, gzip, worker_*, events, tcp_*, keepalive и т.д.)
И результаты такие-же.
При 3K rps nginx ingress controller потребляет 4 ядра cpu. А обычный nginx максимум одно ядро, но в среднем 0.7-0.8 ядра
источник

СГ

Сергей Голод... in Kubernetes — русскоговорящее сообщество
Dmitry Sergeev
Чет потестил еще и реально беда. Для чистоты эксперемента развернул обычный nginx в кластере на налогочной ноде, тоже с hostNetwork: true. nginx той же версии что и в ingress controller (1.19.4). Подогнал настройки, выставив по возможности аналогичные важные настройки, что часто влияют на производительность nginx: ssl, gzip, worker_*, events, tcp_*, keepalive и т.д.)
И результаты такие-же.
При 3K rps nginx ingress controller потребляет 4 ядра cpu. А обычный nginx максимум одно ядро, но в среднем 0.7-0.8 ядра
нжинкс на ноде работал же наверняка нативно или в контейнере?
источник

DS

Dmitry Sergeev in Kubernetes — русскоговорящее сообщество
👆Обычный nginx
источник

DS

Dmitry Sergeev in Kubernetes — русскоговорящее сообщество
Сергей Голод
нжинкс на ноде работал же наверняка нативно или в контейнере?
nginx на ноде работал в контейнере, задеплоен в куб также как и ingress controller
источник

GG

George Gaál in Kubernetes — русскоговорящее сообщество
Dmitry Sergeev
Чет потестил еще и реально беда. Для чистоты эксперемента развернул обычный nginx в кластере на налогочной ноде, тоже с hostNetwork: true. nginx той же версии что и в ingress controller (1.19.4). Подогнал настройки, выставив по возможности аналогичные важные настройки, что часто влияют на производительность nginx: ssl, gzip, worker_*, events, tcp_*, keepalive и т.д.)
И результаты такие-же.
При 3K rps nginx ingress controller потребляет 4 ядра cpu. А обычный nginx максимум одно ядро, но в среднем 0.7-0.8 ядра
Луа бесплатно не даётся
источник

DS

Dmitry Sergeev in Kubernetes — русскоговорящее сообщество
George Gaál
Луа бесплатно не даётся
вот видимо да
источник

DS

Dmitry Sergeev in Kubernetes — русскоговорящее сообщество
George Gaál
Луа бесплатно не даётся
луа дается в x4 потребления CPU походу =)
источник

I

Igor in Kubernetes — русскоговорящее сообщество
траефик например при рпс больше 5к по памяти течет дико
источник

DS

Dmitry Sergeev in Kubernetes — русскоговорящее сообщество
Dmitry Sergeev
Чет потестил еще и реально беда. Для чистоты эксперемента развернул обычный nginx в кластере на налогочной ноде, тоже с hostNetwork: true. nginx той же версии что и в ingress controller (1.19.4). Подогнал настройки, выставив по возможности аналогичные важные настройки, что часто влияют на производительность nginx: ssl, gzip, worker_*, events, tcp_*, keepalive и т.д.)
И результаты такие-же.
При 3K rps nginx ingress controller потребляет 4 ядра cpu. А обычный nginx максимум одно ядро, но в среднем 0.7-0.8 ядра
Попутно разочаровался и в cilium.  агент на ноде, на которую  я отправлял 3К rps,  почему-то тоже начинает потреблять CPU 🤷
А вот kube-router'у пофиг, есть трафик или нет - потребляет всегда одинаково и совсем чутка
источник

DS

Dmitry Sergeev in Kubernetes — русскоговорящее сообщество
источник

DS

Dmitry Sergeev in Kubernetes — русскоговорящее сообщество
Видимо cilium я так и не завезу себе =). Теперь попутно буду искать другой ingress controller, так как что я еще могу потюнить в nginx ingress controller - я хз. Основные настройки аналогичны обычному nginx.
источник