Size: a a a

Kubernetes — русскоговорящее сообщество

2020 November 30

E

Eugene in Kubernetes — русскоговорящее сообщество
Sergey Monakhov
моежете сделать сайдкар с обычым нгинкс, напихать туда все эти правила, ингресом роутится на него. Но если честно, тут надо саму апликуху переписывать со спекой по ресту
Если уж такой вариант выбирать, то не лучше ли запускать отдельные поды с nginx-proxy , которые и будут проксировать на кубернетисовские сервисы, чтобы при изменении параметров/роутов в таких nignx-proxy-подах,которые мапятся как,например, ConfigMap, достаточно было сделать бесшовное обновление этих stateless-подов, а не передеплоивать поды с приложением, где сайдкаром установлены эти nginx-proxy?
client->cloudflare->ingress-nginx->nginx-proxy->service1|service2

Но это практически дублирование функцонала nginx-ingress, хотелось бы или на нем реализовать или на регулярках
источник

MS

Maxim Savchenko in Kubernetes — русскоговорящее сообщество
coredns по умолчанию берет список вышестоящих ДНС серверов из файла /etc/resolv.conf с хостовой тачки, у тебя на хостовой тачке поднят systemd-resolver, который меняет днс-сервера на 127.0.0.1 и походу у тебя получается loop.
Вот здесь это хорошо расписано + написано как решить проблему.
https://github.com/coredns/coredns/blob/master/plugin/loop/README.md#troubleshooting-loops-in-kubernetes-clusters
источник

DS

Dmitry Sergeev in Kubernetes — русскоговорящее сообщество
A E
Таки народ, как вы пышечку (php-fpm) чекаете?
livenessProbe можно чекать ping.path (настройка пула fpm)
redinessProbe - на стороне приложеньки
источник

DS

Dmitry Sergeev in Kubernetes — русскоговорящее сообщество
Eugene
Если уж такой вариант выбирать, то не лучше ли запускать отдельные поды с nginx-proxy , которые и будут проксировать на кубернетисовские сервисы, чтобы при изменении параметров/роутов в таких nignx-proxy-подах,которые мапятся как,например, ConfigMap, достаточно было сделать бесшовное обновление этих stateless-подов, а не передеплоивать поды с приложением, где сайдкаром установлены эти nginx-proxy?
client->cloudflare->ingress-nginx->nginx-proxy->service1|service2

Но это практически дублирование функцонала nginx-ingress, хотелось бы или на нем реализовать или на регулярках
nginx-ingress controller имеет существенный плюс - он в апстримы добавляет ip адреса pod'ов.
источник

E

Eugene in Kubernetes — русскоговорящее сообщество
Dmitry Sergeev
nginx-ingress controller имеет существенный плюс - он в апстримы добавляет ip адреса pod'ов.
Дима, ну через
pathType: Exact
pathType: Prefix

теоретически можно реализовать мой кейс?
Если да, то это будет выглядеть примерно по структуре и по количеству правил, как в классическом nginx по типу того,что я привел на pastebin?
источник

DS

Dmitry Sergeev in Kubernetes — русскоговорящее сообщество
Eugene
Дима, ну через
pathType: Exact
pathType: Prefix

теоретически можно реализовать мой кейс?
Если да, то это будет выглядеть примерно по структуре и по количеству правил, как в классическом nginx по типу того,что я привел на pastebin?
я новым API ingress не пользовался 🤷🏻‍♂️
источник

GG

George Gaál in Kubernetes — русскоговорящее сообщество
Dmitry Sergeev
я новым API ingress не пользовался 🤷🏻‍♂️
Я тоже
источник

GG

George Gaál in Kubernetes — русскоговорящее сообщество
И воообще ингрес нафиг
источник

GG

George Gaál in Kubernetes — русскоговорящее сообщество
У каждого продвинутого ингресс свои ресурсы - тот же контур обсуждали сегодня
источник

AE

A E in Kubernetes — русскоговорящее сообщество
Dmitry Sergeev
livenessProbe можно чекать ping.path (настройка пула fpm)
redinessProbe - на стороне приложеньки
Спасибо. Попробую
источник

VS

Vasilyev Sergey in Kubernetes — русскоговорящее сообщество
A E
Таки народ, как вы пышечку (php-fpm) чекаете?
Складываем 2+2 в хелс.пхп и дрыкаем этот файл через

 SCRIPT_NAME=/app/healthz.php \
 SCRIPT_FILENAME=/app/healthz.php \
 QUERY_STRING= \
 REQUEST_METHOD=GET \
 cgi-fcgi -bind -connect /var/run/php-fpm.sock
источник

S

Solyar in Kubernetes — русскоговорящее сообщество
Народ хотите тупой вопрос? Как удалить второй по счету под из стейтфулсета с десяткой реплик и чтобы он на эту ноду не приехал после рестарта? У меня в голове это кордон, скейл до 0, толерейшн с маркером и потом скейл до нужного количества
источник

S

Solyar in Kubernetes — русскоговорящее сообщество
Есть варианты изящнее?
источник

IT

Ilya T in Kubernetes — русскоговорящее сообщество
а есть ли тулза, которая может просканивать кластер на наличие ресурсов с устаревшими API https://kubernetes.io/blog/2019/07/18/api-deprecations-in-1-16/ ? О то хочется кластер обновить, и не хочется руками все ресурсы проверять
источник

AF

Anton F. in Kubernetes — русскоговорящее сообщество
есть
источник

AF

Anton F. in Kubernetes — русскоговорящее сообщество
источник

IT

Ilya T in Kubernetes — русскоговорящее сообщество
оно! спасибо!
источник

AF

Anton F. in Kubernetes — русскоговорящее сообщество
если объекты смотреть, то может оказаться, что создавал ты объект новее версии, а отображается через api в другой
источник

IT

Ilya T in Kubernetes — русскоговорящее сообщество
Solyar
Народ хотите тупой вопрос? Как удалить второй по счету под из стейтфулсета с десяткой реплик и чтобы он на эту ноду не приехал после рестарта? У меня в голове это кордон, скейл до 0, толерейшн с маркером и потом скейл до нужного количества
почему просто не кордон + убить второй по счёту под руками?
источник

IT

Ilya T in Kubernetes — русскоговорящее сообщество
Anton F.
если объекты смотреть, то может оказаться, что создавал ты объект новее версии, а отображается через api в другой
не знал, буду иметь в виду. хорошо что хоть хелм умеет сканировать
источник