Size: a a a

Kubernetes — русскоговорящее сообщество

2020 December 28

AS

Artem Silenkov in Kubernetes — русскоговорящее сообщество
раньше была проблема, нихрена не стартует пока сайдкар не стартанул, сейчас чет работает без этих проблем, ну и хрен с ним )
источник

DS

Dmitry Sergeev in Kubernetes — русскоговорящее сообщество
Artem Silenkov
раньше была проблема, нихрена не стартует пока сайдкар не стартанул, сейчас чет работает без этих проблем, ну и хрен с ним )
в целом можно выкрутиться имея какой-то отдельный сервис, который направляет твои запросы куда надо, пока не поднялся sidecar. А направлять эти запросы через iptables правило, которое добавляется на этапе initCointainers. А потом sidecar поднимается и делает всё как надо. Может быть они так и делают?
источник

ИК

Игорь Королёв... in Kubernetes — русскоговорящее сообщество
Dmitry Sergeev
в целом можно выкрутиться имея какой-то отдельный сервис, который направляет твои запросы куда надо, пока не поднялся sidecar. А направлять эти запросы через iptables правило, которое добавляется на этапе initCointainers. А потом sidecar поднимается и делает всё как надо. Может быть они так и делают?
они предлагают либо не лезть в сеть из инит-контейнера, либо добавлять IP-адреса в исключения
источник

DS

Dmitry Sergeev in Kubernetes — русскоговорящее сообщество
Игорь Королёв
они предлагают либо не лезть в сеть из инит-контейнера, либо добавлять IP-адреса в исключения
хм. Жаль
источник
2020 December 29

VB

Vasily Bortnikov in Kubernetes — русскоговорящее сообщество
Привет!
Собрал кластер на калике с включенным инкапсулированием IPIP, потом выключил.
Удалил обьекты калики, перезапустил ее вроде. Вижу конфигмапа изменилась,
tcpdump показывает чистый ipv4 между мастером и нодой.
Но в контейнеры продолжает пропихиваться туннель IPIP.
Как правильно перегружать калику при изменении манифеста ?
Докер почему продолджает  юзать IPIP ?
Спасибо.
источник

GG

George Gaál in Kubernetes — русскоговорящее сообщество
Потому что нат ?
источник

GG

George Gaál in Kubernetes — русскоговорящее сообщество
Ты точно уверен, что это туннель ?
источник

VB

Vasily Bortnikov in Kubernetes — русскоговорящее сообщество
ната пару ведер в iptables же должно быть
источник

L

Lucky SB in Kubernetes — русскоговорящее сообщество
Тебе надо почитать доку калики в районе слова crosssubnet
источник

VB

Vasily Bortnikov in Kubernetes — русскоговорящее сообщество
George Gaál
Ты точно уверен, что это туннель ?
4: tunl0@NONE: <NOARP,UP,LOWER_UP> mtu 1500 qdisc noqueue state UNKNOWN mode DEFAULT group default qlen 1000
   link/ipip 0.0.0.0 brd 0.0.0.0 promiscuity 0
   ipip remote any local any ttl inherit nopmtudisc addrgenmode eui64 numtxqueues 1 numrxqueues 1 gso_max_size 65536 gso_max_segs 65535
источник

VB

Vasily Bortnikov in Kubernetes — русскоговорящее сообщество
спасибо, гляну. сабнеты мне не надо пересекать
источник

VB

Vasily Bortnikov in Kubernetes — русскоговорящее сообщество
Похоже не во всех местах (или не втом выключил)
calicoctl get ippool default-ipv4-ippool -o yam
источник

a

andor0 in Kubernetes — русскоговорящее сообщество
Alexander Lisachenko
Всем привет, есть вопрос про организацию деплоймента отдельных бранчей в Kubernetes с разным набором env-переменных для каждого бранча - с помощью чего и как вы это делаете?

Когда деплой идёт по тэгам или из одной ветки (master) - тут все просто, можно положить файл .env нужный в репу и менять при необходимости, а секреты создать заранее. А вот когда хочется в разных ветках тестить интеграцию с другими API зависимыми и тоже переключать на версию из бранча - тут встаёт вопрос управления этим добром - как это лучше провернуть? Как вы указываете такие эндпоинты под каждый бранч отдельно?
как в итоге решили вопрос?
ps: всё обсуждение по этому вопросу прочитал, но вдруг удалось найти подходящий инструмент
источник

AL

Alexander Lisachenko in Kubernetes — русскоговорящее сообщество
andor0
как в итоге решили вопрос?
ps: всё обсуждение по этому вопросу прочитал, но вдруг удалось найти подходящий инструмент
В итоге сделал так: в Helm передаётся название бранча на CI/CD pipeline. Это название используется в нескольких местах: 1)ингресс-контроллере для указания имени хоста: аля abc-123.service или master.service. 2) для префиксования всех сущностей кубера для этой ветки (abc-123-service, abc-123-deployment) 3) для указания пути в Vaulte - проверяю в CD есть ли конфиг специфичный для ветки, если есть - подключается он, иначе конфиг для мастера
источник

AL

Alexander Lisachenko in Kubernetes — русскоговорящее сообщество
andor0
как в итоге решили вопрос?
ps: всё обсуждение по этому вопросу прочитал, но вдруг удалось найти подходящий инструмент
Готового ничего не находилось, если вдруг кто найдёт или знает что-то, будет интересно тоже почитать. Пока же решение есть на хелме+Vaulte рабочее
источник

a

andor0 in Kubernetes — русскоговорящее сообщество
Alexander Lisachenko
В итоге сделал так: в Helm передаётся название бранча на CI/CD pipeline. Это название используется в нескольких местах: 1)ингресс-контроллере для указания имени хоста: аля abc-123.service или master.service. 2) для префиксования всех сущностей кубера для этой ветки (abc-123-service, abc-123-deployment) 3) для указания пути в Vaulte - проверяю в CD есть ли конфиг специфичный для ветки, если есть - подключается он, иначе конфиг для мастера
хмм... интересно
спасибо!
источник

I

Ilya in Kubernetes — русскоговорящее сообщество
Я чет не понимаю, я что то делаю или это норма, кубеспрей должен ставить ingress-nginx controller же?
источник

I

Ilya in Kubernetes — русскоговорящее сообщество
ingress_nginx_enabled: true стоит
источник

L

Lucky SB in Kubernetes — русскоговорящее сообщество
Ilya
ingress_nginx_enabled: true стоит
если стоит, то тогда поставит
источник

I

Ilya in Kubernetes — русскоговорящее сообщество
но не поставилось
источник