Size: a a a

Kubernetes — русскоговорящее сообщество

2020 February 26

PK

Pavel Kolobaev in Kubernetes — русскоговорящее сообщество
переписать прилоджение чтобы на объекты удалялись ссылки после использования.
источник

AK

Andrey Kartashov in Kubernetes — русскоговорящее сообщество
Slach
как пара часов...

еще раз
есть pod 1
и на него еще service навешан
я из pod 2
пытаюсь законектиться на pod1 используя DNS имя service
а при входящем коннекте на pod2 пытаюсь сделать обратный resolve на source IP
и походу отрезолвливаю что то не то

(этот чудесный алгоритм нужен для clickhouse host_regexp https://clickhouse.tech/docs/en/operations/settings/settings_users/#user-name-networks)
не будет работать, у тебя sourceip из приватной сетки
источник

DZ

Dzmitry Zimin in Kubernetes — русскоговорящее сообщество
Pavel Kolobaev
переписать прилоджение чтобы на объекты удалялись ссылки после использования.
понятно, спасибо
источник

A

Alexander in Kubernetes — русскоговорящее сообщество
Let Eat Bee
Там vxlan для L3 сетей, но до tcpdump тянуться вряд ли придется - все самое интересное и сложное происходит до этого , но у них неплохой инструментарий для дебага : https://cilium.readthedocs.io/en/stable/troubleshooting/#admin-guide
А зачем в l3-сетях vxlan для кубера?
источник

LB

Let Eat Bee in Kubernetes — русскоговорящее сообщество
kvaps
а, вот чем
Ну эти дебажат только родные ебпф. Если придёт кто-то ещё , навесит своих eBPF и все похерит, то увидеть это будет сложно . Наверняка в bcc каком-нибудь есть тулинг чтобы увидеть какие eBPF куда навешаны, но надо изучать/осваивать. Через 10 лет все будет на eBPF, так что можно начинать сейчас :)
источник

LB

Let Eat Bee in Kubernetes — русскоговорящее сообщество
Alexander
А зачем в l3-сетях vxlan для кубера?
Чтобы ИП подов протаскивать в пакетах между нодами
источник

A

Alexander in Kubernetes — русскоговорящее сообщество
Let Eat Bee
Чтобы ИП подов протаскивать в пакетах между нодами
Эээ... а в чем проблема делать это без vxlan?
источник

DS

Dmitry Sergeev in Kubernetes — русскоговорящее сообщество
Slach
всем привет
а какой временной лаг между изменением состояния кластера в etcd
и тем как обновляется DNS внутри кластера?

kubectl get pods
показывает что Pod есть и в состоянии running
но kubectl exec из другого пода nslookup не может отрезолвить
ты делаешь exec на под? Там резолва DNS вообще нет. А kubectl exec на сервис делать нельзя. Увидел сообщение ниже, уже понял что нужно другое. (это не актуально)
источник

LB

Let Eat Bee in Kubernetes — русскоговорящее сообщество
Andrey Kartashov
#helmбажноеговно
если я в нескольких манифестах добавляю кастомный ключ в scope, он перезаписывается.

a_file.yaml
{{- with (merge . (dict "bbcomponent" "afile")) }}
test: {{ .bbcomponent }}
{{- end }}


z_file.yaml
{{- with (merge . (dict "bbcomponent" "zfile")) }}
test: {{ .bbcomponent }}
{{- end }}


оба файла при рендере выдадут одинаковый test: zfile
Да, template context один на все чарты и субчарты. Жопно, согласен. Из-за этого никакой чарт не может свой template притащить и быть уверенным , то его кто-нибудь другой не перезатрет
источник

A

Alexander in Kubernetes — русскоговорящее сообщество
🇷🇺Dmitry🇮🇪🇩🇪
кто-нибудь имел дело с SAML аутентификацией? нужно воткнуть прокси что бы он аутентифицироваться в ажур через самл мог
При чем тут кубернетес?
источник

LB

Let Eat Bee in Kubernetes — русскоговорящее сообщество
Alexander
Эээ... а в чем проблема делать это без vxlan?
? L2 нужен же если без туннелирования
источник

🇷

🇷🇺Dmitry🇮🇪🇩🇪... in Kubernetes — русскоговорящее сообщество
Alexander
При чем тут кубернетес?
Да особо не при чем. Потом в него надо будет это все завернуть.
источник

A

Alexander in Kubernetes — русскоговорящее сообщество
Let Eat Bee
? L2 нужен же если без туннелирования
Кто-то в кубере крутит софт, которомы жизненно важны броадкасты/мультикасты?
источник

DS

Dmitry Sergeev in Kubernetes — русскоговорящее сообщество
Slach
как пара часов...

еще раз
есть pod 1
и на него еще service навешан
я из pod 2
пытаюсь законектиться на pod1 используя DNS имя service
а при входящем коннекте на pod2 пытаюсь сделать обратный resolve на source IP
и походу отрезолвливаю что то не то

(этот чудесный алгоритм нужен для clickhouse host_regexp https://clickhouse.tech/docs/en/operations/settings/settings_users/#user-name-networks)
обратного резолва нет. Для этого PTR нужны, а coredns их не делает
источник

LB

Let Eat Bee in Kubernetes — русскоговорящее сообщество
Alexander
Кто-то в кубере крутит софт, которомы жизненно важны броадкасты/мультикасты?
Кто то крутит куб в сетях , где нету L2 между нодами
источник

A

Alexander in Kubernetes — русскоговорящее сообщество
Let Eat Bee
Кто то крутит куб в сетях , где нету L2 между нодами
Это да, но зачем там l2 связность между подами?
источник

DS

Dmitry Sergeev in Kubernetes — русскоговорящее сообщество
Slach
как пара часов...

еще раз
есть pod 1
и на него еще service навешан
я из pod 2
пытаюсь законектиться на pod1 используя DNS имя service
а при входящем коннекте на pod2 пытаюсь сделать обратный resolve на source IP
и походу отрезолвливаю что то не то

(этот чудесный алгоритм нужен для clickhouse host_regexp https://clickhouse.tech/docs/en/operations/settings/settings_users/#user-name-networks)
> (этот чудесный алгоритм нужен для clickhouse host_regexp https://clickhouse.tech/docs/en/operations/settings/settings_users/#user-name-networks)

Откажись от этого, разреши ото всюду, но с паролем. А сетевым доступом рули через netpolicy в кластере
источник

S

Slach in Kubernetes — русскоговорящее сообщество
Dmitry Sergeev
> (этот чудесный алгоритм нужен для clickhouse host_regexp https://clickhouse.tech/docs/en/operations/settings/settings_users/#user-name-networks)

Откажись от этого, разреши ото всюду, но с паролем. А сетевым доступом рули через netpolicy в кластере
не могу 😞 к сожалению, про net policy не знали когда clickhouse-operator делали
источник

DS

Dmitry Sergeev in Kubernetes — русскоговорящее сообщество
Slach
не могу 😞 к сожалению, про net policy не знали когда clickhouse-operator делали
https://operatorhub.io/operator/clickhouse - этот?

https://github.com/Altinity/clickhouse-operator/blob/master/docs/custom_resource_explained.md
Там же можно профили настроить и поле networks есть, то есть он просто прокидывает эти xml в clickhouse. Должно работать

Это

test/networks/ip:
       - "127.0.0.1"
       - "::/0"


Трансформируется в xml в конфиги для clickhouse:

<users>
       <test>
         <networks>
           <ip>127.0.0.1</ip>
           <ip>::/0</ip>
         </networks>
       </test>
    </users>
источник

LB

Let Eat Bee in Kubernetes — русскоговорящее сообщество
Alexander
Это да, но зачем там l2 связность между подами?
L2 между подами идёт бонусом. Vxlan просто стандартный туннель не лучше   не хуже других
источник