Size: a a a

Kubernetes — русскоговорящее сообщество

2020 February 26

DS

Dmitry Sergeev in Kubernetes — русскоговорящее сообщество
Mikhail Romashov
Какие угрозы могут быть внутри кластера?
https://m.habr.com/ru/company/southbridge/blog/472484/
вот чисто кубовские угрозы, которые связаны именно с настройой. Но обычный взлом приложений тоже никто не отменял
источник

MR

Mikhail Romashov in Kubernetes — русскоговорящее сообщество
У нас OpenShift, но я так понимаю, разницы в плане информационной безопасности особо нет.
Благодарю за ссылку!
источник

DO

Dmitriy Onishko in Kubernetes — русскоговорящее сообщество
E0226 19:15:51.434125       1 leaderelection.go:330] error retrieving resource lock kube-system/kube-controller-manager: endpoints "kube-controller-manager" is forbidden: User "system:kube-controller-manager" cannot get resource "endpoints" in API group "" in the namespace "kube-system"
E0226 19:15:54.312699       1 leaderelection.go:330] error retrieving resource lock kube-system/kube-controller-manager: Get https://172.30.30.1:6443/api/v1/namespaces/kube-system/endpoints/kube-controller-manager?timeout=10s: dial tcp 172.30.30.1:6443: connect: connection refused

подскажите какой именно сертифкат или ключ используется kube-controller-manager для авторизации в etcd?
источник

DO

Dmitriy Onishko in Kubernetes — русскоговорящее сообщество
такая ошибка на одном из мастеров
источник
2020 February 27

L

Lucky SB in Kubernetes — русскоговорящее сообщество
Dmitriy Onishko
такая ошибка на одном из мастеров
Никакой. Контроллер менеджер только в апи ходит
источник

L

Lucky SB in Kubernetes — русскоговорящее сообщество
Коннекшен рефузед у тебя. Апи сервер не поднялся
источник

A

Alexander in Kubernetes — русскоговорящее сообщество
Let Eat Bee
Через библиотеку прямо в netlink ходить? Зоопарк ядер поддерживать сложна будет
Нетлинк как раз, по идее, не проблема, кроме перехода с iptables на nftables (я не помню, чтобы нетлинк-интерфейс ломали), а вот с либой засада побольше, т.к. стабильность API libiptc не гарантируется.
источник

k

khesl in Kubernetes — русскоговорящее сообщество
Всем привет,
Есть кто цеплял NFS на поды?
Как можно управлять доступами создаваемых файлов?
Если подов много, внутри приложения крутятся под разными пользователями, а файлы хотелось бы генерить под одними правами каким-нибудь appuser пользователем.
Есть такие реализации?
источник

AY

Alexander Yaroshenko in Kubernetes — русскоговорящее сообщество
Всем привет!
Подскажите, пожалуйста. Без малейшего понятия куда смотреть.
Использую GKE версию 1.15.9 и Helm 3 для деплоя микросервисов. Развернул два абсолютно одинаковых по коду окружения в разных нэймспэйсах. В одном нэймспэйсе всё хорошо, а в другом мой микросервис (с тремя репликами) не может через Service Name (service.metadata.name) отправить запрос на другой сервис внутри кластера и просто по таймауту в 30 секунд обрубает соединение.
Под сервисом я подразумеваю абстракцию Kubernetes.

В какую сторону смотреть в таком случае? Никаких NetworkPolicy не юзал, ClusterRoles не юзал. Оба нэймспэйса создавались через kubectl create namespace ... .
источник

k

khesl in Kubernetes — русскоговорящее сообщество
Alexander Yaroshenko
Всем привет!
Подскажите, пожалуйста. Без малейшего понятия куда смотреть.
Использую GKE версию 1.15.9 и Helm 3 для деплоя микросервисов. Развернул два абсолютно одинаковых по коду окружения в разных нэймспэйсах. В одном нэймспэйсе всё хорошо, а в другом мой микросервис (с тремя репликами) не может через Service Name (service.metadata.name) отправить запрос на другой сервис внутри кластера и просто по таймауту в 30 секунд обрубает соединение.
Под сервисом я подразумеваю абстракцию Kubernetes.

В какую сторону смотреть в таком случае? Никаких NetworkPolicy не юзал, ClusterRoles не юзал. Оба нэймспэйса создавались через kubectl create namespace ... .
а namespace указываешь в названии?
источник

AY

Alexander Yaroshenko in Kubernetes — русскоговорящее сообщество
khesl
а namespace указываешь в названии?
Имеется в виду когда стучусь от микросервиса к микросервису?
Если да, то я, как написал, стучусь через название сервиса, а не через DNS, который выдаёт kube-dns
источник

AY

Alexander Yaroshenko in Kubernetes — русскоговорящее сообщество
Пингуется всё хорошо, курлы проходят внутри кластера.
Запросы идут извне в кластер через API, который находится за балансировщиком
источник

AY

Alexander Yaroshenko in Kubernetes — русскоговорящее сообщество
Причём половину микросервисов откликается, а половина - нет
источник

AY

Alexander Yaroshenko in Kubernetes — русскоговорящее сообщество
В другом нэймспэйсе всё гуд
источник

k

khesl in Kubernetes — русскоговорящее сообщество
попробуй тоже самое поднять в другом неймспейсе, сравни
источник

AY

Alexander Yaroshenko in Kubernetes — русскоговорящее сообщество
Т.е. client -> Load Balancer -> API -> many microservices
источник

AY

Alexander Yaroshenko in Kubernetes — русскоговорящее сообщество
Так поднял dev и qa нэймспэйсы. Или ещё один?)
источник

N

Nikolay in Kubernetes — русскоговорящее сообщество
Объясните новичку , что происходит под капотом , когда выполняю kubectl expose
источник

AY

Alexander Yaroshenko in Kubernetes — русскоговорящее сообщество
QA пашет, dev - наполовину нет
источник

k

khesl in Kubernetes — русскоговорящее сообщество
если ты говоришь что в другом месте работает, проведи эксперимент с теми же условиями в другом месте)
источник