Size: a a a

Kubernetes — русскоговорящее сообщество

2020 February 27

AY

Alexander Yaroshenko in Kubernetes — русскоговорящее сообщество
Но кластер ведь тот же)
Ладно. Попробую другой нэймспэйс. Будет очень весело, если заработает
источник

AY

Alexander Yaroshenko in Kubernetes — русскоговорящее сообщество
Может я внезапно попал на чёрный айпишник)
источник

AY

Alexander Yaroshenko in Kubernetes — русскоговорящее сообщество
Nikolay
Объясните новичку , что происходит под капотом , когда выполняю kubectl expose
Грубо говоря, создаётся сервис с типом (ClusterIP, NodePort, LoadBalancer), который вы укажете и на порты, которые будут указаны.
Или ещё глубже?)
источник

AT

Alex Tkachenko in Kubernetes — русскоговорящее сообщество
Alexander Yaroshenko
Всем привет!
Подскажите, пожалуйста. Без малейшего понятия куда смотреть.
Использую GKE версию 1.15.9 и Helm 3 для деплоя микросервисов. Развернул два абсолютно одинаковых по коду окружения в разных нэймспэйсах. В одном нэймспэйсе всё хорошо, а в другом мой микросервис (с тремя репликами) не может через Service Name (service.metadata.name) отправить запрос на другой сервис внутри кластера и просто по таймауту в 30 секунд обрубает соединение.
Под сервисом я подразумеваю абстракцию Kubernetes.

В какую сторону смотреть в таком случае? Никаких NetworkPolicy не юзал, ClusterRoles не юзал. Оба нэймспэйса создавались через kubectl create namespace ... .
Возможно команда kubectl get svc --all-namespaces даст вам ответ на ваш вопрос. Может быть ключевое в вашем вопросе - это то, что "На одном кластере в разных namespace", и как раз наверное все работает там, где первым деплой прошел. Кто первый того и тапки.
источник

AY

Alexander Yaroshenko in Kubernetes — русскоговорящее сообщество
Alex Tkachenko
Возможно команда kubectl get svc --all-namespaces даст вам ответ на ваш вопрос. Может быть ключевое в вашем вопросе - это то, что "На одном кластере в разных namespace", и как раз наверное все работает там, где первым деплой прошел. Кто первый того и тапки.
Само собой, что это команду вводил, но не помогло.
Как раз-таки первый и единственный был тот нэймспэйс, который не работал. Это я уже после того, как не осталось никаких мыслей, решил создать QA нэймспэйс, чтобы посмотреть, как он себя будет вести. И ведёт он себя отлично...
И нэймспэйсы без непосредственного доступа через ClusterIP или DNS изолированы друг от друга в каком-то смысле, поэтому это не должно быть причиной проблемы. Стучиться всё куда надо. Проверял
источник

AS

Alexey Shanko in Kubernetes — русскоговорящее сообщество
всем привет. напомните плиз команду которая сконвертит пакет для хельма в обычный ямл для kubectl если это возможно
источник

А

Артём in Kubernetes — русскоговорящее сообщество
Alexey Shanko
всем привет. напомните плиз команду которая сконвертит пакет для хельма в обычный ямл для kubectl если это возможно
helm template
источник

DS

Dmitry Sergeev in Kubernetes — русскоговорящее сообщество
khesl
Всем привет,
Есть кто цеплял NFS на поды?
Как можно управлять доступами создаваемых файлов?
Если подов много, внутри приложения крутятся под разными пользователями, а файлы хотелось бы генерить под одними правами каким-нибудь appuser пользователем.
Есть такие реализации?
в psp можно fsgroup задать , uid пользователя и группы под которым у тебя будет работать приложение. также при монтировании можно задать mode вроде.  
Таким образом можно контролировать под какими id юзера и группы будут создаваться файлы
источник

AS

Alexey Shanko in Kubernetes — русскоговорящее сообщество
Артём
helm template
👍 спасибо
источник

k

khesl in Kubernetes — русскоговорящее сообщество
Dmitry Sergeev
в psp можно fsgroup задать , uid пользователя и группы под которым у тебя будет работать приложение. также при монтировании можно задать mode вроде.  
Таким образом можно контролировать под какими id юзера и группы будут создаваться файлы
пробовал.. может в обычных условиях это работает, но при NFS все равно под рутом файлы создает.. может что не так настроил..
источник

DS

Dmitry Sergeev in Kubernetes — русскоговорящее сообщество
khesl
пробовал.. может в обычных условиях это работает, но при NFS все равно под рутом файлы создает.. может что не так настроил..
у nfs вроде есть опции про это
источник

AK

Aleksey Koloskov in Kubernetes — русскоговорящее сообщество
khesl
пробовал.. может в обычных условиях это работает, но при NFS все равно под рутом файлы создает.. может что не так настроил..
это вроде при создании NFS-шары можно задать
источник

k

khesl in Kubernetes — русскоговорящее сообщество
Dmitry Sergeev
у nfs вроде есть опции про это
опции в volumes?
источник

DS

Dmitry Sergeev in Kubernetes — русскоговорящее сообщество
Aleksey Koloskov
это вроде при создании NFS-шары можно задать
вроде да
источник

k

khesl in Kubernetes — русскоговорящее сообщество
Aleksey Koloskov
это вроде при создании NFS-шары можно задать
/var/www/nfsshare/folder    ip(rw,sync,fsid=1006,no_root_squash,no_all_squash)
вы про настройки /etc/exports?
источник

AK

Aleksey Koloskov in Kubernetes — русскоговорящее сообщество
khesl
/var/www/nfsshare/folder    ip(rw,sync,fsid=1006,no_root_squash,no_all_squash)
вы про настройки /etc/exports?
да, про них.

anonuid и anongid не то что нужно?
источник

AK

Aleksey Koloskov in Kubernetes — русскоговорящее сообщество
root_squash — Prevents root users connected remotely from having root privileges and assigns them the user ID for the user nfsnobody. This effectively "squashes" the power of the remote root user to the lowest local user, preventing unauthorized alteration of files on the remote server. Alternatively, the no_root_squash option turns off root squashing. To squash every remote user, including root, use the all_squash option. To specify the user and group IDs to use with remote users from a particular host, use the anonuid and anongid options, respectively. In this case, a special user account can be created for remote NFS users to share and specify (anonuid=<uid-value>,anongid=<gid-value>), where <uid-value> is the user ID number and <gid-value> is the group ID number.
источник

AK

Aleksey Koloskov in Kubernetes — русскоговорящее сообщество
khesl
/var/www/nfsshare/folder    ip(rw,sync,fsid=1006,no_root_squash,no_all_squash)
вы про настройки /etc/exports?
Сообщением выше написал. Похоже это то что нужно.
источник

k

khesl in Kubernetes — русскоговорящее сообщество
спасибо, буду пробовать, видимо root_squash это только часть настройки
источник

A

Alexey in Kubernetes — русскоговорящее сообщество
Вопрос. Есть EKS на амазоне. Постоянная проблема с сетью у подов если они упираются в CPU лимиты.Отваливаются или timeoutят соединения наружу. Апликухи прожорливые и нет необходимости зарускать их быстрее.
Других путей решения кроме как поднять лимиты нет?
источник