Size: a a a

Kubernetes — русскоговорящее сообщество

2020 March 09

S

Slach in Kubernetes — русскоговорящее сообщество
KrivdaTheTriewe
А разве это все не ставится тем же спреем или  рке?
мы про один и тот же hardway говорим?
когда все демоны ручками через systemd заводятся и сеть тоже ручками ... и CRI ручками =)
источник

S

Slach in Kubernetes — русскоговорящее сообщество
Dmitry Sergeev
нормальная. Это самый первый метод который в кубе был, для того чтобы сервис наружу выкинуть
ок. спасибо большое, буду дальше копать почему у меня в одном месте заводится Service
а в другом нет
при этом spec
у обоих особо не отличается
и endpoints живые есть =(
источник

DS

Dmitry Sergeev in Kubernetes — русскоговорящее сообщество
Slach
ок. спасибо большое, буду дальше копать почему у меня в одном месте заводится Service
а в другом нет
при этом spec
у обоих особо не отличается
и endpoints живые есть =(
про облако речь?
источник

DS

Dmitry Sergeev in Kubernetes — русскоговорящее сообщество
Slach
ок. спасибо большое, буду дальше копать почему у меня в одном месте заводится Service
а в другом нет
при этом spec
у обоих особо не отличается
и endpoints живые есть =(
load balancer ведь кто-то должен создать, обычно это только в облаках работает. Для bare-metal есть metallb, но как мне кажется проще тогда ingress.
источник

S

Slach in Kubernetes — русскоговорящее сообщество
Dmitry Sergeev
про облако речь?
да. kops + aws
правда кубер старый 1.11
судя по всему ошибку я ловлю где то здесь

https://github.com/creditsenseau/k8s-aws-efs/blob/master/vendor/k8s.io/kubernetes/pkg/controller/service/servicecontroller.go#L339

LoadBalancer создается у меня в grafana-operator
но я не понимаю откуда у меня могут взяться конфликты в момент обновления сервиса, и у кого с кем конфликты

у оператора с aws-efs ? но кто из них первый пишет...

блин, как бы заснифать трафик который к apiserver идет...  и понять кто именно косячит и как
источник

S

Slach in Kubernetes — русскоговорящее сообщество
осложняется все еще тем что все в aws крутится до EC2 инстансов которого у меня доступа нет
источник

DS

Dmitry Sergeev in Kubernetes — русскоговорящее сообщество
Slach
да. kops + aws
правда кубер старый 1.11
судя по всему ошибку я ловлю где то здесь

https://github.com/creditsenseau/k8s-aws-efs/blob/master/vendor/k8s.io/kubernetes/pkg/controller/service/servicecontroller.go#L339

LoadBalancer создается у меня в grafana-operator
но я не понимаю откуда у меня могут взяться конфликты в момент обновления сервиса, и у кого с кем конфликты

у оператора с aws-efs ? но кто из них первый пишет...

блин, как бы заснифать трафик который к apiserver идет...  и понять кто именно косячит и как
ты судя по всему давно с grafana-operator возишься, мб бросить это дело? Видимо он еще не продкшн-реди.
снифать трафик на нодах не поможет, он все равно шифрованный и через https идет.
То есть ошибка не с LoadBalancer, а с созданием pv/pvc?
источник

S

Slach in Kubernetes — русскоговорящее сообщество
Dmitry Sergeev
ты судя по всему давно с grafana-operator возишься, мб бросить это дело? Видимо он еще не продкшн-реди.
снифать трафик на нодах не поможет, он все равно шифрованный и через https идет.
То есть ошибка не с LoadBalancer, а с созданием pv/pvc?
нет, причем тут PVC?
ошибка именно с созданием сервиса

ну. на текущий момент этот grafana-operator единственный вменяемый способ автоматом сетапить dashboards из JSON файла

ну и оно вполне рабочее, просто я пытаюсь его в нестандартном сетапе поднять, без ingress контроллера, на который он изначально расчитывает
потому что ingress надо ставить отдельно а 90% людей которые только с кубером знакомятся =) они в это не втыкают, это слишком сложная абстракция ;)
источник

DS

Dmitry Sergeev in Kubernetes — русскоговорящее сообщество
Slach
нет, причем тут PVC?
ошибка именно с созданием сервиса

ну. на текущий момент этот grafana-operator единственный вменяемый способ автоматом сетапить dashboards из JSON файла

ну и оно вполне рабочее, просто я пытаюсь его в нестандартном сетапе поднять, без ingress контроллера, на который он изначально расчитывает
потому что ingress надо ставить отдельно а 90% людей которые только с кубером знакомятся =) они в это не втыкают, это слишком сложная абстракция ;)
> нет, причем тут PVC?
Ты выше ссылку дал на  ошибку в efs (то есть nfs, только в амазоне). А значит с сервисом никак не связано, а скорее всего с pv/pvc.

Или есть другие ошибки? Например в cloud-controller-manager, kube-apiserver, в евентах?
источник

VR

Vadim Rutkovsky in Kubernetes — русскоговорящее сообщество
Slach
да. kops + aws
правда кубер старый 1.11
судя по всему ошибку я ловлю где то здесь

https://github.com/creditsenseau/k8s-aws-efs/blob/master/vendor/k8s.io/kubernetes/pkg/controller/service/servicecontroller.go#L339

LoadBalancer создается у меня в grafana-operator
но я не понимаю откуда у меня могут взяться конфликты в момент обновления сервиса, и у кого с кем конфликты

у оператора с aws-efs ? но кто из них первый пишет...

блин, как бы заснифать трафик который к apiserver идет...  и понять кто именно косячит и как
> как бы заснифать трафик который к apiserver идет

audit логи же
источник

BD

Banschikov Denis in Kubernetes — русскоговорящее сообщество
Slach
да. kops + aws
правда кубер старый 1.11
судя по всему ошибку я ловлю где то здесь

https://github.com/creditsenseau/k8s-aws-efs/blob/master/vendor/k8s.io/kubernetes/pkg/controller/service/servicecontroller.go#L339

LoadBalancer создается у меня в grafana-operator
но я не понимаю откуда у меня могут взяться конфликты в момент обновления сервиса, и у кого с кем конфликты

у оператора с aws-efs ? но кто из них первый пишет...

блин, как бы заснифать трафик который к apiserver идет...  и понять кто именно косячит и как
audit-log в параметрах  kube-apiserver
источник

S

Slach in Kubernetes — русскоговорящее сообщество
Dmitry Sergeev
> нет, причем тут PVC?
Ты выше ссылку дал на  ошибку в efs (то есть nfs, только в амазоне). А значит с сервисом никак не связано, а скорее всего с pv/pvc.

Или есть другие ошибки? Например в cloud-controller-manager, kube-apiserver, в евентах?
ну там же servicecontroller.go
выглядит то как раз как сервис...
источник

T

Tuntsov in Kubernetes — русскоговорящее сообщество
Всем привет. Подскажите, когда происходит обновление кубера, сертификаты etcd должны обновляются вместе с остальными? У меня, почему-то, это не работает
источник

DS

Dmitry Sergeev in Kubernetes — русскоговорящее сообщество
Slach
ну там же servicecontroller.go
выглядит то как раз как сервис...
как по мне, если ошибка в efs, то это точно с сервисами куба не связано
источник

KM

Kirill Makhonin in Kubernetes — русскоговорящее сообщество
Привет, подскажите, кто сталкивался?
Есть GKE с горизонтальным auto scale
В нем есть 2 node pool, один из которых в дефолтном состоянии с 0 инстансами. При скедуленге некоторых подов они обладают taints & affinity, которая позволяет скедулиться только на эти нод пулы. Все работает

Добавил PVC с CMEK (https://github.com/kubernetes-sigs/gcp-compute-persistent-disk-csi-driver) в региональном режиме (как и кластер). На подах, которых работают на основном нод пуле -все работает; Если использовать для пода, который скедулится на нод пул с 0-scale, возникает проблема

Если режим lazy init - после скедулинга пода и автоскейла нод пула выводит ошибку "нет нод на которые модно примонтировать PVC", PVC висит в Pending
Если immediate - pvc и pv создаются сразу, но не отрабатывает автоскейлер с ошибкой "не скейлим вверх тк всеравно не сможем запровижионть под"

У меня такое ощущение что горизонтальный автоскейлер и CSI драйвера конфликтуют. Кто нибудь сталкивался с подобным?
источник

BD

Banschikov Denis in Kubernetes — русскоговорящее сообщество
Tuntsov
Всем привет. Подскажите, когда происходит обновление кубера, сертификаты etcd должны обновляются вместе с остальными? У меня, почему-то, это не работает
kubeadm?
источник

T

Tuntsov in Kubernetes — русскоговорящее сообщество
Именно так
источник

BD

Banschikov Denis in Kubernetes — русскоговорящее сообщество
Tuntsov
Именно так
вообще если поднимал контейнеры ETCD через этот инструмент , то он должен все обновить
источник

L

Lucky SB in Kubernetes — русскоговорящее сообщество
Tuntsov
Именно так
Какая версия кубадма ?
источник

T

Tuntsov in Kubernetes — русскоговорящее сообщество
Lucky SB
Какая версия кубадма ?
1.15.6
источник