Size: a a a

Kubernetes — русскоговорящее сообщество

2020 September 16

k

kvaps in Kubernetes — русскоговорящее сообщество
А KubeDB не пробовал кто?
источник

DS

Dmitry Sergeev in Kubernetes — русскоговорящее сообщество
kvaps
Когда как stable/redis-ha чарт работает как часы
хотелось красиво, оператором =)
источник

RG

Roman Gorodeckij in Kubernetes — русскоговорящее сообщество
Ж
ссылки не отправляются youtube IpJgL-VRyaM
очень благодарен)
источник

EP

Eugene Petrovich in Kubernetes — русскоговорящее сообщество
kvaps
Когда как stable/redis-ha чарт работает как часы
есть также Banzai Kafka Operator и Kafka Helm chart на statefulSet… второй вполне себе работает сносно и с ним можно жить
источник

k

kvaps in Kubernetes — русскоговорящее сообщество
Dmitry Sergeev
хотелось красиво, оператором =)
Меня больше поддержка операторов беспокоит, и хорошо когда оператор пилит сама компания-производитель софта. В противном случае есть шанс рано или поздно наткнуться на deprecation
источник

k

kvaps in Kubernetes — русскоговорящее сообщество
Установка CRD кластерных привелегий требует
источник

VG

Vladyslav Gutkin in Kubernetes — русскоговорящее сообщество
kvaps
А KubeDB не пробовал кто?
Пробовали с год назад для Elasticsearch и Postgres, с Elasticsearch потом перешли на официальный оператор, а  с Postgres были проблемы по отработке внештатных ситуаций, позже это пофиксили, но в продакшен решение не пошло.
источник

GG

George Gaál in Kubernetes — русскоговорящее сообщество
kvaps
Меня больше поддержка операторов беспокоит, и хорошо когда оператор пилит сама компания-производитель софта. В противном случае есть шанс рано или поздно наткнуться на deprecation
+++
источник

GG

George Gaál in Kubernetes — русскоговорящее сообщество
Это самое страшное после стабильности - поддержка обратной совместимости
источник

M

Mentat in Kubernetes — русскоговорящее сообщество
George Gaál
Это самое страшное после стабильности - поддержка обратной совместимости
можно еще комбо, поддерживать обратную совместимость и заносить гигантские дозы фичей - одновременно.
источник

k

kvaps in Kubernetes — русскоговорящее сообщество
Vladyslav Gutkin
Пробовали с год назад для Elasticsearch и Postgres, с Elasticsearch потом перешли на официальный оператор, а  с Postgres были проблемы по отработке внештатных ситуаций, позже это пофиксили, но в продакшен решение не пошло.
Благодарю за отзыв
источник

k

kvaps in Kubernetes — русскоговорящее сообщество
Мне вот интересно, почему ещё никто не придумал контроллер со своим набором CRD для того чтобы декларативно рулить стейтфулом в кубе, но описывать приложение можно было стандартными кубовыми сущностями
источник

GG

George Gaál in Kubernetes — русскоговорящее сообщество
kvaps
Мне вот интересно, почему ещё никто не придумал контроллер со своим набором CRD для того чтобы декларативно рулить стейтфулом в кубе, но описывать приложение можно было стандартными кубовыми сущностями
Так клаудфаундри с бош что-то такое сделали
источник

GG

George Gaál in Kubernetes — русскоговорящее сообщество
Нет ?
источник

k

kvaps in Kubernetes — русскоговорящее сообщество
George Gaál
Так клаудфаундри с бош что-то такое сделали
OSBAPI? Похожее, но оно для другого всёже
источник

RG

Roman Gorodeckij in Kubernetes — русскоговорящее сообщество
Народ у меня проблема с autoscale. Я вроде как не разу не видел что бы поды были в pending stage, у меня так же и ноды подниматься должны когда поды в pending state. Но сколько раз я не смотрел количество нодов всегда 10 а поды по разному, и поскольку ни новых нодов ни pending state подов не видел делаю вывод что autoscale не работает у меня. ноды по 2vcpu 4gb.

ресурсы на под выставленны такие:
        resources:
         limits:
           cpu: 300m
         requests:
           cpu: 100m
           memory: 250Mi

Вот скейлер:
apiVersion: autoscaling/v2beta1
kind: HorizontalPodAutoscaler
metadata:
 name: prebid-server
 namespace: prebid
spec:
 scaleTargetRef:
   apiVersion: apps/v1
   kind: Deployment
   name: prebid-server
 minReplicas: 15
 maxReplicas: 300
 metrics:
 - type: Resource
   resource:
     name: cpu
     targetAverageUtilization: 70
источник

k

kvaps in Kubernetes — русскоговорящее сообщество
В принципе и флюксовым хелм-оператором можно чарты деплоить
источник

GG

George Gaál in Kubernetes — русскоговорящее сообщество
kvaps
В принципе и флюксовым хелм-оператором можно чарты деплоить
Отличная идея кмк
источник

EP

Eugene Petrovich in Kubernetes — русскоговорящее сообщество
Roman Gorodeckij
Народ у меня проблема с autoscale. Я вроде как не разу не видел что бы поды были в pending stage, у меня так же и ноды подниматься должны когда поды в pending state. Но сколько раз я не смотрел количество нодов всегда 10 а поды по разному, и поскольку ни новых нодов ни pending state подов не видел делаю вывод что autoscale не работает у меня. ноды по 2vcpu 4gb.

ресурсы на под выставленны такие:
        resources:
         limits:
           cpu: 300m
         requests:
           cpu: 100m
           memory: 250Mi

Вот скейлер:
apiVersion: autoscaling/v2beta1
kind: HorizontalPodAutoscaler
metadata:
 name: prebid-server
 namespace: prebid
spec:
 scaleTargetRef:
   apiVersion: apps/v1
   kind: Deployment
   name: prebid-server
 minReplicas: 15
 maxReplicas: 300
 metrics:
 - type: Resource
   resource:
     name: cpu
     targetAverageUtilization: 70
о,  prebid… и как, работает из коробки? Коннекторы не протухли?
источник

SM

Sergey Monakhov in Kubernetes — русскоговорящее сообщество
kvaps
В принципе и флюксовым хелм-оператором можно чарты деплоить
Можно, они его подзабросили что-то
источник