Size: a a a

Kubernetes — русскоговорящее сообщество

2020 November 13

GG

George Gaál in Kubernetes — русскоговорящее сообщество
дрянь какая, тогда отлаживаться
источник

AL

Alexander Lisachenko in Kubernetes — русскоговорящее сообщество
Ну вот я и хотел узнать, есть ли кто ещё с опенстеком у кого работает уже...
источник

VG

Vladyslav Gutkin in Kubernetes — русскоговорящее сообщество
Alexander Lisachenko
Подскажите, а есть кто кубер поверх OpenStack использует?

Интересует, удалось ли подружить LBAAS из OpenStack как внешний LoadBalancer для Kubernetes?
Да, нормально работает, есть уже поддержка и Octavia. Примеры настройки есть в kubespray.
источник

VG

Vladyslav Gutkin in Kubernetes — русскоговорящее сообщество
Vladyslav Gutkin
Да, нормально работает, есть уже поддержка и Octavia. Примеры настройки есть в kubespray.
Например MCS работает с Octavia
источник

AL

Alexander Lisachenko in Kubernetes — русскоговорящее сообщество
Завелось после танцев с бубном на Octavia, пришлось немного обновить OpenStack админам, там была бага в прошлой версии.
источник

AL

Alexander Lisachenko in Kubernetes — русскоговорящее сообщество
Выглядит шикарно ) on-premise cloud 👍🏻
источник

GG

George Gaál in Kubernetes — русскоговорящее сообщество
вот она беда инфраструктурных решений
источник

VG

Vladyslav Gutkin in Kubernetes — русскоговорящее сообщество
Alexander Lisachenko
Выглядит шикарно ) on-premise cloud 👍🏻
Ну собственно для этого и пилилось)
источник

AL

Alexander Lisachenko in Kubernetes — русскоговорящее сообщество
Vladyslav Gutkin
Ну собственно для этого и пилилось)
Ещё остаётся вопрос - а нужен ли Flannel поверх Neutron сетки? Или можно прям напрямую сделать работу из кубера с Neutron?
источник

VG

Vladyslav Gutkin in Kubernetes — русскоговорящее сообщество
Alexander Lisachenko
Ещё остаётся вопрос - а нужен ли Flannel поверх Neutron сетки? Или можно прям напрямую сделать работу из кубера с Neutron?
Фланнел нужен, но есть решения которые позволяют сделать и на neutron. Но это лишние трудозатраты.
источник

AL

Alexander Lisachenko in Kubernetes — русскоговорящее сообщество
Vladyslav Gutkin
Фланнел нужен, но есть решения которые позволяют сделать и на neutron. Но это лишние трудозатраты.
А это не добавляет некоторого оверхеда?
источник

VG

Vladyslav Gutkin in Kubernetes — русскоговорящее сообщество
Он не настолько большой если у вас десяток кластеров.
источник

GG

George Gaál in Kubernetes — русскоговорящее сообщество
вообще интересно было б фланнель выкинуть
источник

GG

George Gaál in Kubernetes — русскоговорящее сообщество
вмварь же интегрирует кубер с nsx-t
источник

AL

Alexander Lisachenko in Kubernetes — русскоговорящее сообщество
George Gaál
вообще интересно было б фланнель выкинуть
Вот я тоже об этом думаю
источник

AL

Alexander Lisachenko in Kubernetes — русскоговорящее сообщество
Получилось бы весьма красиво - сеть и весь хард на OpenStack, а кубер как у себя дома пользуется API OpenStack для управления ресурсами и сетями
источник

S

Stefan in Kubernetes — русскоговорящее сообщество
добрый день
почему когда запросив больше ядер чем физически возможно на нодах, cluster-autosclaer в таком случае не провижинит новый сервак? ошибка то мне об этом говорит, но разве это не должно быть триггером для автоскейлера?
event.go:278] Event(v1.ObjectReference{Kind:"Pod", Namespace:"core-production", Name:"core-production-78667d79c8-bg9gf", APIVersion:"v1", ResourceVersion:"8840755", FieldPath:""}): type: 'Normal' reason: 'NotTriggerScaleUp' pod didn't trigger scale-up (it wouldn't fit if a new node is added): 2 Insufficient cpu
источник

EP

Eugene Petrovich in Kubernetes — русскоговорящее сообщество
Stefan
добрый день
почему когда запросив больше ядер чем физически возможно на нодах, cluster-autosclaer в таком случае не провижинит новый сервак? ошибка то мне об этом говорит, но разве это не должно быть триггером для автоскейлера?
event.go:278] Event(v1.ObjectReference{Kind:"Pod", Namespace:"core-production", Name:"core-production-78667d79c8-bg9gf", APIVersion:"v1", ResourceVersion:"8840755", FieldPath:""}): type: 'Normal' reason: 'NotTriggerScaleUp' pod didn't trigger scale-up (it wouldn't fit if a new node is added): 2 Insufficient cpu
pod didn't trigger scale-up (it wouldn't fit if a new node is added) - вот ответ
источник

EP

Eugene Petrovich in Kubernetes — русскоговорящее сообщество
скейлинг будет бусполезным, автоскейлер умный
источник

EP

Eugene Petrovich in Kubernetes — русскоговорящее сообщество
сколько бы он ни поднял нод - твой под не влезет ни на одну
источник