Size: a a a

Kubernetes — русскоговорящее сообщество

2020 September 30

TL

Timofey Larkin in Kubernetes — русскоговорящее сообщество
kvaps
ДевОпсКонф кончился, все пиво по скайпу^Wзуму бухают
Хде комната с пивом?
источник

S

Stas in Kubernetes — русскоговорящее сообщество
Говно все эти ваши managed кубера кроме gke  - я все кроме do пробовал. Gke даёт возможность все сделать когда ты нихрена не понимаешь и возможность сделать все что ты хочешь когда все понимаешь. У меня за все время не получилось сделать только одну вещь в gke: я не смог под gkeшную инстанс группу подхачить вместо дефолтной убунты свой образ с пропатченной лицухой, чтобы кубевирт запускать на гке. Но может я там сам скосячил
источник

TL

Timofey Larkin in Kubernetes — русскоговорящее сообщество
Stas
Говно все эти ваши managed кубера кроме gke  - я все кроме do пробовал. Gke даёт возможность все сделать когда ты нихрена не понимаешь и возможность сделать все что ты хочешь когда все понимаешь. У меня за все время не получилось сделать только одну вещь в gke: я не смог под gkeшную инстанс группу подхачить вместо дефолтной убунты свой образ с пропатченной лицухой, чтобы кубевирт запускать на гке. Но может я там сам скосячил
ну менеджед вообще с точки зрения бородатых одминов говно, пускай разрабы поднимают сингл-тенант кластера где срать они хотели на хитрые цилиумы и прочее
источник

AS

Artem Silenkov in Kubernetes — русскоговорящее сообщество
а причем тут кубер, он везде одинаковый плюс минус.
источник

TL

Timofey Larkin in Kubernetes — русскоговорящее сообщество
Artem Silenkov
а причем тут кубер, он везде одинаковый плюс минус.
да не, ну тут же потюнить платформу надо, если ты делаешь что-то менее тривиальное, чем хеллоу ворлд
источник

AS

Artem Silenkov in Kubernetes — русскоговорящее сообщество
гке авс это глубина дна тулзов облака и особенности реализации их видения сесурити и автоматизации
источник

AS

Artem Silenkov in Kubernetes — русскоговорящее сообщество
чо там тюнить в контролплейне то
источник

SM

Sergey Monakhov in Kubernetes — русскоговорящее сообщество
Artem Silenkov
а причем тут кубер, он везде одинаковый плюс минус.
так к куберу и нет притензий, есть проблемы в которые его засунли
источник

AS

Artem Silenkov in Kubernetes — русскоговорящее сообщество
остальное все тюнится везде )
источник

AS

Artem Silenkov in Kubernetes — русскоговорящее сообщество
правильный рбак, и мало кто вдуплит даже что за кубер и где крутится ))
источник

k

kvaps in Kubernetes — русскоговорящее сообщество
Stas
Говно все эти ваши managed кубера кроме gke  - я все кроме do пробовал. Gke даёт возможность все сделать когда ты нихрена не понимаешь и возможность сделать все что ты хочешь когда все понимаешь. У меня за все время не получилось сделать только одну вещь в gke: я не смог под gkeшную инстанс группу подхачить вместо дефолтной убунты свой образ с пропатченной лицухой, чтобы кубевирт запускать на гке. Но может я там сам скосячил
Но стоит признать gke достаточно дорогой, хоть и стоит своих денег
источник

EP

Eugene Petrovich in Kubernetes — русскоговорящее сообщество
Sergey Monakhov
ну как сказать, хотите вот автоскейл, идите вот в кли, тк хер иначе, хотите ингресс, извините, только вот через наш, хотите чуть больше ресурсов для вм, тогда ебите отдел продаж, чтоб на них снезошло. Я хочу просто кубер, без всего вот этого говна, зачем мне знать о каких то вм, о  ресурсах на них, знать как они там быстро просруться, если потребуется или нет и просруться ли вообще. Да и нужно это обязательно все в IAc засунуть, иначе потом хер какие то специфичные параметры воспроизведешь, а если нет модуля для тераформ то или писать или ждать и вот зачем это все, если я хочу просто кубер?
Возможно не в каждом облаке или бареметалл кубик нормально обслуживается, но вроде как тройка EKS/GKS/AKS вполне боевая.
Ещё в марте этого года я не имел никакого hands-on экспириенся с kubernetes, но хорошо ориентировался в AWS и GCP + Mesos/Nomd.
За месяц в AWS собрал кластер с двумя ASG (on-demand и spot), автоскейлер, ингресс на нативном AWS load balacer (ALB).
Работает отлично, все довольны. Уже 4 продакшн кластера + self managed keydb, kafka, clickhouse. За пол года ни один сервис не развалился.
Конечно были моменты где волосы на голове выпадали, но недолго. И очень сильно помог eks-community-module для терраформ
источник

S

Stas in Kubernetes — русскоговорящее сообщество
kvaps
Но стоит признать gke достаточно дорогой, хоть и стоит своих денег
А чего он дорогой? Там начали брать за мастер но не очень много. А так все по цене компьюта
источник

k

kvaps in Kubernetes — русскоговорящее сообщество
Stas
А чего он дорогой? Там начали брать за мастер но не очень много. А так все по цене компьюта
Компьют по сравнению с aws дороже, не?
источник

S

Stas in Kubernetes — русскоговорящее сообщество
ЦПУ дешевле даже
источник

S

Stas in Kubernetes — русскоговорящее сообщество
Плюс скидки - сустейнд узедж
источник

k

kvaps in Kubernetes — русскоговорящее сообщество
Но я тот ещё щетовод, если что
источник

AC

Andru Cherny in Kubernetes — русскоговорящее сообщество
Ребят. Вопрос по openebs. Юзаю в некоторых местах openebs-hostpath. и одну ноду из кластера нужно было слить, для утилизации. Так вот, контейнеры попытались переподнятся на другой ноде но не смогли так-как там они зависят от данных с ноды которая сливается. Есть ли какое-то решение чтобы.
1. Если пода пересоздаётся на другой ноде чтоб она сетапила себе новую pvs-шку
2. Чотб при пересоздании пода тянула за собой данные
источник

AC

Andru Cherny in Kubernetes — русскоговорящее сообщество
А то по факту получается что если одна нода выйдет из стоя то получу
0/4 nodes are available: 1 node(s) were unschedulable, 3 node(s) had volume node affinity conflict.
источник

SM

Sergey Monakhov in Kubernetes — русскоговорящее сообщество
В чем проблема современных облаков, они все "старые", не в том смысле что там железо древнее, хотя не без этого, а в том, что вся их модель построена, на вм. У авс есть отличный костыль https://github.com/firecracker-microvm/firecracker, квм внутри квм, в 2018  году. Помоему они лямбды через него гоняют, forgate возможно хз, gcp вообще рекоменудет прогревать лямбды, а то они могут стартовать до 30сек. В итоге вам предлагают менеджет кубер, который вы сами же должны описать в терраформ или еще где, потратить на описания это кластера время, потом это поделие будет пердеть 25 минут, чтобы развернуться, потом окажется что вы забыли включить автоскейл, а для этого надо переподнять все мастера... ну ок, подождем еще 25 минут, в итоге они зарезервируют под кубер 700мб памяти и чуть ли не ядро на каждой вм, хотя вы там не собирались запускать 100500 подов и провадить космические нагрузки на кластер, но им удобно - возьмете инстанс пожирнее. А если вы развернулись в мультирегион, то простите оставить мастер в одном уже не выйдет. Это если оставить еще старые версии, csi и cni реалзиции и прочие... С этим я столкнулся в gke. Я не говорю, что терраформ это плохо, я не говорю что менеджет это плохо, просто, то как сейчас это провайдят выглядит ужасно, в моей утопии я бы хотел просто получить доступ в кластер, создавать там ресурсы и платить только за их использование вот это был бы менеджед, так менеджед

IMHO
источник