Size: a a a

2020 December 02

IV

Igor V in ctodailychat
оркестрация контейнеров
источник

IV

Igor V in ctodailychat
LB, DNS, Services, Task, Storage, Events… предоставляет все необходимое
источник

O

Onlinehead in ctodailychat
ну... я не согласен с тобой про позиционирование "таким должен был быть k8s", потому что он изначально задумывался более низкоуровневой платформой все таки.
источник

O

Onlinehead in ctodailychat
Большинство перечисленных тобой сервисов существовали и без fargate. В принципе да, если ты хочешь "просто деплоить контейнер и чтобы оно там работало pay as you go" на уровне контейнера - то да. Это действительно очень похоже на Cloud Run. Но с ним хотя бы нет вендор лока:)
источник

IV

Igor V in ctodailychat
речь не о том что эти сервисы появились благодаря фаргейту, а в том что покрывается большинство задач ради которых заносят k8s
источник

O

Onlinehead in ctodailychat
Но там же несколько юзкейсов. Если ты fargate используешь для запуска подов кубика, то у тебя по сути мало что меняется, т.к. у тебя просто есть кубик. А если вот в режиме "просто контейнеры давай мне запускай где нибудь чтобы работало" - то да.
источник

O

Onlinehead in ctodailychat
Igor V
речь не о том что эти сервисы появились благодаря фаргейту, а в том что покрывается большинство задач ради которых заносят k8s
Ну, в целом я согласен с этим утверждением.
источник

O

Onlinehead in ctodailychat
пока тебе нужна достаточно простая конфигурация с достаточно простыми приложениями (чтобы там без всяких вертикальных автоскейлеров, балансеров хитрых, ингресов кастомных, вообще кастомных объектов и приложений, deamon и stateful set-ов с гарантированным порядком запуска и идентификаторов) - фаргейт будет покрывать твои потребности "малой кровью".
источник

IV

Igor V in ctodailychat
мне кажется что AWS сделали EKS просто чтобы отвечать на вопрос «да, у нас есть managed k8s», видно что все лучшие умы брошены на ECS и Fargate
источник

O

Onlinehead in ctodailychat
Ну, кейсы для ECS и Fargate легко ломаются. Если у тебя внезапно приложение такое, что каждая его реплика всегда должна иметь примонтированным один и тот же диск или хостнейм чтобы не менялся (кейс про любой кластер чего нибудь вроде etcd), то хрен пойми что с этим делать.
источник

O

Onlinehead in ctodailychat
Или если у тебя больше одного клауда. Или у тебя есть требование обеспечить запуск в клауде "по выбору кастомера" (вендорлок же лютый).
источник

O

Onlinehead in ctodailychat
Короче оно и правда хорошо в своей нише, но глобализировать про "лучшие умы" я бы не стал:) Хотя кто его знает, может и так..
источник

IV

Igor V in ctodailychat
лучшие умы внутри aws конечно же
источник

O

Onlinehead in ctodailychat
Igor V
лучшие умы внутри aws конечно же
Лучшие умы AWS мне кажется сидят совсем не в разработке:)
источник

IV

Igor V in ctodailychat
я пару раз уже уперся в максимальное кол-во fargate task внутри кластера. конечно для клауд решения 100 параллельно запущенных тасков это смешно
источник

O

Onlinehead in ctodailychat
Но если без шуток - это весьма прикольная штука. Да, она не умеет прям все, не расширяется, но при этом то, что умеет, делает весьма неплохо, особенно если тебе нужен прям амазон (а не допустим гугл с его cloud run/knative без вендорлока) и тебя пугает кубик по каким-то причинам.
источник

O

Onlinehead in ctodailychat
Igor V
я пару раз уже уперся в максимальное кол-во fargate task внутри кластера. конечно для клауд решения 100 параллельно запущенных тасков это смешно
Да, звучит странно. Это железное ограничение или просто безопасности ради как обычно и поднимается до произвольного?
источник

IV

Igor V in ctodailychat
это такой soft-hard limit,  нужно долго общаться с саппортом  и объяснять твой use case чтобы тебе подняли до hard limit, но там тоже смешные числа.
источник

IV

Igor V in ctodailychat
мы суровый serverless
источник

O

Onlinehead in ctodailychat
Igor V
мы суровый serverless
Хехе. Там еще есть приколы - это ограничение на количество правил FW, вообще SG (к чему уже все привыкли) и количество балансеров в VPC (а вот это печально). Причем его им как-то очень больно поднимать по какой-то причине и все явно завязано именно на VPC. Особенности реализации видимо. Ну то есть больно до того, что "ну мы поднимем в одном месте, но убавим в другом", причем общались понятно даже не через саппорт.
источник