Size: a a a

Kubernetes — русскоговорящее сообщество

2020 October 20

TL

Timofey Larkin in Kubernetes — русскоговорящее сообщество
Alexander Zaitsev
а как сейчас принято в k8s организовывать CD? Что хочу: автоматическое развертывание деплоймента из latest образа на docker hub. Не уверен насчёт наличия хука на обновление, поэтому ок будет, если будет проверять раз в N единицы времени
фу, гадость какая
источник

TL

Timofey Larkin in Kubernetes — русскоговорящее сообщество
> Не уверен насчёт наличия хука на обновление,

таких нет и for good reason
источник

N

NB in Kubernetes — русскоговорящее сообщество
gitlab runer? jenkins?
источник

TL

Timofey Larkin in Kubernetes — русскоговорящее сообщество
NB
gitlab runer? jenkins?
+
источник

AZ

Alexander Zaitsev in Kubernetes — русскоговорящее сообщество
NB
gitlab runer? jenkins?
а есть чего попроще хостануть? Сейчас flow какой: код льется на гитхаб, оттуда автоматически триггерится сборка на docker hub'е. Остался только процесс раскатки. Раньше у меня этим podman-auto-update вообще занимался :)
источник

N

NB in Kubernetes — русскоговорящее сообщество
Alexander Zaitsev
а есть чего попроще хостануть? Сейчас flow какой: код льется на гитхаб, оттуда автоматически триггерится сборка на docker hub'е. Остался только процесс раскатки. Раньше у меня этим podman-auto-update вообще занимался :)
Думаю проще в таком случае все на github actions сделать
источник

N

NB in Kubernetes — русскоговорящее сообщество
Он простой шопепец
источник

N

NB in Kubernetes — русскоговорящее сообщество
И удобный
источник

AZ

Alexander Zaitsev in Kubernetes — русскоговорящее сообщество
NB
Думаю проще в таком случае все на github actions сделать
хм, действительно. покопаю в эту сторону. надеюсь, оно умеет работать с self-hosted k8s
источник

GG

George Gaál in Kubernetes — русскоговорящее сообщество
Утащил в ссылки
источник

GG

George Gaál in Kubernetes — русскоговорящее сообщество
Alexander Zaitsev
а как сейчас принято в k8s организовывать CD? Что хочу: автоматическое развертывание деплоймента из latest образа на docker hub. Не уверен насчёт наличия хука на обновление, поэтому ок будет, если будет проверять раз в N единицы времени
FluxCD does решает эту проблему
источник

N

Nicolae in Kubernetes — русскоговорящее сообщество
Nicolae
Господа, как можно удалить namespace ресурс из ArgoCD если его нельзя удалить? Добавили по ошибке, теперь он пытается его постоянно удалить и не может. В гугле не нашёл решение..
нашёл поискав в их официальном слаке: https://argoproj.slack.com/archives/CASHNF6MS/p1573762442111100?thread_ts=1573761934.109400&cid=CASHNF6MS
просто удалить без cascade, затем удалить лишний labels у проблемного namespace
источник

AC

Andru Cherny in Kubernetes — русскоговорящее сообщество
Ребята привет, скажите а можно как-то заставить хелм выводить ивенты подов которые он создаёт
источник

GG

George Gaál in Kubernetes — русскоговорящее сообщество
в смысле
источник

GG

George Gaál in Kubernetes — русскоговорящее сообщество
kubewatch же вроде для этого ?
источник

EP

Eugene Petrovich in Kubernetes — русскоговорящее сообщество
может werf/kubedog тоже подойдёт под запрос
источник

С

Сергей in Kubernetes — русскоговорящее сообщество
кто нибудь  может поделиться конфигом DestinationRule для istio который делает retries в случае если бекенд вернул ему 5хх ошибку? Я пока осилил только выключение такого сервера из upstream, но я хочу сделать так чтобы  envoy  сам повторял за меня такой request без перезапроса.
источник

С

Сергей in Kubernetes — русскоговорящее сообщество
Сергей
кто нибудь  может поделиться конфигом DestinationRule для istio который делает retries в случае если бекенд вернул ему 5хх ошибку? Я пока осилил только выключение такого сервера из upstream, но я хочу сделать так чтобы  envoy  сам повторял за меня такой request без перезапроса.
глупость спросил. нашел
источник

S

Solyar in Kubernetes — русскоговорящее сообщество
Сергей
кто нибудь  может поделиться конфигом DestinationRule для istio который делает retries в случае если бекенд вернул ему 5хх ошибку? Я пока осилил только выключение такого сервера из upstream, но я хочу сделать так чтобы  envoy  сам повторял за меня такой request без перезапроса.
сиркут брейкер истио умеет (ну и в целом такая реализация основана на сиркут брейкер паттерн)
источник
2020 October 21

X8

Xziy 88 in Kubernetes — русскоговорящее сообщество
Всем привет, настроил я в гараже кластер из трех нод (м+в+в). Все это на баре метал. Ну и вообщем работает и радует меня каждый день. Ботов там запускаю, если чтото надо клиенту показать то сразу собирается само. Вообщем все как в индйских фильмах, с песней и пляской... А вот пляски начинаются тогда когда свет выключают. первые три раза класстер поднимался нормально, было все ок. Я думаю ну ок значит оно такое живучее из коробки. Но дальше начало глючить. Купил ИБП вроде кратковременные перебои со светом решилиись вопросы. Но иногда бывает что ИБП не хватает. Я задумался как потушить сервер правильно. погуглил и почти все пишут что выключи все контейнеры на всех нодах, потом ноды и потом мастер. Ну  включать обратно сначало мастер и потом воркеры. Хочется сделать чтобы это все было автоматически по парашуту от ИБП. Но тогда придется адмиристрировать скрипты выключения и включения каждый раз когда надо добавить чтото в классетр. Может ктото имеет другое виденье по реализации этого кейса? Какойто удобный выключатель и включатель =) Спс
источник