Size: a a a

Kubernetes — русскоговорящее сообщество

2020 September 22

MC

M@s0n C01em@n in Kubernetes — русскоговорящее сообщество
4c74356b41
распятие
это решение?)
источник

4

4c74356b41 in Kubernetes — русскоговорящее сообщество
это ответ на вопрос
источник

A

Andrew in Kubernetes — русскоговорящее сообщество
А тут можно задать вопрос по GKE?
источник

MC

M@s0n C01em@n in Kubernetes — русскоговорящее сообщество
4c74356b41
это ответ на вопрос
а если серьёзно?
источник

SK

S K in Kubernetes — русскоговорящее сообщество
Как нормально обновить кластер через kubeadm?
Обновил на нодах kubelet и kubectl.
Сделал ubeadm upgrade apply v1.19.2, говорит что все ок, обновились до 1.19.2:  SUCCESS! Your cluster was upgraded to "v1.19.2". Enjoy!

Поды proxy и scheduler тоже обновились, get nodes показывает 1.19.2.
Но kubeadm upgrade plan работает через раз, иногда показывает что кластер обновлен до 1.19.2, а иногда нет:
COMPONENT                 CURRENT    AVAILABLE
kube-apiserver            v1.19.0    v1.19.2
kube-controller-manager   v1.19.0    v1.19.2
kube-scheduler            v1.19.0    v1.19.2
kube-proxy                v1.19.0    v1.19.2
CoreDNS                   1.7.0      1.7.0
etcd                      3.4.13-0   3.4.13-0

You can now apply the upgrade by executing the following command:

       kubeadm upgrade apply v1.19.2
источник

SK

S K in Kubernetes — русскоговорящее сообщество
Хрень какая-то, иногда вот так:
root@k1m1:~# kubeadm upgrade plan
[upgrade/config] Making sure the configuration is correct:
[upgrade/config] Reading configuration from the cluster...
[upgrade/config] FYI: You can look at this config file with 'kubectl -n kube-system get cm kubeadm-config -oyaml'
[preflight] Running pre-flight checks.
[upgrade] Running cluster health checks
[upgrade] Fetching available versions to upgrade to
[upgrade/versions] Cluster version: v1.19.2
[upgrade/versions] kubeadm version: v1.19.2
[upgrade/versions] Latest stable version: v1.19.2
[upgrade/versions] Latest stable version: v1.19.2
[upgrade/versions] Latest version in the v1.19 series: v1.19.2
[upgrade/versions] Latest version in the v1.19 series: v1.19.2
источник

SK

S K in Kubernetes — русскоговорящее сообщество
А иногда что кластер версии 1.19.0 и надо обновляться
источник

TL

Timofey Larkin in Kubernetes — русскоговорящее сообщество
George Gaál
Хо-хо, это троллинг такой ?
Не, ну в связке с каким-нибудь арго ещё куда ни шло
источник

AS

Alexey Shanko in Kubernetes — русскоговорящее сообщество
Timofey Larkin
Не, ну в связке с каким-нибудь арго ещё куда ни шло
и с Orphaned Resources monitoring
источник

L

Lucky SB in Kubernetes — русскоговорящее сообщество
S K
Как нормально обновить кластер через kubeadm?
Обновил на нодах kubelet и kubectl.
Сделал ubeadm upgrade apply v1.19.2, говорит что все ок, обновились до 1.19.2:  SUCCESS! Your cluster was upgraded to "v1.19.2". Enjoy!

Поды proxy и scheduler тоже обновились, get nodes показывает 1.19.2.
Но kubeadm upgrade plan работает через раз, иногда показывает что кластер обновлен до 1.19.2, а иногда нет:
COMPONENT                 CURRENT    AVAILABLE
kube-apiserver            v1.19.0    v1.19.2
kube-controller-manager   v1.19.0    v1.19.2
kube-scheduler            v1.19.0    v1.19.2
kube-proxy                v1.19.0    v1.19.2
CoreDNS                   1.7.0      1.7.0
etcd                      3.4.13-0   3.4.13-0

You can now apply the upgrade by executing the following command:

       kubeadm upgrade apply v1.19.2
ну а фигли ты хотел. это ж кубадм.
тебе надо его на всех мастерах запускать, а не только на первом.
у тебя щас контролплейн 1.19.0 на втором и третьем мастерах запущен
источник

L

Lucky SB in Kubernetes — русскоговорящее сообщество
хмм.
kube-proxy                v1.19.0    v1.19.2 - а вот это явно баг. куб-прокси же кубадм демонсетом запускает. так что он то должен быть везде новым
источник

GG

George Gaál in Kubernetes — русскоговорящее сообщество
Alexey Shanko
и с Orphaned Resources monitoring
Есть какая-то общая вменяемая практика как это делать ?
источник

SK

S K in Kubernetes — русскоговорящее сообщество
Lucky SB
ну а фигли ты хотел. это ж кубадм.
тебе надо его на всех мастерах запускать, а не только на первом.
у тебя щас контролплейн 1.19.0 на втором и третьем мастерах запущен
О как, и правда, благодарю
источник

Y

Yaros in Kubernetes — русскоговорящее сообщество
мужики, а дайте ответ на нубский вопрос, внутрикластерный урл типа такого: something-something.some-prefix.svc.cluster.local это FQDN или нет?
источник

AS

Alexey Shanko in Kubernetes — русскоговорящее сообщество
George Gaál
Есть какая-то общая вменяемая практика как это делать ?
в аргосд — просто включить на проекте. флюкс — не знаю
источник

k

kvaps in Kubernetes — русскоговорящее сообщество
Andrey Mitrofanov
Без хелма твой кластер превратиться в помойку.
да и с хельмом тоже
источник

GG

George Gaál in Kubernetes — русскоговорящее сообщество
Alexey Shanko
в аргосд — просто включить на проекте. флюкс — не знаю
У флюкса тоже есть сборщик мусора
источник

GG

George Gaál in Kubernetes — русскоговорящее сообщество
Но я ему не очень доверяю
источник

GG

George Gaál in Kubernetes — русскоговорящее сообщество
kvaps
да и с хельмом тоже
Точно!
источник

AS

Alexey Shanko in Kubernetes — русскоговорящее сообщество
George Gaál
У флюкса тоже есть сборщик мусора
ты наверное про prune, это немного не про Orphaned Resources monitoring. в аргосд есть разделение эти двух процессов
источник