Size: a a a

Kubernetes — русскоговорящее сообщество

2021 April 11

S

Sergey in Kubernetes — русскоговорящее сообщество
источник

AS

Artem Silenkov in Kubernetes — русскоговорящее сообщество
это обмазывание слоев говна друг на друга
источник

AS

Artem Silenkov in Kubernetes — русскоговорящее сообщество
лучше избежать
источник

GG

George Gaál in Kubernetes — русскоговорящее сообщество
Согласен
источник

:

: in Kubernetes — русскоговорящее сообщество
привет всем,
а секреты  не шарятся между неймспейсамы?
источник

:

: in Kubernetes — русскоговорящее сообщество
нашел - нет
источник

D

Denis in Kubernetes — русскоговорящее сообщество
Юзаю managed кубер от digitalocean, последнее время воркер нода меняет статус в NotReady каждые ~24 часа. Поддержка "изучает проблему" уже 3 недели, пингую их, новости не сообщают. Кто то сталкивался?

k describe node
https://gist.github.com/nnqq/91f939efa94a92a3c6ba89b9a374739e

UPD: нода умирает из за тысяч chrome процессов, но без родительского, создаваемых pupetter, возможно из за того что после убийства по OOM сервис не вырубает пупеттер корректно и остаются фантомные процессы хрома
источник

DS

Dmitry Sergeev in Kubernetes — русскоговорящее сообщество
тоже в среднем kubelet 16%
источник

DS

Dmitry Sergeev in Kubernetes — русскоговорящее сообщество
context switch
источник

DS

Dmitry Sergeev in Kubernetes — русскоговорящее сообщество
Билды на докере, кластера на containerd. Одно другому же не мешает
источник

DS

Dmitry Sergeev in Kubernetes — русскоговорящее сообщество
а в евентах причины то какие пишет? Просто с kubelet связь пропадает?
источник

D

Denis in Kubernetes — русскоговорящее сообщество
я отредактировал gist, копипастнул весь describe, из странного вот:

Conditions:
Ready                False   Sun, 11 Apr 2021 22:26:27 +0300   Sun, 11 Apr 2021 22:01:22 +0300   KubeletNotReady              [container runtime is down, PLEG is not healthy: pleg was last seen active 25m35.233938732s ago; threshold is 3m0s]

Events:
 Warning  ContainerGCFailed  41s (x25 over 24m)  kubelet, pool-dma3v2ly6-8fvqk  rpc error: code = Unavailable desc = connection error: desc = "transport: Error while dialing dial unix /run/containerd/containerd.sock: connect: connection refused"
источник

DS

Dmitry Sergeev in Kubernetes — русскоговорящее сообщество
В managed решениях, самый простой способ взять новую ноду и дропнуть эту. Печальное что-то там на ней происходит /run/containerd/containerd.sock: connect: connection refused
источник

D

Denis in Kubernetes — русскоговорящее сообщество
решение с пересозданием ноды то работает, но руками это делать каждый день уже надоело
источник

DS

Dmitry Sergeev in Kubernetes — русскоговорящее сообщество
а там ноды же под вашим управлением? Может ресурсов не хватает так, что containerd отваливается? На ноду захоидили смотрели что там в целом по логам как себя чувствует?
источник

DS

Dmitry Sergeev in Kubernetes — русскоговорящее сообщество
Вот это еще смущает  Container Runtime Version:  containerd://Unknown
источник

D

Denis in Kubernetes — русскоговорящее сообщество
воркер да, мастер у них, у меня его даже в списке нет
по панели никогда более 30% CPU и 40% оперативы не поднимается
задеплоены хобби проекты с 1 rps
источник
2021 April 12

c

corsars in Kubernetes — русскоговорящее сообщество
Правильно. Учитывая что докер это дыра в безопасности Кубернетес https://nvd.nist.gov/vuln/detail/CVE-2019-5736
источник

DS

Dmitry Sergeev in Kubernetes — русскоговорящее сообщество
так это уязвимость runc
источник

HN

Harry N in Kubernetes — русскоговорящее сообщество
you should be able to now
источник