Size: a a a

Kubernetes — русскоговорящее сообщество

2020 November 03

AS

Aleksey Sviridkin in Kubernetes — русскоговорящее сообщество
Ребят, подскажите, ЧЯДНТ?
Раскатал на малинах k3s, пытаюсь сделать kubectl port-forward pods/kubernetes-dashboard-675cdd5b7f-qt8tk 8443:8443 -n kubernetes-dashboard
А в выводе странное:
E1103 19:02:30.638736   14320 portforward.go:400] an error occurred forwarding 8443 -> 8443: error forwarding port 8443 to pod b35b5e5c10dffd4ffff626a9e081dfdb0300589ae527085d0da658908e3c8624, uid : failed to execute portforward in network namespace "/var/run/netns/cni-5f94fd2f-e77c-0eff-7e0d-67731785fc00": failed to dial 8443: dial tcp4 95.24.66.66:8443: connect: connection refused
При том 95.24.66.66 -- мой внешний ip.
источник

AS

Aleksey Sviridkin in Kubernetes — русскоговорящее сообщество
Собсно, возникает не понимание, что вообще происходит и откуда куб вообще узнал мой внешний ip, хотя он тут никак не задействован (я за одним натом с ним)
источник

DS

Dmitry Sergeev in Kubernetes — русскоговорящее сообщество
Aleksandr Kostiuk
гляну, спасибо
используйте штатные сервисы куба. Нет смысла городить consul, когда нужны только сервисы в кубе
источник

AK

Aleksandr Kostiuk in Kubernetes — русскоговорящее сообщество
Dmitry Sergeev
используйте штатные сервисы куба. Нет смысла городить consul, когда нужны только сервисы в кубе
так и будет

только переделаю общение
service.namespace.svc.cluster.local на service.namespace
источник

DS

Dmitry Sergeev in Kubernetes — русскоговорящее сообщество
Aleksandr Kostiuk
так и будет

только переделаю общение
service.namespace.svc.cluster.local на service.namespace
В пределах одного namespace можно просто по service.
а вот насчет резолва DNS в кубе и ndots 5, резолва по sevice, service.namespace, service.namespace.svc, service.namespace.svc.cluster, service.namespace.svc.cluster.local, стоит почитать. Там вот реально есть проблемы https://blog.codacy.com/dns-hell-in-kubernetes/ не выдуманные
Хорошо помогает  node local dns (https://kubernetes.io/docs/tasks/administer-cluster/nodelocaldns/) сразу советую его поставить
источник

AL

Aleksey Lazarev in Kubernetes — русскоговорящее сообщество
Dmitry Sergeev
В пределах одного namespace можно просто по service.
а вот насчет резолва DNS в кубе и ndots 5, резолва по sevice, service.namespace, service.namespace.svc, service.namespace.svc.cluster, service.namespace.svc.cluster.local, стоит почитать. Там вот реально есть проблемы https://blog.codacy.com/dns-hell-in-kubernetes/ не выдуманные
Хорошо помогает  node local dns (https://kubernetes.io/docs/tasks/administer-cluster/nodelocaldns/) сразу советую его поставить
Немного рекламы rke - они тебе прямо подарили автоустановку nodelocal)
источник

AK

Aleksandr Kostiuk in Kubernetes — русскоговорящее сообщество
Dmitry Sergeev
В пределах одного namespace можно просто по service.
а вот насчет резолва DNS в кубе и ndots 5, резолва по sevice, service.namespace, service.namespace.svc, service.namespace.svc.cluster, service.namespace.svc.cluster.local, стоит почитать. Там вот реально есть проблемы https://blog.codacy.com/dns-hell-in-kubernetes/ не выдуманные
Хорошо помогает  node local dns (https://kubernetes.io/docs/tasks/administer-cluster/nodelocaldns/) сразу советую его поставить
сейчас изучу, спасибо
источник

DS

Dmitry Sergeev in Kubernetes — русскоговорящее сообщество
Aleksey Lazarev
Немного рекламы rke - они тебе прямо подарили автоустановку nodelocal)
Но как же так, "это же не часть куба" 😱
источник

AL

Aleksey Lazarev in Kubernetes — русскоговорящее сообщество
Dmitry Sergeev
Но как же так, "это же не часть куба" 😱
Судя по тому что у меня это лезло в каждом кластере - эти воркарраунды уже часть куба)
источник

DS

Dmitry Sergeev in Kubernetes — русскоговорящее сообщество
Aleksey Lazarev
Судя по тому что у меня это лезло в каждом кластере - эти воркарраунды уже часть куба)
а докер нет =) угу.
Да и ставить там же нечего: kubectl apply -f, а конфиг kubelet очень просто меняется, либо твоей IaC, либо https://kubernetes.io/blog/2018/07/11/dynamic-kubelet-configuration/, или тем же kubeadm'ом
источник

AL

Aleksey Lazarev in Kubernetes — русскоговорящее сообщество
Dmitry Sergeev
а докер нет =) угу.
Да и ставить там же нечего: kubectl apply -f, а конфиг kubelet очень просто меняется, либо твоей IaC, либо https://kubernetes.io/blog/2018/07/11/dynamic-kubelet-configuration/, или тем же kubeadm'ом
Да все так то ставиться kubectl apply -f

А что тут вообще обсуждают? Докер не нужон?
источник

V

Vadim in Kubernetes — русскоговорящее сообщество
corsars
Посмотрите ссылку выше - там можно получать каталог consulMap из кубера
а гугл где на дебиан перешел?
в GKE у них есть свой какой-то дистр и убунта
источник

V

Vadim in Kubernetes — русскоговорящее сообщество
источник

V

Vadim in Kubernetes — русскоговорящее сообщество
источник

s

sv in Kubernetes — русскоговорящее сообщество
Подскажите как ожидаемо бекапить pvc. Меня немного утомили поделки типа velero и stash, у которых вроде и неплохая документация, но большинство функционала не работает ожидаемым образом.
Возможно это связано с тем, что у меня кластер развернут на bare metal и в качестве pv выступают как local disks, так и openebs-cstor.
Например, в документации описаны команды бекапа, ты их запускаешь и не получаешь ожидаемый результат.
Как пример нужно забекапить из неймспейса определенные реурсы через тот же velero. И это не работает. На 100% в случае velero работает только бекап всего неймспейса.
Если взять stash, то берешь делаешь демку бекапа с оф. сайта. Запускаешь BackupConfiguration и оно не может нормально перезапустить поды для подключения sidecar. В итоге берешь в деплойменте уменьшаешь replicas до 0, потом ставишь 1. После этого поды запустились, но бекап тупит и не выполняется

Failed to take backup for BackupSession deployment-backup-1604422803. Reason: {"message_type":"error","error":{},"during":"scan","item":"/source/data/lost+found"} {"message_type":"error","error":{},"during":"archival","item":"/source/data/lost+found"} Warning: failed to read all source data during backup
Хотя по сути производится копипаста с оф. доки где я вместо бакета на gcloud использую minio.

Может есть проверенные 100% работающие инструменты для бекапа содержимого pvc?
источник

c

corsars in Kubernetes — русскоговорящее сообщество
Vadim
а гугл где на дебиан перешел?
в GKE у них есть свой какой-то дистр и убунта
Ubunta лет 5 как у них уже не используется - они берут Debian в качестве базовой системы и дальше разворачивают свои  средства разработки и прочее. Источник - SRE Book from Google - почитайте, хорошая книга
источник

GG

George Gaál in Kubernetes — русскоговорящее сообщество
Дебиан фу
источник

GG

George Gaál in Kubernetes — русскоговорящее сообщество
Опенсусе топ
источник

c

corsars in Kubernetes — русскоговорящее сообщество
George Gaál
Опенсусе топ
Гитлер капут. Debian вещь. Я то чего перешел на него - начиная от RH 6x качество дистрибутива стало ухудшаться. Стоят рядом два сервера - оба на 50к соединений - тот что под Debian работает и дальше до 100к сессий а тот что с RH  - потребовал балансирвки. Ядра разные увы и по разному готовятся. А мне отт системы нужно только ядро и несколько утилит.
источник

c

corsars in Kubernetes — русскоговорящее сообщество
Про CentOs 8x вообще не говорю - куча вопросов с отсусттвием докера и заканчивая проблемами с IPSEC
источник