Size: a a a

Kubernetes — русскоговорящее сообщество

2020 November 04

VT

Vladimir Tselm in Kubernetes — русскоговорящее сообщество
оно уже собрано в образ. Будешь пересобирать для каждого энва?
источник

AN

Alexey Nakhimov in Kubernetes — русскоговорящее сообщество
Alexey Nakhimov
Что-то я запутался.... Похоже, что-то у меня не так с разрешением имен в кластере.....
Вот мой кластер:

└─# kubectl get nodes
NAME          STATUS   ROLES         AGE    VERSION
cuba-kub-01   Ready    etcd,master   2d5h   v1.18.10+rke2r1
cuba-kub-02   Ready    etcd,master   2d1h   v1.18.10+rke2r1
cuba-kub-03   Ready    etcd,master   2d     v1.18.10+rke2r1
cuba-kub-04   Ready    node          2d     v1.18.10+rke2r1
cuba-kub-05   Ready    node          47h    v1.18.10+rke2r1
cuba-kub-06   Ready    node          47h    v1.18.10+rke2r1
✓ ��[ admin@cuba-kub-01 ]��[ 10.8.4.24 172.17.0.1 10.42.0.0 ]─[ 16:58:16 ]


Обратите внимания, что имена хостов все "короткие", они соответствуют хостнеймам машин. Поэтому пинг по короткому имени не пройдет, например, ping cuba-kub-02 вызовет ошибку. Во внутреннем DNS для этих хостов созданы записи, поэтому пинг по FQDN пройдет нормально:

└─# ping cuba-kub-02.haulmont.com
PING cuba-kub-02 (10.8.4.28) 56(84) bytes of data.
64 bytes from cuba-kub-02 (10.8.4.28): icmp_seq=1 ttl=64 time=0.263 ms


Теперь, собственно, проблема..... Я установил в кластер Прометеус, пытаюсь просто сделать port-forward для Grafana, находясь на первом мастере:

└─# kubectl -n monitoring port-forward prometheus-grafana-59bfb6b6bf-b476f 3000:3000
error: error upgrading connection: error dialing backend: dial tcp: lookup cuba-kub-06 on 10.5.0.3:53: server misbehaving
✗ ��[ admin@cuba-kub-01 ]��[ 10.8.4.24 172.17.0.1 10.42.0.0 ]─[ 17:05:53 ]



10.5.0.3 - это доменный DNS. Получается, Кубер ругается на то, что не может найти в DNS адреса cuba-kub-06.... Но там короткого и нет! Там есть FQDN - cuba-kub-06.haulmont.com

Я решил попробовать иначе - просто сделал Service, который пробросит порт 3000 нужного пода на NodePort. Сделал. У меня три воркера, по идее, Grafana должна быть доступна на любой рабочей ноде.... И по netstat я вижу, что нужный порт открылся на всех трех рабочих нодах....
Но! Реально загружается веб морда Графаны только на той рабочей ноде, где крутится под с Графаной, т.е., на cuba-kub-06 при попытке сменить ноду для подключения, браузер долго висит, а потом отваливается по таймауту.
Да и в Графане не открывается ни один дашбоард - говорит, что ошибка сервиса.
Такое ощущение, что отсутствует роутинг между рабочими нодами.....
Как быть?
Коллеги, я идиот! (((((
Я несколько дней назад сделал в DNS запись, которой соответствуют все три айпишника рабочих нод (уже не помню, зачем)! И она первая вываливается при пинге по имени (я добавил в убунтовский netplan опцию search domain). Убил эту запись в DNS - все волшебно заработало! )))))
источник

AN

Alexey Nakhimov in Kubernetes — русскоговорящее сообщество
вернее, порт форвардинг заработал
источник

AN

Alexey Nakhimov in Kubernetes — русскоговорящее сообщество
ага! и NodePort Графаны тоже открылся на всех рабочих нодах ))))
источник

k

kvaps in Kubernetes — русскоговорящее сообщество
О, прикольно, оказывается docker (как и куб) позволяет указывать image tag и digest одновременно, к примеру:

alpine:3.12@sha256:c0e9560cda118f9ec63ddefb4a173a2b2a0347082d7dff7dc14272e7841a5b5a

вопрос на засыпку: какую в данном случае стоит ожидать реакцию?
Тэг проигнорируется и всегда будет использоваться digest?
источник

A

Alex in Kubernetes — русскоговорящее сообщество
kvaps
О, прикольно, оказывается docker (как и куб) позволяет указывать image tag и digest одновременно, к примеру:

alpine:3.12@sha256:c0e9560cda118f9ec63ddefb4a173a2b2a0347082d7dff7dc14272e7841a5b5a

вопрос на засыпку: какую в данном случае стоит ожидать реакцию?
Тэг проигнорируется и всегда будет использоваться digest?
можно на собеседованиях спрашивать, чтоб кандидат посылал тебя нах 🙂
источник

k

kvaps in Kubernetes — русскоговорящее сообщество
kvaps
О, прикольно, оказывается docker (как и куб) позволяет указывать image tag и digest одновременно, к примеру:

alpine:3.12@sha256:c0e9560cda118f9ec63ddefb4a173a2b2a0347082d7dff7dc14272e7841a5b5a

вопрос на засыпку: какую в данном случае стоит ожидать реакцию?
Тэг проигнорируется и всегда будет использоваться digest?
похоже я был прав:

alpine:aaaaassssdddd@sha256:c0e9560cda118f9ec63ddefb4a173a2b2a0347082d7dff7dc14272e7841a5b5a
- запустился

alpine:aaaaassssdddd
- manifest unknown
источник

4

4c74356b41 in Kubernetes — русскоговорящее сообщество
aaaaassssdddd - шито
источник

k

kvaps in Kubernetes — русскоговорящее сообщество
Alex
можно на собеседованиях спрашивать, чтоб кандидат посылал тебя нах 🙂
проверка кандидата на то как часто он читает @kubernetes_ru
источник

L

Lucky SB in Kubernetes — русскоговорящее сообщество
Асс демон
источник

A

Alex in Kubernetes — русскоговорящее сообщество
kvaps
проверка кандидата на то как часто он читает @kubernetes_ru
😄
источник

k

kvaps in Kubernetes — русскоговорящее сообщество
kvaps
О, прикольно, оказывается docker (как и куб) позволяет указывать image tag и digest одновременно, к примеру:

alpine:3.12@sha256:c0e9560cda118f9ec63ddefb4a173a2b2a0347082d7dff7dc14272e7841a5b5a

вопрос на засыпку: какую в данном случае стоит ожидать реакцию?
Тэг проигнорируется и всегда будет использоваться digest?
пугает то, что skopeo говорит:
Docker references with both a tag and digest are currently not supported
странно что они не стали использовать какой-нибудь strings.Split, а добавили ошибку.

Похоже что подразмевается какя-то более сложная логика
источник

k

kvaps in Kubernetes — русскоговорящее сообщество
похоже в skopeo уже пофиксили, внутри ссылки на похожие issue в podman and etc
https://github.com/containers/buildah/issues/1407
источник

V

Vadim in Kubernetes — русскоговорящее сообщество
kvaps
О, прикольно, оказывается docker (как и куб) позволяет указывать image tag и digest одновременно, к примеру:

alpine:3.12@sha256:c0e9560cda118f9ec63ddefb4a173a2b2a0347082d7dff7dc14272e7841a5b5a

вопрос на засыпку: какую в данном случае стоит ожидать реакцию?
Тэг проигнорируется и всегда будет использоваться digest?
в хельм чарт ingress nginx добавили этот дижест
источник

k

kvaps in Kubernetes — русскоговорящее сообщество
Vadim
в хельм чарт ingress nginx добавили этот дижест
Да, я давно этого ждал, теперь и в своих сделаю
источник

V

Vadim in Kubernetes — русскоговорящее сообщество
последние ingress nginx не ставятся у меня, паника на отсутствующий service ругается
источник

k

kvaps in Kubernetes — русскоговорящее сообщество
Vadim
последние ingress nginx не ставятся у меня, паника на отсутствующий service ругается
Я тут ещё обнаружил что они сертификат для вебхука крива генерят, CA не совпадает с сертом
источник

k

kvaps in Kubernetes — русскоговорящее сообщество
но это ещё не точно
источник

k

kvaps in Kubernetes — русскоговорящее сообщество
openssl verify -CAfile /tmp/nginx-ca /tmp/nginx-crt

error 18 at 0 depth lookup: self signed certificate
error /tmp/nginx-crt: verification failed
источник

AL

Aleksey Lazarev in Kubernetes — русскоговорящее сообщество
/stat@combot
источник