Size: a a a

Kubernetes — русскоговорящее сообщество

2020 February 27

S

Slach in Kubernetes — русскоговорящее сообщество
Lucky SB
kubectl -n test exec chi-test-011-secured-cluster-default-0-0-0 -- cat /etc/resolv.conf
для 1.14.10, coredns 1.3.1
nameserver 10.96.0.10
search test.svc.cluster.local svc.cluster.local cluster.local
options ndots:5

для 1.17.3, coredns 1.6.5, все тоже самое
nameserver 10.96.0.10
search test.svc.cluster.local svc.cluster.local cluster.local
options ndots:5


косяки не с k8s

косяки похоже с coredns
источник

L

Lucky SB in Kubernetes — русскоговорящее сообщество
надо сравнить конфиги coredns
источник

L

Lucky SB in Kubernetes — русскоговорящее сообщество
у тебя кубспреем раскатанный кластер ?
источник

L

Lucky SB in Kubernetes — русскоговорящее сообщество
с nodelocaldns ?
источник

L

Lucky SB in Kubernetes — русскоговорящее сообщество
если с узла кластера сделать
dig @10.96.0.10 figna.local
dig @10.96.0.10 figna.cluster.local
dig @10.96.0.10 figna.svc.cluster.local
dig @10.96.0.10 figna.test.svc.cluster.local

что нибудь разресолвится ?
источник

S

Slach in Kubernetes — русскоговорящее сообщество
Lucky SB
у тебя кубспреем раскатанный кластер ?
нет у меня minikube

блин coredns контейнеры голый бинарник, там ни cat ничего нет
щас через docker export попробую в tar снапшот загнать
источник

L

Lucky SB in Kubernetes — русскоговорящее сообщество
это я к тому, что если где то на вышестоящих NS есть зона .local с вайлдкард записью  то могут быть фокусы
источник

L

Lucky SB in Kubernetes — русскоговорящее сообщество
Slach
нет у меня minikube

блин coredns контейнеры голый бинарник, там ни cat ничего нет
щас через docker export попробую в tar снапшот загнать
эм
источник

L

Lucky SB in Kubernetes — русскоговорящее сообщество
там конфиг из конфигмапа в контейнер мапится
источник

S

Slach in Kubernetes — русскоговорящее сообщество
ок, щас гляну конфигмап
источник

S

Slach in Kubernetes — русскоговорящее сообщество
Lucky SB
если с узла кластера сделать
dig @10.96.0.10 figna.local
dig @10.96.0.10 figna.cluster.local
dig @10.96.0.10 figna.svc.cluster.local
dig @10.96.0.10 figna.test.svc.cluster.local

что нибудь разресолвится ?
источник

L

Lucky SB in Kubernetes — русскоговорящее сообщество
 get cm coredns -o yaml
apiVersion: v1
data:
 Corefile: |
   .:53 {
       errors
       health
       ready
       kubernetes cluster.local in-addr.arpa ip6.arpa {
         pods insecure
         upstream /etc/resolv.conf
         fallthrough in-addr.arpa ip6.arpa
       }
       prometheus :9153
       forward . /etc/resolv.conf {
         prefer_udp
       }
       cache 30
       loop
       reload
       loadbalance
   }
источник

L

Lucky SB in Kubernetes — русскоговорящее сообщество
вот мой конфиг )
источник

S

Slach in Kubernetes — русскоговорящее сообщество
а вот мой
apiVersion: v1
data:
 Corefile: |
   .:53 {
       errors
       health {
          lameduck 5s
       }
       ready
       kubernetes cluster.local in-addr.arpa ip6.arpa {
          pods insecure
          fallthrough in-addr.arpa ip6.arpa
          ttl 30
       }
       prometheus :9153
       forward . /etc/resolv.conf
       cache 30
       loop
       reload
       loadbalance
   }
источник

L

Lucky SB in Kubernetes — русскоговорящее сообщество
источник

S

Slach in Kubernetes — русскоговорящее сообщество
ttl 30
вроде вот существенное отличие
и lameduck 5s

image: k8s.gcr.io/coredns:1.6.5
источник

L

Lucky SB in Kubernetes — русскоговорящее сообщество
upstream /etc/resolv.conf
источник

S

Slach in Kubernetes — русскоговорящее сообщество
щас на 1.14 откачусь. посмотрю как конфиг изменится
источник

L

Lucky SB in Kubernetes — русскоговорящее сообщество
только это
источник

S

Slach in Kubernetes — русскоговорящее сообщество
а вот конфиг k8s.gcr.io/coredns:1.3.1
на 1.14.10
apiVersion: v1
data:
 Corefile: |
   .:53 {
       errors
       health
       kubernetes cluster.local in-addr.arpa ip6.arpa {
          pods insecure
          upstream
          fallthrough in-addr.arpa ip6.arpa
       }
       prometheus :9153
       forward . /etc/resolv.conf
       cache 30
       loop
       reload
       loadbalance
   }


уберу ка я пожалуй ttl
из конфигмапа и посмотрю что получится
источник