k
Size: a a a
k
GG
GG
DS
DS
c
DS
k
GG
c
DS
V
DS
k
k
k
k
10.245.2.79:8920 -> kube-system/coredns-f9fd979d6-4x7fq:53 Policy denied DROPPED (TCP Flags: SYN)
.245.2.79)
. Но затем нахожу такой ip адрес на ноде в аннотациях: io.cilium.network.ipv4-cilium-host: 10.245.2.79.
Cilium работает в режиме туннелинга vxlan. Удивляюсь что внутренний ip ноды выдается из podCIDR ну да ладно. Пусть будет так.redns-f9fd979d6-4x7fq.
И в cilium monitor наблюдаю:xx drop (Policy denied) flow 0x0 to endpoint 311, identity 6->9326168: 10.245.2.79:8920 -> 10.245.0.145:53 tcp SYN
identity 6 это reserved: remote-host
8 (
https://pastebin.com/RLrKdAmQ)reserved: remote-host
: https://pastebin.com/jpKmrNNtty, чтоб
ы потом смотреть по ним трассировки policy? А то получается сейчас я вижу например дропы пакетов в hubble. Но непонятно по какому правилу. И приходится потом идти в конкретный cilium агент на ноде и там через cilium monitor грепать ip адреса которые я словил в hubble и извлекать их identity для т
расировки - как-то муторноk
10.245.2.79:8920 -> kube-system/coredns-f9fd979d6-4x7fq:53 Policy denied DROPPED (TCP Flags: SYN)
.245.2.79)
. Но затем нахожу такой ip адрес на ноде в аннотациях: io.cilium.network.ipv4-cilium-host: 10.245.2.79.
Cilium работает в режиме туннелинга vxlan. Удивляюсь что внутренний ip ноды выдается из podCIDR ну да ладно. Пусть будет так.redns-f9fd979d6-4x7fq.
И в cilium monitor наблюдаю:xx drop (Policy denied) flow 0x0 to endpoint 311, identity 6->9326168: 10.245.2.79:8920 -> 10.245.0.145:53 tcp SYN
identity 6 это reserved: remote-host
8 (
https://pastebin.com/RLrKdAmQ)reserved: remote-host
: https://pastebin.com/jpKmrNNtty, чтоб
ы потом смотреть по ним трассировки policy? А то получается сейчас я вижу например дропы пакетов в hubble. Но непонятно по какому правилу. И приходится потом идти в конкретный cilium агент на ноде и там через cilium monitor грепать ip адреса которые я словил в hubble и извлекать их identity для т
расировки - как-то муторноhostNetwork: true
, что кстати калико делает в данном случае?AN
└─# kubectl get nodes
NAME STATUS ROLES AGE VERSION
cuba-kub-01 Ready etcd,master 2d5h v1.18.10+rke2r1
cuba-kub-02 Ready etcd,master 2d1h v1.18.10+rke2r1
cuba-kub-03 Ready etcd,master 2d v1.18.10+rke2r1
cuba-kub-04 Ready node 2d v1.18.10+rke2r1
cuba-kub-05 Ready node 47h v1.18.10+rke2r1
cuba-kub-06 Ready node 47h v1.18.10+rke2r1
✓ ��[ admin@cuba-kub-01 ]��[ 10.8.4.24 172.17.0.1 10.42.0.0 ]─[ 16:58:16 ]
ping cuba-kub-02
вызовет ошибку. Во внутреннем DNS для этих хостов созданы записи, поэтому пинг по FQDN пройдет нормально:└─# ping cuba-kub-02.haulmont.com
PING cuba-kub-02 (10.8.4.28) 56(84) bytes of data.
64 bytes from cuba-kub-02 (10.8.4.28): icmp_seq=1 ttl=64 time=0.263 ms
└─# kubectl -n monitoring port-forward prometheus-grafana-59bfb6b6bf-b476f 3000:3000
error: error upgrading connection: error dialing backend: dial tcp: lookup cuba-kub-06 on 10.5.0.3:53: server misbehaving
✗ ��[ admin@cuba-kub-01 ]��[ 10.8.4.24 172.17.0.1 10.42.0.0 ]─[ 17:05:53 ]
cuba-kub-06
.... Но там короткого и нет! Там есть FQDN - cuba-kub-06.haulmont.com
Я решил попробовать иначе - просто сделал Service, который пробросит порт 3000 нужного пода на NodePort. Сделал. У меня три воркера, по идее, Grafana должна быть доступна на любой рабочей ноде.... И по netstat я вижу, что нужный порт открылся на всех трех рабочих нодах....cuba-kub-06
при попытке сменить ноду для подключения, браузер долго висит, а потом отваливается по таймауту.AL
└─# kubectl get nodes
NAME STATUS ROLES AGE VERSION
cuba-kub-01 Ready etcd,master 2d5h v1.18.10+rke2r1
cuba-kub-02 Ready etcd,master 2d1h v1.18.10+rke2r1
cuba-kub-03 Ready etcd,master 2d v1.18.10+rke2r1
cuba-kub-04 Ready node 2d v1.18.10+rke2r1
cuba-kub-05 Ready node 47h v1.18.10+rke2r1
cuba-kub-06 Ready node 47h v1.18.10+rke2r1
✓ ��[ admin@cuba-kub-01 ]��[ 10.8.4.24 172.17.0.1 10.42.0.0 ]─[ 16:58:16 ]
ping cuba-kub-02
вызовет ошибку. Во внутреннем DNS для этих хостов созданы записи, поэтому пинг по FQDN пройдет нормально:└─# ping cuba-kub-02.haulmont.com
PING cuba-kub-02 (10.8.4.28) 56(84) bytes of data.
64 bytes from cuba-kub-02 (10.8.4.28): icmp_seq=1 ttl=64 time=0.263 ms
└─# kubectl -n monitoring port-forward prometheus-grafana-59bfb6b6bf-b476f 3000:3000
error: error upgrading connection: error dialing backend: dial tcp: lookup cuba-kub-06 on 10.5.0.3:53: server misbehaving
✗ ��[ admin@cuba-kub-01 ]��[ 10.8.4.24 172.17.0.1 10.42.0.0 ]─[ 17:05:53 ]
cuba-kub-06
.... Но там короткого и нет! Там есть FQDN - cuba-kub-06.haulmont.com
Я решил попробовать иначе - просто сделал Service, который пробросит порт 3000 нужного пода на NodePort. Сделал. У меня три воркера, по идее, Grafana должна быть доступна на любой рабочей ноде.... И по netstat я вижу, что нужный порт открылся на всех трех рабочих нодах....cuba-kub-06
при попытке сменить ноду для подключения, браузер долго висит, а потом отваливается по таймауту.