Size: a a a

Kubernetes — русскоговорящее сообщество

2020 March 17

L

Lucky SB in Kubernetes — русскоговорящее сообщество
--node-status-update-frequency duration
Specifies how often kubelet posts node status to master. Note: be cautious when changing the constant, it must work with nodeMonitorGracePeriod in nodecontroller. (default 10s)
источник

MM

Maxim Makarov in Kubernetes — русскоговорящее сообщество
If -–node-status-update-frequency is set to 4s (10s is default). --node-monitor-period to 2s (5s is default). --node-monitor-grace-period to 20s (40s is default). --pod-eviction-timeout is set to 30s (5m is default)
источник

MM

Maxim Makarov in Kubernetes — русскоговорящее сообщество
вот такие у нас стоят
источник

MM

Maxim Makarov in Kubernetes — русскоговорящее сообщество
посмотрел конфигмапы, секреты, ничего лишнего нет
источник

MM

Maxim Makarov in Kubernetes — русскоговорящее сообщество
ресурсов мало в кластере хранится
источник

MM

Maxim Makarov in Kubernetes — русскоговорящее сообщество
апи кстати не лагает, шустро все работает и никаких проблем нет
источник

MM

Maxim Makarov in Kubernetes — русскоговорящее сообщество
но cpu жрет
источник

MM

Maxim Makarov in Kubernetes — русскоговорящее сообщество
Lucky SB
Предположение - кто то дергает API. netstat -ntpa  и попробовать поблочить внешние коннекты к API
там порядка 200 коннектов от рабочих нод
источник

MM

Maxim Makarov in Kubernetes — русскоговорящее сообщество
по порту 6443
источник

L

Lucky SB in Kubernetes — русскоговорящее сообщество
ого
источник

L

Lucky SB in Kubernetes — русскоговорящее сообщество
а от кого ? на рабочем узле что netstat -ntpa показыват ?
источник

L

Lucky SB in Kubernetes — русскоговорящее сообщество
kubelet, kube-proxy ?
или твой софт с API общается ?
источник

MM

Maxim Makarov in Kubernetes — русскоговорящее сообщество
Lucky SB
kubelet, kube-proxy ?
или твой софт с API общается ?
root@s1-gcore-msk:~# netstat -ntpa | grep "6443"
tcp        0      0 127.0.0.1:6443          0.0.0.0:*               LISTEN      1653/nginx: master
tcp        0      0 127.0.0.1:57374         127.0.0.1:6443          ESTABLISHED 1343/kubelet
tcp        0      0 127.0.0.1:6443          127.0.0.1:57384         ESTABLISHED 1686/nginx: worker
tcp        0      0 92.38.137.243:58482     92.38.137.237:6443      ESTABLISHED 1686/nginx: worker
tcp        0      0 127.0.0.1:57384         127.0.0.1:6443          ESTABLISHED 2614/kube-proxy
tcp        0      0 92.38.137.243:58468     92.38.137.237:6443      ESTABLISHED 1686/nginx: worker
tcp        0      0 127.0.0.1:6443          127.0.0.1:57374         ESTABLISHED 1686/nginx: worker
источник

MM

Maxim Makarov in Kubernetes — русскоговорящее сообщество
это на воркер ноде
источник

MM

Maxim Makarov in Kubernetes — русскоговорящее сообщество
ну в kubespray на каждой ноде стоит nginx proxy, в котором в апстриме прописываются мастера
источник

MM

Maxim Makarov in Kubernetes — русскоговорящее сообщество
для load balancing'a
источник

MM

Maxim Makarov in Kubernetes — русскоговорящее сообщество
но у меня 1 мастер)
источник

MM

Maxim Makarov in Kubernetes — русскоговорящее сообщество
надо посмотреть кто к nginxу к этому локальному обращается
источник

MM

Maxim Makarov in Kubernetes — русскоговорящее сообщество
ща
источник

MM

Maxim Makarov in Kubernetes — русскоговорящее сообщество
мой софт в кластере к kube api НЕ обращается. Возможно это делают другие процессы
источник