Size: a a a

Kubernetes — русскоговорящее сообщество

2020 February 26

ВЕ

Валентин Еловский... in Kubernetes — русскоговорящее сообщество
Slach
все верно 😊 у меня не отрабатывал правильно

короче буду перед запуском просто отслеживать
чтобы endpoint появился через


kubectl -n test get ep chi-test-011-secured-cluster-default-0-0 -o=custom-columns=kind:kind,endpoint:.subsets[*].addresses[*].hostname
ну вообще в кубе есть readyness пробы, обычно ими делают проверки, если надо подождать, пока что-то где-то запустится и т.п.
источник

L

Lucky SB in Kubernetes — русскоговорящее сообщество
Dmitry Sergeev
если нужен резолв обратный (ptr), то не получится. Хотя может в coredns можно это настроить конечно, но вряд-ли
хххы. оказывается оно есть и работает )))

dig @10.100.0.3 -x 10.0.1.127

127.1.0.10.in-addr.arpa. 5      IN      PTR     10-0-1-127.tiller-deploy.kube-system.svc.slurm.local.
источник

DS

Dmitry Sergeev in Kubernetes — русскоговорящее сообщество
Lucky SB
хххы. оказывается оно есть и работает )))

dig @10.100.0.3 -x 10.0.1.127

127.1.0.10.in-addr.arpa. 5      IN      PTR     10-0-1-127.tiller-deploy.kube-system.svc.slurm.local.
оу, не знал. Круто =)
источник

L

Lucky SB in Kubernetes — русскоговорящее сообщество
Dmitry Sergeev
оу, не знал. Круто =)
работает только для  подов которые есть в endpoints видимо.
источник

L

Lucky SB in Kubernetes — русскоговорящее сообщество
интересно что будет если два сервиса будут на один под указывать
источник

DS

Dmitry Sergeev in Kubernetes — русскоговорящее сообщество
Lucky SB
работает только для  подов которые есть в endpoints видимо.
погоди, 10.0.1.127 - это не адрес сервиса, а именно пода?
источник

c

corsars in Kubernetes — русскоговорящее сообщество
Ugly
я  фланнель ставлю. ставится из раза в раз успешно
+ livenesProbe обязательно напускай. ставится то хорошо а вот работает медленее Calico
источник

c

corsars in Kubernetes — русскоговорящее сообщество
Lucky SB
интересно что будет если два сервиса будут на один под указывать
ничего не будет - разный транспорт к одному app name
источник

L

Lucky SB in Kubernetes — русскоговорящее сообщество
Dmitry Sergeev
погоди, 10.0.1.127 - это не адрес сервиса, а именно пода?
да. именно пода
источник

DS

Dmitry Sergeev in Kubernetes — русскоговорящее сообщество
Lucky SB
да. именно пода
+, топ =)
источник

MK

Maksim Kholodkov in Kubernetes — русскоговорящее сообщество
Lucky SB
ты щас написал что у вас было N мастеров, каждый со своим etcd ?
т.е. N отдельных кластеров куба ?

ты действительно это хотел написать ?

API серверу можно уазать адреса всех членов etcd кластера. поднимать какие-то балансировщики между API и etcd глупо и вредно.
я о том, что в каждом мастере настройка в api такая,     - --etcd-servers=http://127.0.0.1:2379
а изначально кейс в том, что нагрузка на мастера разная, и нет понимания почему, в логах просто пишется о том, что долго происходит чтение
источник

U

Ugly in Kubernetes — русскоговорящее сообщество
corsars
+ livenesProbe обязательно напускай. ставится то хорошо а вот работает медленее Calico
тут как то мелькала огрофигенная таблица сравнения этих вещей, ну калико, фланнель и прочее. можно прикинуть что важнее)
источник

L

Lucky SB in Kubernetes — русскоговорящее сообщество
Dmitry Sergeev
+, топ =)
если под есть в ендпойнтах двух сервисов, то обратка пропишется по имени первого созданного сервиса.
создание второго сервиса не изменит уже существующую запись

но если помянять селектор в первом сервисе, так чтобы под не попадал под него - то обратка пода поменяется на p2.svc....

а если потом вернуть селектор в первом поде - то обратка опять поменяется на p1...

странная логика, ну такоэ.... забавный факт в общем. почему кликхуус строит на свою безопасность на записях в DNS зонах - я вообще в шоке.
источник

DS

Dmitry Sergeev in Kubernetes — русскоговорящее сообщество
Lucky SB
если под есть в ендпойнтах двух сервисов, то обратка пропишется по имени первого созданного сервиса.
создание второго сервиса не изменит уже существующую запись

но если помянять селектор в первом сервисе, так чтобы под не попадал под него - то обратка пода поменяется на p2.svc....

а если потом вернуть селектор в первом поде - то обратка опять поменяется на p1...

странная логика, ну такоэ.... забавный факт в общем. почему кликхуус строит на свою безопасность на записях в DNS зонах - я вообще в шоке.
Да, базы таким грешат. Тот же mysql тоже PTR ктстати смотрит. И сверяет есть ли такой user@hostname
источник

L

Lucky SB in Kubernetes — русскоговорящее сообщество
Maksim Kholodkov
я о том, что в каждом мастере настройка в api такая,     - --etcd-servers=http://127.0.0.1:2379
а изначально кейс в том, что нагрузка на мастера разная, и нет понимания почему, в логах просто пишется о том, что долго происходит чтение
настройка в api неважна. все равно запись идет на все три узла в etcd.

я телепатирую, что кластер ставился кубадмом и кублеты всех узлов смотрят на API сервер на k8s-master1 ?
источник

MK

Maksim Kholodkov in Kubernetes — русскоговорящее сообщество
Lucky SB
настройка в api неважна. все равно запись идет на все три узла в etcd.

я телепатирую, что кластер ставился кубадмом и кублеты всех узлов смотрят на API сервер на k8s-master1 ?
да, так и есть
источник

L

Lucky SB in Kubernetes — русскоговорящее сообщество
Dmitry Sergeev
Да, базы таким грешат. Тот же mysql тоже PTR ктстати смотрит. И сверяет есть ли такой user@hostname
ну так мускулу сколько лет то ? в те года это было нормально.
источник

EP

Eugene Poliakov in Kubernetes — русскоговорящее сообщество
Ugly
тут как то мелькала огрофигенная таблица сравнения этих вещей, ну калико, фланнель и прочее. можно прикинуть что важнее)
Не сохранилось ссылочки?
источник

U

Ugly in Kubernetes — русскоговорящее сообщество
щас попробую
источник

L

Lucky SB in Kubernetes — русскоговорящее сообщество
Maksim Kholodkov
да, так и есть
ну и значит тебе нужны балансировщики запросов от РАБОЧИХ узлов к api серверам. Посмотри как в кубспрее сделано.

а etcd у тебя ругается на то, что диски медленные. и от балансировки это никак не зависит. ставь ssd
источник