Size: a a a

Kubernetes — русскоговорящее сообщество

2020 November 23

СЛ

Сергей Ладутько... in Kubernetes — русскоговорящее сообщество
Тоесть я имею ввиду что я создаю
cat <<EOF | kubectl create -f -
apiVersion: certmanager.k8s.io/v1alpha1
kind: ClusterIssuer
metadata:
 name: le-clusterissuer
 namespace: kube-system
spec:
 acme:
   server: https://acme-v02.api.letsencrypt.org/directory
   email: devops@example.com
   privateKeySecretRef:
     name: le-clusterissuer
   http01: {}
EOF

Потом серт
cat <<EOF | kubectl create -f -
apiVersion: certmanager.k8s.io/v1alpha1
kind: Certificate
metadata:
 name: dummy-stage
 namespace: stage
spec:
 secretName: cert-stage-dummy
 dnsNames:
 - dummy.example.com
 acme:
   config:
   - http01:
       ingressClass: nginx
     domains:
     - dummy.example.com
 issuerRef:
   name: le-clusterissuer
   kind: ClusterIssuer
EOF

А потом
просто в ингресе на уровне tls секрет вставляешь ?Если да то будет ли он обновлятся?
источник

СЛ

Сергей Ладутько... in Kubernetes — русскоговорящее сообщество
Lucky SB
Как на скрине
А он будет автоматом обновляться ?
источник

L

Lucky SB in Kubernetes — русскоговорящее сообщество
Да
источник

СЛ

Сергей Ладутько... in Kubernetes — русскоговорящее сообщество
Спавсибо
источник

AZ

Artyom Zverev in Kubernetes — русскоговорящее сообщество
Подскажите, есть какой-то экспортер, который бы мне просто выдал список всех контейнеров в кубе, а я бы его табличкой отрисовал в графане?
источник

AL

Aleksey Lazarev in Kubernetes — русскоговорящее сообщество
Artyom Zverev
Подскажите, есть какой-то экспортер, который бы мне просто выдал список всех контейнеров в кубе, а я бы его табличкой отрисовал в графане?
коробочоныйкадвисор
источник

AZ

Artyom Zverev in Kubernetes — русскоговорящее сообщество
источник

N

Nurlan in Kubernetes — русскоговорящее сообщество
нужно реализовать логгирование в кластере, так чтобы логи подов в кластере каждый день на новый файл записывались и хранились логи последних 90 дней. как это можно реализовать? только через fluentd можно?
источник

S

Slach in Kubernetes — русскоговорящее сообщество
Nurlan
нужно реализовать логгирование в кластере, так чтобы логи подов в кластере каждый день на новый файл записывались и хранились логи последних 90 дней. как это можно реализовать? только через fluentd можно?
источник

ЕР

Евгений Ролдухин... in Kubernetes — русскоговорящее сообщество
Ребят, привет. Есть вопрос по SRE части: health check + liveness probe:

Есть /health end-point на бекенде, который возвращает 200 + проверку доступности БД, с которой взаимодействует.
В случае добавления его в liveness probe, получаем каскадную перезагрузку подов в случае проблем на БД.

Внимание вопрос: Хотелось бы и о проблеме с БД знать, но и поды не рестартить в данном случае.
Решение, приходящее в голову, добавить end-point /service-check , который будет проверять доступность БД + уходить через Prometheus на Grafana дашборд, а /health будет только проверять статус backend'a.

Есть ли кто-то, кто решал подобную проблему, покритикуйте решение?
источник

DS

Dmitry Sergeev in Kubernetes — русскоговорящее сообщество
Евгений Ролдухин
Ребят, привет. Есть вопрос по SRE части: health check + liveness probe:

Есть /health end-point на бекенде, который возвращает 200 + проверку доступности БД, с которой взаимодействует.
В случае добавления его в liveness probe, получаем каскадную перезагрузку подов в случае проблем на БД.

Внимание вопрос: Хотелось бы и о проблеме с БД знать, но и поды не рестартить в данном случае.
Решение, приходящее в голову, добавить end-point /service-check , который будет проверять доступность БД + уходить через Prometheus на Grafana дашборд, а /health будет только проверять статус backend'a.

Есть ли кто-то, кто решал подобную проблему, покритикуйте решение?
livenessProbe должно проверять доступность только текущего сервиса. Никаких проверок БД и других сторонних сервисов (инчае каскадная перезагрузка как вы и говорите)
Проверки БД можно засунуть в redinessProbe, если приемлимо что pod будет удалятся из endpoints балансировщика когда бд перестает быть доступна
источник

DS

Dmitry Sergeev in Kubernetes — русскоговорящее сообщество
Евгений Ролдухин
Ребят, привет. Есть вопрос по SRE части: health check + liveness probe:

Есть /health end-point на бекенде, который возвращает 200 + проверку доступности БД, с которой взаимодействует.
В случае добавления его в liveness probe, получаем каскадную перезагрузку подов в случае проблем на БД.

Внимание вопрос: Хотелось бы и о проблеме с БД знать, но и поды не рестартить в данном случае.
Решение, приходящее в голову, добавить end-point /service-check , который будет проверять доступность БД + уходить через Prometheus на Grafana дашборд, а /health будет только проверять статус backend'a.

Есть ли кто-то, кто решал подобную проблему, покритикуйте решение?
О проблеме с БД лучше узнать от мониторинга, а не от сервиса который ее использует
источник

DS

Dmitry Sergeev in Kubernetes — русскоговорящее сообщество
Евгений Ролдухин
Ребят, привет. Есть вопрос по SRE части: health check + liveness probe:

Есть /health end-point на бекенде, который возвращает 200 + проверку доступности БД, с которой взаимодействует.
В случае добавления его в liveness probe, получаем каскадную перезагрузку подов в случае проблем на БД.

Внимание вопрос: Хотелось бы и о проблеме с БД знать, но и поды не рестартить в данном случае.
Решение, приходящее в голову, добавить end-point /service-check , который будет проверять доступность БД + уходить через Prometheus на Grafana дашборд, а /health будет только проверять статус backend'a.

Есть ли кто-то, кто решал подобную проблему, покритикуйте решение?
> Есть ли кто-то, кто решал подобную проблему, покритикуйте решение?
Для начала почитать доку по пробам, и посмотреть для чего каждая
источник

ЕР

Евгений Ролдухин... in Kubernetes — русскоговорящее сообщество
Dmitry Sergeev
livenessProbe должно проверять доступность только текущего сервиса. Никаких проверок БД и других сторонних сервисов (инчае каскадная перезагрузка как вы и говорите)
Проверки БД можно засунуть в redinessProbe, если приемлимо что pod будет удалятся из endpoints балансировщика когда бд перестает быть доступна
Спасибо большое, т.е. лучше 2 отдельных end point’s. Readiness не подойдет, т..к это только на старте же. Реализацию health check’а смотрю здесь: https://docs.microsoft.com/en-us/azure/architecture/patterns/health-endpoint-monitoring
источник

DS

Dmitry Sergeev in Kubernetes — русскоговорящее сообщество
Евгений Ролдухин
Спасибо большое, т.е. лучше 2 отдельных end point’s. Readiness не подойдет, т..к это только на старте же. Реализацию health check’а смотрю здесь: https://docs.microsoft.com/en-us/azure/architecture/patterns/health-endpoint-monitoring
нет, redinessProbe всегда проверяет как и liveness. Тебе в доку надо идти
источник

ЕР

Евгений Ролдухин... in Kubernetes — русскоговорящее сообщество
Dmitry Sergeev
нет, redinessProbe всегда проверяет как и liveness. Тебе в доку надо идти
ок, иду читать, спасибо
источник

GG

George Gaál in Kubernetes — русскоговорящее сообщество
++++
источник

N

Nurlan in Kubernetes — русскоговорящее сообщество
как именно можно настроить ротацию логов в графана локи, чтобы каждый день новый файл создавался и старые логи удалялись? в интернете об этом не говорится, я нашел только статьи с отображением логов в графане..
источник

DS

Dmitry Sergeev in Kubernetes — русскоговорящее сообщество
Nurlan
как именно можно настроить ротацию логов в графана локи, чтобы каждый день новый файл создавался и старые логи удалялись? в интернете об этом не говорится, я нашел только статьи с отображением логов в графане..
grafana loki не в файлах хранит логи. Там бд
источник

N

Nurlan in Kubernetes — русскоговорящее сообщество
Dmitry Sergeev
grafana loki не в файлах хранит логи. Там бд
Ок. А есть альтернатива?
источник