Size: a a a

Kubernetes — русскоговорящее сообщество

2020 March 13

DS

Dmitry Sergeev in Kubernetes — русскоговорящее сообщество
Vadim Rutkovsky
не, не из heapster или metrics-server точно, там прям в прометей идет
источник

DS

Dmitry Sergeev in Kubernetes — русскоговорящее сообщество
Но вообще могли бы сделать через metrics api конечно
источник

VR

Vadim Rutkovsky in Kubernetes — русскоговорящее сообщество
Dmitry Sergeev
Но вообще могли бы сделать через metrics api конечно
там половины интересных метрик нет
источник

VR

Vadim Rutkovsky in Kubernetes — русскоговорящее сообщество
источник

DS

Dmitry Sergeev in Kubernetes — русскоговорящее сообщество
угу, спасибо ))
источник

k

kvaps in Kubernetes — русскоговорящее сообщество
RTFS - лучшая документация)
источник

DS

Dmitry Sergeev in Kubernetes — русскоговорящее сообщество
kvaps
RTFS - лучшая документация)
Ага,
Вобшем в итоге это тупо флаг: https://github.com/openshift/console/blob/9349e28472c57cb78af79c1f4c7ad4c7a1c693e1/cmd/bridge/main.go#L113
Надо было просто на --help взглянуть 🤦‍♂️
источник

DS

Dmitry Sergeev in Kubernetes — русскоговорящее сообщество
Timofey Larkin
Вот тут не хватает ролевой модели. Чтобы каждый разраб видел в консоли то, на что прав хватает.
оно кстати умеет видимо:

-user-auth string
    disabled | oidc | openshift (default "disabled")
 -user-auth-logout-redirect string
    Optional redirect URL on logout needed for some single sign-on identity providers.
 -user-auth-oidc-ca-file string
    PEM file for the OIDC/OAuth2 issuer.
 -user-auth-oidc-client-id string
    The OIDC OAuth2 Client ID.
 -user-auth-oidc-client-secret string
    The OIDC OAuth2 Client Secret.
 -user-auth-oidc-client-secret-file string
    File containing the OIDC OAuth2 Client Secret.
 -user-auth-oidc-issuer-url string
    The OIDC/OAuth2 issuer URL.
источник

AA

Artyom Abramovich in Kubernetes — русскоговорящее сообщество
/report
источник

DS

Dmitry Sergeev in Kubernetes — русскоговорящее сообщество
Timofey Larkin
Ох, не стоит, не стоит запускать дашборд от ранчера
Да, ты был прав. Rancher в режиме "просто дашборда вместо kubectl" работать вряд-ли умеет.
Запустил под SA с правами edit на один ns. Рендерил их дефолтный helm шаблон.

Пытается писать в директории: /var/lib/rancher, /.rancher, /var/log, /tmp. Если хоть куда-то нет прав - падает.
Сам по себе пораждает 4 процесса: tini, rancher, etcd, k3s. С etcd и k3s вообще не понял, зачем он это делает?
В api куба пытается зарегать кучу ресурсов своих, и кучу всякой дичи видимо, ошибок немерено.
Не понимаю зачем поднимать свои etcd и k3s внутри контейнера с дашбордом, когда у них дефолтный метод деплоя через rke, и сам дашборд деплоется в уже поднятный кластер. Как-то странно.

Но в итоге дашборд так и не поднялся, ready проба не проходит. А в логи постоянно пишет: Waiting for k3s to start.

Вобшем этот дашборд, точно мне не подходит. Пытается засрать мой кластер, да еще и свой миникластер зачем-то внутри себя поднимает 🤦
источник
2020 March 14

TL

Timofey Larkin in Kubernetes — русскоговорящее сообщество
Dmitry Sergeev
Да, ты был прав. Rancher в режиме "просто дашборда вместо kubectl" работать вряд-ли умеет.
Запустил под SA с правами edit на один ns. Рендерил их дефолтный helm шаблон.

Пытается писать в директории: /var/lib/rancher, /.rancher, /var/log, /tmp. Если хоть куда-то нет прав - падает.
Сам по себе пораждает 4 процесса: tini, rancher, etcd, k3s. С etcd и k3s вообще не понял, зачем он это делает?
В api куба пытается зарегать кучу ресурсов своих, и кучу всякой дичи видимо, ошибок немерено.
Не понимаю зачем поднимать свои etcd и k3s внутри контейнера с дашбордом, когда у них дефолтный метод деплоя через rke, и сам дашборд деплоется в уже поднятный кластер. Как-то странно.

Но в итоге дашборд так и не поднялся, ready проба не проходит. А в логи постоянно пишет: Waiting for k3s to start.

Вобшем этот дашборд, точно мне не подходит. Пытается засрать мой кластер, да еще и свой миникластер зачем-то внутри себя поднимает 🤦
Звучит как нечто новое
источник

TL

Timofey Larkin in Kubernetes — русскоговорящее сообщество
Старые версии, конечно, засирают кластер, но к3с не ставят.
источник

TL

Timofey Larkin in Kubernetes — русскоговорящее сообщество
И отдельный кластер не устанавливают.
источник

TL

Timofey Larkin in Kubernetes — русскоговорящее сообщество
Не понимаю зачем поднимать свои etcd и k3s внутри контейнера с дашбордом, когда у них дефолтный метод деплоя через rke, и сам дашборд деплоется в уже поднятный кластер. Как-то странно.

Я понимаю. Это затем, что ранчер вообще не дешборд, хотя дешборд из него очень хороший. Ранчер - система администрации множества кластеров длч людей, которве не умеют в консоль. Потому и давай ему права и всё прочее
источник

ИM

И Mattermost. in Kubernetes — русскоговорящее сообщество
+
источник

ИM

И Mattermost. in Kubernetes — русскоговорящее сообщество
Dmitry Sergeev
@nv30over просил сообщить, если найду даш, который понравится.

Поробовал openshift-console (https://github.com/openshift/console). Довольно неплох.
quay.io/openshift/origin-console:latest не завелся (4.6.0 и v3.11.0 нормально работали)
Интерфейс понравился больше чем у octant, k8dash.

Удобен в настройке, так как понимает что запущен внутри куба, и идет по дефолтным путям за секретами. Ему достаточно указать нужный serviceAccountName в поде и разрешить automountServiceAccountToken(он как правило разрешен по дефолту) и все. Тот же octant ищет kubeconfig, и ему нужен секрет именно в таком формате, с другой стороны octant предназначен для локального использования, а не для запуска в кластере.

С ограниченными правами работает по лучше чем k8dash, единственный нюанс, нужно догадаться перейти на /search/ns/нужный-ns. По умолчанию он тебя кидает на default ns, права на которые ты можешь не иметь. Также есть странность, что он некоторую инфу не может отобразить о кластере, даже с полными правами (cluster-admin): http://dl4.joxi.net/drive/2020/03/13/0030/2608/1985072/72/0fdf573211.jpg

Интерфейс выглядит так: http://dl4.joxi.net/drive/2020/03/13/0030/2608/1985072/72/6d53512a73.jpg

Всякие штуки для дебага в нем делать достаточно удобно. Как замена kubectl для прогеров думаю сойдет.
То что он из проекта openshift, и в кластере нативного куба наверное могут быть какие-то баги, но в целом все работает. Видно, что некоторые запросы возвращают 404 ошибку. Но вроде он умный и просто не показывает меню, для объектов, которые не смог вытащить из куба или на них нету прав. Например под ограниченной учеткой нет меню со списком нод.

На ранчер я конечно посмотрю, но пока openshift-console мой выбор
Для проверки/отображения прав есть какой-то плагин (названия не помню). Пользуетесь им?
источник

DS

Dmitry Sergeev in Kubernetes — русскоговорящее сообщество
И Mattermost.
Для проверки/отображения прав есть какой-то плагин (названия не помню). Пользуетесь им?
не, мне итак норм
источник

DS

Dmitry Sergeev in Kubernetes — русскоговорящее сообщество
Timofey Larkin
Старые версии, конечно, засирают кластер, но к3с не ставят.
stable ставил 2.3.5. 🤷‍♂
источник

А

Артём in Kubernetes — русскоговорящее сообщество
Валентин Еловский
Кто-нить решал успешно в кубе задачу запуска друг за другом сервисных задач? У меня такая ситуация: есть отдельная реплика для построения всяких отчетов и т.п. Сейчас у меня есть несколько кронджоб (в разных неймспейсах), которым время запуска назначено руками, т.к. каждая кронджоба грузит эту реплику БД на пару часов. Хотелось бы какой-то инструмент, который бы запускал следующую джобу просто сразу после предыдущей, чтоб оно там всё вместе максимально без простоев выполнялось друг за другом
Есть вариант отказаться от кронджоба кубернетес для таких случаев , сделать образ суперкроник с расписанием (он не стартует следующую джобу пока не закончил старую)
источник

ВЕ

Валентин Еловский... in Kubernetes — русскоговорящее сообщество
Артём
Есть вариант отказаться от кронджоба кубернетес для таких случаев , сделать образ суперкроник с расписанием (он не стартует следующую джобу пока не закончил старую)
это делать спец. контейнер. А у меня такие задачи выполняют контейнеры, которые и другую работу делают, т.е. задача именно не собирая контейнер уникальный со всем этим кодом выкрутится (собрать контейнер с каким-то сервисом для обслуживания задач - не проблема, именно код пересобирать не хочу)
источник