Size: a a a

Kubernetes — русскоговорящее сообщество

2020 March 11

AY

Alexander Yaroshenko in Kubernetes — русскоговорящее сообщество
Помню, что когда поставил три ноды, а пул от 2 до 5, то через 5 или 10 минут одна нода сама убралась. А вот вверх масштабироваться не хочет
источник

AY

Alexander Yaroshenko in Kubernetes — русскоговорящее сообщество
Dmitry Sergeev
gke давно не щупал, там сам cluster autoscaler есть как отдельное приложение, логи которого можно посмотреть? Или там он совсем огорожен, как весь остальной control plane?
Судя по тому, что в kube-system его нет, то огорожен
источник

DS

Dmitry Sergeev in Kubernetes — русскоговорящее сообщество
Alexander Yaroshenko
Помню, что когда поставил три ноды, а пул от 2 до 5, то через 5 или 10 минут одна нода сама убралась. А вот вверх масштабироваться не хочет
залей под, ещё один, с большим количеством реквестов. Там например  500m-1000m для cpu, что тогда писать будет?
Мб в тех под написать?
источник

AY

Alexander Yaroshenko in Kubernetes — русскоговорящее сообщество
Dmitry Sergeev
залей под, ещё один, с большим количеством реквестов. Там например  500m-1000m для cpu, что тогда писать будет?
Мб в тех под написать?
А как у гугла с ответом из тех. поддержки? Сколько дней ждать?)
источник

DS

Dmitry Sergeev in Kubernetes — русскоговорящее сообщество
Alexander Yaroshenko
А как у гугла с ответом из тех. поддержки? Сколько дней ждать?)
хз
источник

AY

Alexander Yaroshenko in Kubernetes — русскоговорящее сообщество
А так, вариантов иных нет?
источник

DS

Dmitry Sergeev in Kubernetes — русскоговорящее сообщество
Alexander Yaroshenko
А так, вариантов иных нет?
новые поды тоже не скейлит? Пробовал?
источник

AY

Alexander Yaroshenko in Kubernetes — русскоговорящее сообщество
Dmitry Sergeev
новые поды тоже не скейлит? Пробовал?
Да. Пробовал
источник

AY

Alexander Yaroshenko in Kubernetes — русскоговорящее сообщество
Один и тот же эффект
источник

DS

Dmitry Sergeev in Kubernetes — русскоговорящее сообщество
Alexander Yaroshenko
Один и тот же эффект
прям дословно тоже самое в евентах? А просто евенты смотрел на неймспейсах, мб там больше инфы есть
источник

AY

Alexander Yaroshenko in Kubernetes — русскоговорящее сообщество
Dmitry Sergeev
прям дословно тоже самое в евентах? А просто евенты смотрел на неймспейсах, мб там больше инфы есть
Да, в точности то же самое.
В неймспейсах особо никакой инфы не нашёл. Только смутила эта строка "No LimitRange resource."
источник

AY

Alexander Yaroshenko in Kubernetes — русскоговорящее сообщество
Dmitry Sergeev
прям дословно тоже самое в евентах? А просто евенты смотрел на неймспейсах, мб там больше инфы есть
В общем, заработало.
Проблема была в квоте GCP ресурсов...
источник

AY

Alexander Yaroshenko in Kubernetes — русскоговорящее сообщество
Такого не ожидал)
источник

SL

Sonne Lettermann in Kubernetes — русскоговорящее сообщество
Всем привет! Я - рекрутер, ищу к нам в команду Devops и QA-инженера. Никому не помешаю, если выложу краткую инфу о вакансиях? Может кого-то заинтересует
источник

GG

George Gaál in Kubernetes — русскоговорящее сообщество
не здесь
источник

GG

George Gaál in Kubernetes — русскоговорящее сообщество
в devops jobs
источник

SL

Sonne Lettermann in Kubernetes — русскоговорящее сообщество
Понял. Спасибо!
источник

AS

Aleksandr Stolbov in Kubernetes — русскоговорящее сообщество
Всем привет, немного нубский вопрос, а если я создавал кластер на машине, прописал там все конфиги и тд, когда машина уходит в оффлайн - то часть сервисов отваливается (kubedns и другие которые на ней работают), в докере когда я использвал swarm, то в этом случае я делал доп менеджер ноду которая часть функцинала дублировала, а как это в кибернетисе правильно организовать?
источник

AS

Aleksandr Stolbov in Kubernetes — русскоговорящее сообщество
или просто нужно важные сервисы типа ingress и dns дополнительно размножить на дублирующие ноды?
источник

Д

Дмитрий in Kubernetes — русскоговорящее сообщество
Aleksandr Stolbov
Всем привет, немного нубский вопрос, а если я создавал кластер на машине, прописал там все конфиги и тд, когда машина уходит в оффлайн - то часть сервисов отваливается (kubedns и другие которые на ней работают), в докере когда я использвал swarm, то в этом случае я делал доп менеджер ноду которая часть функцинала дублировала, а как это в кибернетисе правильно организовать?
ИМХО так же как и в сворме, нодами
источник