Size: a a a

Kubernetes — русскоговорящее сообщество

2020 November 21

DS

Dmitry Sergeev in Kubernetes — русскоговорящее сообщество
Evgen Pr
Я чего спросил собственно, вроде попадалось на глаза что в кубе был параметр а ля запуск старого г.. который давал много ресурсов на старте
initContainers же, выставляешь ему много ресурсов и всё
источник

s

sexst in Kubernetes — русскоговорящее сообщество
Вопрос скорее в том почему каждое приложение прогревается пололгу и отдельно. Не делается ли одна и та же работа над одним (или просто сильно меньшем сотни разных) датасетом то?
источник

b

bob in Kubernetes — русскоговорящее сообщество
собственно да
источник

EP

Evgen Pr in Kubernetes — русскоговорящее сообщество
Увы нет. Датасеты педофилов разные
источник

s

sexst in Kubernetes — русскоговорящее сообщество
Evgen Pr
Увы нет. Датасеты педофилов разные
Все сто?
источник

EP

Evgen Pr in Kubernetes — русскоговорящее сообщество
Угу
источник

b

bob in Kubernetes — русскоговорящее сообщество
и можно его греть заранее
источник

s

sexst in Kubernetes — русскоговорящее сообщество
Интересная система. У вас если под умер, то его замена опять полчаса стартовать будет, а в это время все запросы, которые должны к нему попасть, в пролёте? Или у вас так раскидываются запросы, что на два одинаковых запроса снаружи могут попасть на два разных пода и получить два разных ответа?
источник

EP

Evgen Pr in Kubernetes — русскоговорящее сообщество
sexst
Интересная система. У вас если под умер, то его замена опять полчаса стартовать будет, а в это время все запросы, которые должны к нему попасть, в пролёте? Или у вас так раскидываются запросы, что на два одинаковых запроса снаружи могут попасть на два разных пода и получить два разных ответа?
Не. Не нужно. Нужно будет если прилетит обнова
источник

s

sexst in Kubernetes — русскоговорящее сообщество
А.
источник

s

sexst in Kubernetes — русскоговорящее сообщество
Не, ну раз столько данных и все разные, то печаль. Либо писать отдельный прогрев на чём-то менее жрущем и более шустром нежели nodejs (у вас же оно?), либо смириться.
источник

b

bob in Kubernetes — русскоговорящее сообщество
вероятно проблема не в слое инфраструктуры
источник

s

sexst in Kubernetes — русскоговорящее сообщество
Ну тут как бы да. Есть данные, они разные, их нужно лопатить в любом случае. Можно только оптимизировать сам процесс в коде, сделав его менее требовательным к памяти и более быстрым по времени. NodeJS далеко не самый топ с этих позиций.
Вопрос только в том как часто датасаентист всё меняет. Если раз в год - можно и потерпеть. Если ежедневно с утреца - имеет смысл переделывать прогрев.
источник

S

Slach in Kubernetes — русскоговорящее сообщество
Переслано от Slach
народ, а киньте линком на документацию нормальную?
в котором перечислен список значений аннотаций для Пода в кубернетесе по которому
прометеус делает kubernetes_sd_config?

я имею ввиду вот это
prometheus.io/scrape: 'true'
prometheus.io/port: 8888


вот в этой доке НИФИГА не понятно
https://prometheus.io/docs/prometheus/latest/configuration/configuration/#kubernetes_sd_config
как именно оно работает
источник

GG

George Gaál in Kubernetes — русскоговорящее сообщество
Slach
Переслано от Slach
народ, а киньте линком на документацию нормальную?
в котором перечислен список значений аннотаций для Пода в кубернетесе по которому
прометеус делает kubernetes_sd_config?

я имею ввиду вот это
prometheus.io/scrape: 'true'
prometheus.io/port: 8888


вот в этой доке НИФИГА не понятно
https://prometheus.io/docs/prometheus/latest/configuration/configuration/#kubernetes_sd_config
как именно оно работает
Не используй это
источник

GG

George Gaál in Kubernetes — русскоговорящее сообщество
Используй сервис мониторы
источник

S

Slach in Kubernetes — русскоговорящее сообщество
George Gaál
Используй сервис мониторы
я понимаю прекрасно что под может попасть в discovery
и при этом не быть ready
и если кривые алерты то будет море false positive
источник

S

Slach in Kubernetes — русскоговорящее сообщество
George Gaál
Используй сервис мониторы
я бы рад
там просто кластер не мной поддерживается
но мысль я уловил

мне просто надо как то синкнуть то что я сейчас с prometheus-operator у себя через kind: ServiceMonitor сделал
с другим кластером, который делал не я...
источник

S

Slach in Kubernetes — русскоговорящее сообщество
George Gaál
Не используй это
но все таки, где бы посмотреть список правильный для этих аннотаций? мне нужен именно url
источник

GG

George Gaál in Kubernetes — русскоговорящее сообщество
Slach
но все таки, где бы посмотреть список правильный для этих аннотаций? мне нужен именно url
Где-то в исходниках прома или, скорее, пром оператора, я бы там смотрел
источник