VA
то есть сначала вам надо ваши graphite будет вытянуть в Zabbix
а потом уже настроить какие то триггеры
и у вас будет ЛАГ лишний и дублирование данных
Size: a a a
VA
VA
vk
AV
(((topk(15, sum by(host) (irate(nginx_vts_server_requests_total{code=~"(1|2|3|4|5)xx",host!="*"}[3m]))))))
count(count_over_time(nginx_vts_server_requests_total{code=~"(1|2|3|4|5)xx",host!="*"}[1h])
и count(count_over_time(nginx_vts_server_requests_total{code=~"(1|2|3|4|5)xx",host!="*"}[5m])
в проме и в вм? Первый запрос вернет количество рядов, которые затрагиваются при выполнении запроса за последний час (см. [1h]
в запросе. Второй - количество затронутых рядов за последние 5 минут (см. [5m]
в запросе. Если эти значения сильно отличаются, то это означает, что старые ряды постоянно заменяются на новые (aka high churn rate). Так может происходить, если в метрике nginx_vts_server_requests_total часто меняется какой-нибудь лейбл. Ряд однозначно идентифицируется его именем плюс набором его лейблов. Если значение хотя бы одного лейбла меняется, то создается новый ряд. При high churn rate может получиться, что в каждом ряду содержится совсем маленькое количество точек (до 100 на ряд, т.е. если ряды меняются чаще, чем раз в час для 30-секундного scrape interval'а - 30с*100точек=3000 секунд
). ВМ оптимизирована под хранение и обработку рядов со сравнительно большим количеством точек (более 100 на ряд). Если в большинстве рядов, участвующих в запросе, содержится маленькое количество точек, то вм может работать не очень эффективно из-за накладных расходов, связанных с распаковкой данных для каждого ряда. Подозреваю, что это ваш случай.vm_new_timeseries_created_total[1h])
(предполагается, что для вм уже настроен мониторинг https://victoriametrics.github.io/#monitoring ). Для определения лейблов, приводящих к high churn rate, можно посмотреть на страницу /api/v1/status/tsdb
.AV
В
AV
AV
НБ
AF
В
AS
В
AS
В
AV
unique(user_id)
IE
НБ
unique(user_id)
AS
В