Size: a a a

2019 March 11

EB

Eugene Budanov in uptime.community
Заранее признателен.
источник

Г

Глеб Русин Uptime Day in uptime.community
Eugene Budanov
А можете, наконец, названия и список докладов сюда скинуть? Не мне надо, начальству показать.
Буквально завтра всё будет допилено! Утрясаем некоторые оргмоменты 😊
источник
2019 March 12

A

Artem Artemev in uptime.community
Может кто то понимает best practise для сбора метрик. Придумал я себе SLI, я его могу собрать по логам nginx.  Но во превых каждый раз чтобы посторить график дорого пробегать по логу. Да и elastic не вечно хранит лог. Итого нужна таска которая будет аккумулировать данные из лога, раз в секунду или минуту. И класть в nosql.
источник

A

Artem Artemev in uptime.community
Может есть готовые практики. Или просто скрипт в cron?
источник

IB

Ivan Brotkin in uptime.community
Не бест практис, но мы тупо сделали скриптик, который в json собирает стату из логов (по урлам группировали в продукты, считали avg, count и тд). Данные подгружали через google appscript в гуглтаблицу и уже там на исходных данных собирали таблицы с данными ежечасно, посуточно и понедельно. Местами костыльно, но дешево и практично))
источник

IB

Ivan Brotkin in uptime.community
Сейчас вот думаем эти данные уже в бд загонять.
источник

S

Stanislav in uptime.community
Artem Artemev
Может кто то понимает best practise для сбора метрик. Придумал я себе SLI, я его могу собрать по логам nginx.  Но во превых каждый раз чтобы посторить график дорого пробегать по логу. Да и elastic не вечно хранит лог. Итого нужна таска которая будет аккумулировать данные из лога, раз в секунду или минуту. И класть в nosql.
За бест практиз не скажу, но могу сказать как эту задачу решали мы
источник

A

Artem Artemev in uptime.community
Весь одно большое внимание
источник

MS

Max Selezenev in uptime.community
Artem Artemev
Может есть готовые практики. Или просто скрипт в cron?
Разве стандартный elastic-logstash-kibana не решает это?
источник

A

Artem Artemev in uptime.community
Как?
источник

A

Artem Artemev in uptime.community
Ну вот логи лежат. В еластик в логах есть code:200 latency: 300ms в каждой строке
источник

A

Artem Artemev in uptime.community
Я их хочу посчитать и отобразить.
источник

A

Artem Artemev in uptime.community
Но и логи в елк не вечно. А эту статистику я хочу дольше
источник

MS

Max Selezenev in uptime.community
Artem Artemev
Но и логи в елк не вечно. А эту статистику я хочу дольше
Почему не вечно?
источник

A

Artem Artemev in uptime.community
Ну так заведено в компании. Мне это тяжело ломать. Потом они уходят в другое место хранения. Где лежат всеми забытые логи. Их просто много
источник

S

Stanislav in uptime.community
Artem Artemev
Весь одно большое внимание
1. Сделали обрезанную версию лога в дополнение к основному
2. Сделали автосоздание логов по минутно
3. Раз в сколько-то секунд приходит скрипт, дернутый заббикс агентом и выгребает стату из файликов, очищая их (последняя минута не чистится при этом, а просто актуализируется)

До определенной нагрузки это рабочее решение. Дальше - надо более продвинутым образом решать.
источник

S

Stanislav in uptime.community
Заббикс например позволяет агрегированную инфу хранить дольше чем подробную и графики от этого особо не портятся при автоочистке детализации
источник

S

Stanislav in uptime.community
Artem Artemev
Ну так заведено в компании. Мне это тяжело ломать. Потом они уходят в другое место хранения. Где лежат всеми забытые логи. Их просто много
1ТБ логов в день у нас было с основных эндпоинтов с нжинксом
источник

A

Artem Artemev in uptime.community
У меня просто нет доступа к файлам :) . Я начинаю свою работу уже от еластика. Задача понять когда и как мы вываливаемся за sla
источник

S

Stanislav in uptime.community
Так не правильно - тебе надо в логстеше предагрегировать это зло, и писать в эластик только те полные записи, которые о сбоях
источник