Надо конечно проверить как он будет себя чувствовать в таком кейсе. В части аналитики понятное дело - отлично, но тащить по одной записи и постоянно - хз. Как проверю - отпишусь.
А как-то чистить в ts можно данные автоматически? что-то вроде того как в КХ движок ReplacingMergeTree делает, где по факту на диске спустя какое-то время хранится один экземпляр строки.
А как-то чистить в ts можно данные автоматически? что-то вроде того как в КХ движок ReplacingMergeTree делает, где по факту на диске спустя какое-то время хранится один экземпляр строки.
Всем привет. Подскажите, что можно использовать для персистентного хранения актуальных данных? Каждую секунду может приходить несколько десятков тысяч метрик от устройств. Требуется в любой момент времени получать последнюю метрику по какому-то конкретному устройству. Pg сейчас используется для этого, но для этой задачи от не очень походит.
проблема с pg в автовакуме, мы сейчас пишем в несколько таблиц метричных в pg, потом раз в какое-то время фоновый процесс вычищает все, кроме последней метрики по каждому устройству.
Это понятно, но в такой схеме pg нужен только как "бэкап" и время на автовакум не существенно. Т.е. кафку читаем и пишем в банальную inmem key-value (взять готовый редис или просто написать hash-map). И аггрегируеем пачками и пишем в PG. При падении - забираем актуальное из PG+kafka (и это самое сложное).
Проблема с kv еще с фильтрацией, можно конечно на redis и это решить, но хочется более элегантного способа, нежели ловить факт падения redis и как-то его прогревать.