Andrey Tatarnikov
Коллеги, а можно соцопрос? :)
Есть таблица на 30 полей и 150М строк. Одно из полей - date, индексов на нем нет.
Таблицу постоянно кто-то читает, некоторые читатели забирают и это самое поле, но таких меньшинство. И в таблицу раз 10-20 в минуту приходит либо insert, который про это конкретное поле date ничего не знает (default null), либо update, который про поле тоже ничего не знает и не трогает. Нужно обновить этому полю 50М значений из внешней таблицы не потеряв набегающие данные писателей и не ввергнув читателей в коматоз ожидания io, например.
Есть два доступных пути решения:
1. Клонировать таблицу, накатывать изменения поля из внешней таблицы, подменять таблицу и доливать в нее изменения, которые успели произойти в оригинале. Так уже пару раз делали, опыт есть.
2. Сделать update в лоб из внешней таблицы.
Соцопрос в следующем: что бы выбрать?
Неважно же, забирают читатели это поле, и "трогают" ли его UPDATE — в PostgreSQL всё происходит на уровне записей, грубо говоря.
> не потеряв набегающие данные писателей и не ввергнув читателей в коматоз ожидания io
Тут уже от "железа" зависит. А точно стоит "заморачиваться" на таких объёмах?
Т.е. какой там размер этой таблицы / индексов, в самом деле — может, всё это будет достаточно быстро и не "тяжело" и так?