Size: a a a

2021 January 05

N

Nikita in cloud_flood
Пока мало.
источник

ВН

Виталий На Заборе... in cloud_flood
Nikita
Да понятно, я о том, что их становится настолько дохуя, что я о них узнаю 😂
Ну я короче хз почему твои знакомые должны быть эталоном измерения числа кредитных покупателей биткойна))
источник

N

Nikita in cloud_flood
Виталий На Заборе
Ну я короче хз почему твои знакомые должны быть эталоном измерения числа кредитных покупателей биткойна))
Среди моих знакомых таких, к счастью, нет.
источник

SK

S K in cloud_flood
чувствуются корни зеленого
источник

MG

Mark Gromov in cloud_flood
Господа.
Есть серьезный вопрос к тем, кто шарит в базах данных (реляционных и нет). За консультацию готов заплатить, если кто решится.

Имеем PostgreSQL 12 и таблицу в ней для хранения данных об эффективности рекламы. Размер таблицы на данный момент составляет ~300млн строк и каждый день увеличивается на 1-3 миллиона.
Каждый день несколько десятков или сотен раз нужно получать сводные данные из неё (SUM как основная функция), фильтровать и сортировать по вычисленным полям.

Пока что каждая операция занимает от 10 секунд до нескольких десятков минут.

Нужен эдвайс, как это говно денормализовать. Может, с использованием промежуточной БД для вычисленных значений (mongo, например).

Если кому интересна такая задача — ткните в личку, я дам файл с более детальным описанием текущего процесса и структурой нужных таблиц.
источник

SG

Sergey Gruzdov in cloud_flood
Mark Gromov
Господа.
Есть серьезный вопрос к тем, кто шарит в базах данных (реляционных и нет). За консультацию готов заплатить, если кто решится.

Имеем PostgreSQL 12 и таблицу в ней для хранения данных об эффективности рекламы. Размер таблицы на данный момент составляет ~300млн строк и каждый день увеличивается на 1-3 миллиона.
Каждый день несколько десятков или сотен раз нужно получать сводные данные из неё (SUM как основная функция), фильтровать и сортировать по вычисленным полям.

Пока что каждая операция занимает от 10 секунд до нескольких десятков минут.

Нужен эдвайс, как это говно денормализовать. Может, с использованием промежуточной БД для вычисленных значений (mongo, например).

Если кому интересна такая задача — ткните в личку, я дам файл с более детальным описанием текущего процесса и структурой нужных таблиц.
Купи постгрепро
источник

t

tsla in cloud_flood
Mark Gromov
Господа.
Есть серьезный вопрос к тем, кто шарит в базах данных (реляционных и нет). За консультацию готов заплатить, если кто решится.

Имеем PostgreSQL 12 и таблицу в ней для хранения данных об эффективности рекламы. Размер таблицы на данный момент составляет ~300млн строк и каждый день увеличивается на 1-3 миллиона.
Каждый день несколько десятков или сотен раз нужно получать сводные данные из неё (SUM как основная функция), фильтровать и сортировать по вычисленным полям.

Пока что каждая операция занимает от 10 секунд до нескольких десятков минут.

Нужен эдвайс, как это говно денормализовать. Может, с использованием промежуточной БД для вычисленных значений (mongo, например).

Если кому интересна такая задача — ткните в личку, я дам файл с более детальным описанием текущего процесса и структурой нужных таблиц.
А постгре xl разбить данные по разным инстансам, а эти инстансы на разных серверах?
источник

t

tsla in cloud_flood
Это типа партиции
источник

SG

Sergey Gruzdov in cloud_flood
А вообще etl
источник

t

tsla in cloud_flood
Sergey Gruzdov
Купи постгрепро
Не даёт профита, так-то
источник

t

tsla in cloud_flood
Кроме мульти мастера, который нах не всрался
источник

SG

Sergey Gruzdov in cloud_flood
tsla
Не даёт профита, так-то
Поддержке мозг ебать можно
источник

SG

Sergey Gruzdov in cloud_flood
Или переходите на нормальный скл
источник

t

tsla in cloud_flood
Если что можешь продублировать вопрос в @pgsql
источник

ВН

Виталий На Заборе... in cloud_flood
Mark Gromov
Господа.
Есть серьезный вопрос к тем, кто шарит в базах данных (реляционных и нет). За консультацию готов заплатить, если кто решится.

Имеем PostgreSQL 12 и таблицу в ней для хранения данных об эффективности рекламы. Размер таблицы на данный момент составляет ~300млн строк и каждый день увеличивается на 1-3 миллиона.
Каждый день несколько десятков или сотен раз нужно получать сводные данные из неё (SUM как основная функция), фильтровать и сортировать по вычисленным полям.

Пока что каждая операция занимает от 10 секунд до нескольких десятков минут.

Нужен эдвайс, как это говно денормализовать. Может, с использованием промежуточной БД для вычисленных значений (mongo, например).

Если кому интересна такая задача — ткните в личку, я дам файл с более детальным описанием текущего процесса и структурой нужных таблиц.
Я щас за это должен был взять видимо деньги, но TimescaleDB
источник

t

tsla in cloud_flood
Но, надо глянуть базу, мож у тебя не всё так плачевно
источник

t

tsla in cloud_flood
Виталий На Заборе
Я щас за это должен был взять видимо деньги, но TimescaleDB
Хмм, tsdb и ради этого отдельный сервер? Они уже юзают посгрю как совместить без полного переезда?
источник

ВН

Виталий На Заборе... in cloud_flood
tsla
Хмм, tsdb и ради этого отдельный сервер? Они уже юзают посгрю как совместить без полного переезда?
TimescaleDB это экстенжн к постгресу
источник

t

tsla in cloud_flood
Виталий На Заборе
TimescaleDB это экстенжн к постгресу
Ёпта
источник

ВН

Виталий На Заборе... in cloud_flood
Он забавным образом утаптывает данные в массивы и получается очень компактно
источник