Коллеги, добрый день! Столкнулась с такой проблемой.. У нас временно нет "хранилища" для файлов qvd на сервере и поэтому задача, которая легко бы решилась, будь у нас хранилище, стала проблемой. Дело вот в чем. С сервера с редактора загрузки QS обращается к кликхаусу с задачей выявления новых пользователей за день. Но данных настолько много (включая текстовые поля), что просто "не тянет" - то падает по таймауту, то по memory limit, то банально теряет соединение с базой и выдает ошибку. Если б было хранилище, я бы просто выгружала ежедневно уникальных пользователей за период в квд-файлы, а после в запросе проверяла б if exists и таким образом производилась бы своего рода инкрементальная загрузка. Но теперь мне нужно как-то организовать цикл, где сначала грузятся данные за один период, потом период сдвигается - и все это происходит в теле "SQL-части". Такое вообще возможно? Для примера - упростила максимально запрос. Вот во второй части должна как то сдвигаться дата на заданный промежуток..