Забежал к вам задать #вопрос по работоспособности и целесообразности использования Табло для определенной задачки.
Есть порядка 15-20 таблиц в DB2 с различной степенью гранулярности, на 80% уже предрасчитанных агрегатов с неким универсальным ключом. В каждой порядка 5-10 млн. уникальных ключей и от 3х до 10х записей с этими ключами.
В табло подготовлен интерфейс по отображению различных уровней детализации по этим ключам с глобальной фильтрацией по этим источникам и с дропдауном в детальные слои.
И все это добро адово тормозит. Фильтр на общий датасет применяется несколько минут.
Варианты - выкинуть Табло как инструмент - мы просто не умеем его готовить - DB2 заменить на что-то колоночное
тогда попробуйте погонять массив на более свежих версиях табло, там появился движок hyper вроде бы он побыстрее. Второй вопрос - как вы эти 15-20 источников связали? Надеюсь, что не блендингом )
тогда попробуйте погонять массив на более свежих версиях табло, там появился движок hyper вроде бы он побыстрее. Второй вопрос - как вы эти 15-20 источников связали? Надеюсь, что не блендингом )
тогда попробуйте погонять массив на более свежих версиях табло, там появился движок hyper вроде бы он побыстрее. Второй вопрос - как вы эти 15-20 источников связали? Надеюсь, что не блендингом )
вот вот, что на дашборде в итоге? как источники между собой связаны? сколько marks на визуалазации?
Я в r закачивал таблицу с 15 млрд записей. Весила она всего 4-8 гб, а мой рабочий ноут имел 32.работать можно было
помюн был заказчик который жаловался что Табло тормозило. Он пытался MS куб развернуть в таблицу... 15 разрезов и 3 метрики... Ну вот он все это едла выкладывал на полки в Табло и жаловался что Табло долго отрабатывает запрос...
не так ключ не имеет уникальных гео, гео может иметь атрибут ключа, который не уникальный для всех ключей точек не так много
а еще я бы попробовал фильтры заменить на параметры и вставить их в Custom sQL + нарезать данные на партиции если Db2 позволяет, и лазать в эти партиции через параметры