Size: a a a

Power BI Group RU

2021 May 26

1

1Service in Power BI Group RU
решается просто
источник

ЛА

Ледин Алексей... in Power BI Group RU
боюсь, очень громоздко получиться....
в моем случае - чеков очень очень много, в каждом чеке 1-10 товаров...
источник

1

1Service in Power BI Group RU
находите все чеки, в каких есть молоко, применяете через treatas к чекам и просто смотрите эти чеки с товарами что в них
источник

ЛА

Ледин Алексей... in Power BI Group RU
treatas это функция DAX?
источник

1

1Service in Power BI Group RU
да
источник

1

1Service in Power BI Group RU
можете прислать файл с анонимными данными?
источник

IS

Ilya Shelegin in Power BI Group RU
В Google ищите по сочетанию:  powerbi bascet analysis
источник

ЛА

Ледин Алексей... in Power BI Group RU
да... Только там все в Ref_Key - анонимнее некуда.... В таком варианте устроит? или сопоставлять, что бы молоко называлось молоко, а не laha-7u9999-asflsdlj?
источник

1

1Service in Power BI Group RU
товар 1, товар 2 и тд достаточно анонимно)
источник

ЛА

Ледин Алексей... in Power BI Group RU
я могу с настоящей базы взять кусок, что бы самому не придумывать?
но там в чеках одни реф-кеи...
источник

1

1Service in Power BI Group RU
норм
источник

ЛА

Ледин Алексей... in Power BI Group RU
несколько минут, повоюю с ОДатой :)
источник

1

1Service in Power BI Group RU
помог мой совет с потоками ее побороть?
источник

YP

Yaroslav Popov in Power BI Group RU
источник

ЛА

Ледин Алексей... in Power BI Group RU
еще потоки не осилил - случайно нашел непрофессиональное решение... оно удовлетворило меня на 100% - локальный шлюз с данными за 2 года, а по ОДата получаю самые свежие данные, объединяю и вывожу в общую таблиуц
А потоки обязательно попробую на днях - то  что я прочитал, скорее всего именно то, что нужно в моем случае, что бы обойтись без шлюза
источник

A

Alexandra in Power BI Group RU
Коллеги, здравствуйте! Нужен ваш совет! Я получаю данные из источника Интернет в формате JSON. C помощью функций и параметров открываю страницы (их около 1000). Естественно, что обновление такого объема данных с постраничным открытием занимает очень много времени - около 2 часов. Очень бы хотела оптимизировать запрос. Логично предположить, что можно JSON разделить на старые данные, которые уже не изменяются, и более свежие данные. Первый запрос отключить от обновления. И сделать объединение запросов последующее. То есть, например, 990 страниц я один раз загрузила и больше не обновляю, а начиная с 991 страницы  - это новый запрос, который я обновляю.
Сделала все так. Но не помогло совсем. Запрос после объединения также обновляется 2 часа. Может быть, кто-то уже сталкивался с постраничными JSON? Как их можно оптимизировать еще?
источник

1

1Service in Power BI Group RU
при объединении запросов вы обновляете и первый тоже, попробуйте временно не в DQ а в модели через union их объединить и проверьте сколько будет обновление
источник

A

Alexandra in Power BI Group RU
Поняла! Спасибо большое! Попробую так сделать!
источник

1

1Service in Power BI Group RU
а разделить их можно через потоки и первый просто откл от обновления
источник

A

Alexandra in Power BI Group RU
Это через создание связанных таблиц?
источник