Size: a a a

Power BI Group RU

2021 March 30

КГ

Константин Горбунов... in Power BI Group RU
Добрый день! Подскажите, метку данных можно как-либо выравнивать по левому/правому краю? Или проще заменить чем-то вроде сводной таблицы и фильтрами отбросить ненужные значения?
источник

KK

Konstantin Kadikin in Power BI Group RU
Андрей В
Коллеги, здравствуйте!
Подскажите пожалуйста, как сделать слайдер без круглого ползунка? Пример:
источник

1

1Service in Power BI Group RU
Андрей В
Коллеги, здравствуйте!
Подскажите пожалуйста, как сделать слайдер без круглого ползунка? Пример:
источник

KK

Konstantin Kadikin in Power BI Group RU
Обогнал:-Р
источник

KT

Kamil Tashmetov in Power BI Group RU
Коллеги, подскажите пжл, "стандартное отклонение" как посчитать его в BPI ?
источник

АВ

Андрей В in Power BI Group RU
@kkadikin, @InkognitoUser благодарю!
источник

RG

Ruslan Ganeev in Power BI Group RU
Kamil Tashmetov
Коллеги, подскажите пжл, "стандартное отклонение" как посчитать его в BPI ?
STDEV
источник

1

1Service in Power BI Group RU
Kamil Tashmetov
Коллеги, подскажите пжл, "стандартное отклонение" как посчитать его в BPI ?
смотря что именно нужно
источник

KT

Kamil Tashmetov in Power BI Group RU
Стандартное отклонение по полю
источник

V

Vladimir in Power BI Group RU
Kamil Tashmetov
Коллеги, подскажите пжл, "стандартное отклонение" как посчитать его в BPI ?
А потом коэффициент вариации будете считать?)
источник

S

Svetlana in Power BI Group RU
Ilya Shelegin
1. Сколько таблиц в модели?
2. Сколько строк в самой большой таблице?
3. Какая самая большая гранулярность в модели?
4. Какие источники в модели?
1.  11 таблиц  
2.  42 млн
3.  9 полей в двух таблицах
4. sql и поток данных ( откуда я и забираю самую большую таблицу)
источник

RG

Ruslan Ganeev in Power BI Group RU
Svetlana
Всем привет. Подскажите , может есть решение, как обойти в Power Pro  лимит превышения датасета в 1Гб?
Direct query
SSAS
источник

IS

Ilya Shelegin in Power BI Group RU
Svetlana
1.  11 таблиц  
2.  42 млн
3.  9 полей в двух таблицах
4. sql и поток данных ( откуда я и забираю самую большую таблицу)
42млн не такая и большая модель. Третий вопрос это не количество полей, а поле с наибольшим количеством уникальных значений.
Вот у меня сейчас открыта модель 24,5млн строк в таблице фактов. Самый "тяжёлый" столбец с суммой, так как там 652тысячи уникальных значений. И размер модели в памяти 276,3мб. Поэтому если у вас нет какого то поля с большой гранулярностью, я бы сначала пересмотрел строение модели. Потом уже разные хитрости, которые предлагали: direct query, композитные модели, ssas и инкрементальное обновление.
источник

АМ

Александр Морин... in Power BI Group RU
Недавно публиковал у себя на странице Facebook новость про инкрементное обновление кастомных коннекторов в Power BI (таких как Яндекс.Директ, Google Analytics и подобных).

Если кратко - теперь не надо каждый раз тянуть данные за несколько месяцев или лет. Можно дополнять отчёт данными за пару последних дней или недель.

Как этого добиться?

1) Создайте ограниченный динамическими датами запрос (например от 2daysAgo до yesterday).

2) Создайте 2 параметра - RangeStart и RangeEnd формата Дата + время. Неважно чему они будут равны в Power BI Desktop.

3) Зафильтруйте дату в запросе 2 созданными параметрами - Дата больше равна RangeStart И меньше RangeEnd.

4) Выгрузите результат в модель. Установите на табличку добавочное обновление - за сколько дней хотите обновлять её. Если один - будет обновляться за сегодня, если два - сегодня и вчера, итд.
Если запрос начинается с yesterday, то лучше всего ставить 1 день, если начинается с 2daysAgo, то ставим 2 дня, итд. Иначе он попытается получить данные за более ранний период, вытянет нулевое значение и оставит его в базе, а это нам не надо.

5) Выгрузите всё это в Power BI Service и установите расписание обновлений.

Как это работает:
Запрос всегда идёт в рамках дат, указанных в коннекторе (например от 2daysAgo до today). Но из-за добавочного обновления Power BI Service забирает только нужные ему даты и плюсует их к остальным данным. В итоге мы можем не тянуть статистику за весь период.

Если API в какой-то момент накосячит, например за 15 марта, то в отчёте останутся неправильные данные. Чтобы это исправить, рекомендую иметь отдельный необновляемый запрос с фиксированными датами за более ранний период. Например, запрос за январь-февраль 2021. Когда вы видите ошибку за 15-е марта 2021, вы добавляете в этот запрос половину марта, перетягивая ошибочные данные. И снова запускаете инкремент по новым датам. Я думаю ошибки будут очень редкими, но они бывают в любом API.

Мой запрос на скрине тянет последние пару дней, а статистика уже накопилась за неделю;)
https://yadi.sk/i/YIWXNbYGtXZrJg
источник

IS

Ilya Shelegin in Power BI Group RU
Ilya Shelegin
42млн не такая и большая модель. Третий вопрос это не количество полей, а поле с наибольшим количеством уникальных значений.
Вот у меня сейчас открыта модель 24,5млн строк в таблице фактов. Самый "тяжёлый" столбец с суммой, так как там 652тысячи уникальных значений. И размер модели в памяти 276,3мб. Поэтому если у вас нет какого то поля с большой гранулярностью, я бы сначала пересмотрел строение модели. Потом уже разные хитрости, которые предлагали: direct query, композитные модели, ssas и инкрементальное обновление.
@evseevs про оптимизацию. В данной модели столбец сумма - это деньги, в исходнике суммы хранятся с кучей знаков после запятой. Так как масштабы такие, что копейки никому не интересны, я спокойно перед загрузкой округлил суммы до двух знаков после запятой, что дало сокращение уникальных значений с 652125 до 497291 уникальных значений, а размер модели уменьшился на 36мб, а это более 10% объёма
источник

MZ

Maxim Zelensky in Power BI Group RU
Ilya Shelegin
@evseevs про оптимизацию. В данной модели столбец сумма - это деньги, в исходнике суммы хранятся с кучей знаков после запятой. Так как масштабы такие, что копейки никому не интересны, я спокойно перед загрузкой округлил суммы до двух знаков после запятой, что дало сокращение уникальных значений с 652125 до 497291 уникальных значений, а размер модели уменьшился на 36мб, а это более 10% объёма
А развел бы на рубли и копейки по разным столбцам как int - вообще удивился бы ) у второго столбца максимальная кардинальность 100.
источник

KK

Konstantin Kadikin in Power BI Group RU
Maxim Zelensky
А развел бы на рубли и копейки по разным столбцам как int - вообще удивился бы ) у второго столбца максимальная кардинальность 100.
А я бы вообще до рубля отрезал)
источник

MZ

Maxim Zelensky in Power BI Group RU
Но зависимость, конечно, не прямая
источник

MZ

Maxim Zelensky in Power BI Group RU
Konstantin Kadikin
А я бы вообще до рубля отрезал)
Тебе дай волю ))
источник

IS

Ilya Shelegin in Power BI Group RU
Maxim Zelensky
А развел бы на рубли и копейки по разным столбцам как int - вообще удивился бы ) у второго столбца максимальная кардинальность 100.
Ну Макс, это понятно)) мы же ищем оптимальное сочетание
источник