Size: a a a

Python для анализа данных

2021 February 08

AD

Artemiy Dubovoy in Python для анализа данных
В особенности если предполагается работа такого же формата в потоке
источник

СИ

Сергей Ильин... in Python для анализа данных
Artemiy Dubovoy
Я бы советовал вам разделить слои работы с данными по инструментам:
1. Забираем и обрабатываем питоном
2. Складываем в базу (можно поднять какой-то самый простой постгрес и не париться)
3. Обращаемся к базе средством визуализации (из бесплатных могу посоветовать metabase и superset)
хм. о втором шаге даже не подумал.
т.е. сначала все уложить в таблицы внутри БД, а потом к ним ходить через sql-запросы?
источник

MC

Makha Cloud in Python для анализа данных
Сергей Ильин
мысль такая: все расчеты показывать не нужно, в итоге хочется получить "чистый" дашборд, а всю логику спрятать от пользователя
Продаёте?)
источник

AD

Artemiy Dubovoy in Python для анализа данных
Сергей Ильин
хм. о втором шаге даже не подумал.
т.е. сначала все уложить в таблицы внутри БД, а потом к ним ходить через sql-запросы?
Конечно, так проще всего
источник

PZ

Pavel Zheltouhov in Python для анализа данных
Сергей Ильин
хм. о втором шаге даже не подумал.
т.е. сначала все уложить в таблицы внутри БД, а потом к ним ходить через sql-запросы?
ну тогда труба - придется позвать программиста, тимлида, тестировщика . и все равно всех их учить программировать (
источник

MC

Makha Cloud in Python для анализа данных
Pavel Zheltouhov
ну тогда труба - придется позвать программиста, тимлида, тестировщика . и все равно всех их учить программировать (
Зачем?)))
источник

PZ

Pavel Zheltouhov in Python для анализа данных
Makha Cloud
Зачем?)))
таково Проклятье
источник

AD

Artemiy Dubovoy in Python для анализа данных
Сергей Ильин
хм. о втором шаге даже не подумал.
т.е. сначала все уложить в таблицы внутри БД, а потом к ним ходить через sql-запросы?
Откуда вы берёте данные для ноутбуков? Если из базы, то прям там и сделайте базу/схему под то, что выплёвывают ноутбуки
источник

MC

Makha Cloud in Python для анализа данных
Pavel Zheltouhov
таково Проклятье
Оно уже начало действовать?)
источник

СИ

Сергей Ильин... in Python для анализа данных
Pavel Zheltouhov
ну тогда труба - придется позвать программиста, тимлида, тестировщика . и все равно всех их учить программировать (
мсье изволит в юмор?
источник

AD

Artemiy Dubovoy in Python для анализа данных
Сергей Ильин
хм. о втором шаге даже не подумал.
т.е. сначала все уложить в таблицы внутри БД, а потом к ним ходить через sql-запросы?
Крутить по расписанию скрипты можно первое время хоть crontab'ом, но лучше освоить какой-то шедулер типа Airflow или аналогичных
источник

PZ

Pavel Zheltouhov in Python для анализа данных
Сергей Ильин
мсье изволит в юмор?
Ну вы же отказываетесь от простейшего
источник

СИ

Сергей Ильин... in Python для анализа данных
Artemiy Dubovoy
Крутить по расписанию скрипты можно первое время хоть crontab'ом, но лучше освоить какой-то шедулер типа Airflow или аналогичных
ок, спасибо. выглядит вполне себе решением.
источник

СИ

Сергей Ильин... in Python для анализа данных
Pavel Zheltouhov
Ну вы же отказываетесь от простейшего
мне оно не очень нравится тем, что выглядит у пользователя не очень. а так - да, наверное, простейшее
источник

PZ

Pavel Zheltouhov in Python для анализа данных
Сергей Ильин
мне оно не очень нравится тем, что выглядит у пользователя не очень. а так - да, наверное, простейшее
да уж получше чем баги в суперсете отлавливать
источник

AD

Artemiy Dubovoy in Python для анализа данных
Pavel Zheltouhov
да уж получше чем баги в суперсете отлавливать
Посмотрю, как вы на viola сделаете отчётность для больше, чем одного человека
источник

AD

Artemiy Dubovoy in Python для анализа данных
Это не масштабируемое решение
источник

PZ

Pavel Zheltouhov in Python для анализа данных
было б куда масштабироваться) все аналитические модели скорее делаются на выброс
источник

AD

Artemiy Dubovoy in Python для анализа данных
Поэтому я в начале и оговорился, что моё решение для работе в потоке, а не для одноразовой работы
источник

AD

Artemiy Dubovoy in Python для анализа данных
Хотя по-моему лучше сразу заложить минимальную базу, от которой можно плясать потом
источник