Всем привет. А кто-нибудь работал в pandas с dataframe размера 100к строк на 30к столбцов? основная масса данных - bool, пару столбцов только string
Проблема в том, что даже для нулевого фрейма такого размера нужно 22 гб оперативки :)
Кто-нибудь решал такую проблему?
Разные варианты есть. К тому, что уже предлагали: убедитесь, что используются правильные типы колонок. Не надо использовать int64 для булевых значений. Можно также обрабатывать датасет по частям, если это поможет в вашей задаче.