dgj dfsh,
Pavel Niki - спасибо большое за ответы!
>>
Распаковка вложенных списков неопределенной глубиныКрутая статья, поиграюсь, посмотрю производительность. Очень интересно.
>> json_normalize() - тоже очень юзабельная фича.
Однако (как и со статьей на Хабре) - эти методы применяются к десериализованному джейсону. А критический затык по производительности происходит на этапе десериализации из строки (json.loads или одноименный метод из более быстрых аналогов ujson, rapidjson, orjson и пр., которые дают незначительный прирост в скорости).
Нашел, в итоге, модуль ijson (с сишным бэкэндом jajl, либо python-реализация в связке с pypy), который позволяет читать сериализованный json с помощью генераторов, собирая только необходимые поля. По некоторым статьям, прирост производительности в сравнении с json.loads и отбрасыванием ненужных полей -> в 100-600 раз. На своих данных ещё не успел потестить. Но выглядит очень даже ничего.
Есть еще идеи? :)