пока проблема в количестве запросов не стоит, я укладываюсь в лимит, вопрос именно с максимально удобным вариантом сохранения этого добра
Я бы сделал так: сформировал словарь с запросами/адресами; на каждый запрос (каждый адрес) получал бы хэш, который будет именем json-файла. Таким образом, можно будет восстановить какой файл относится к какому запросу. Затем нужно два скрипта. Первый скрипт просто делает реквесты и сохраняет полученные данные в json. А второй уже по исходному словарю начинает проходить по файлам и парсит JSON, с выдергиванием нужных данных и сохранением всего это в виде CSV. Второй же скрипт также пишет в отдельный файлик названия тех json, в которых по какой-то причине не удалось распарсить нужные данные.