Коллеги, здравствуйте! Нужен ваш совет! Я получаю данные из источника Интернет в формате JSON. C помощью функций и параметров открываю страницы (их около 1000). Естественно, что обновление такого объема данных с постраничным открытием занимает очень много времени - около 2 часов. Очень бы хотела оптимизировать запрос. Логично предположить, что можно JSON разделить на старые данные, которые уже не изменяются, и более свежие данные. Первый запрос отключить от обновления. И сделать объединение запросов последующее. То есть, например, 990 страниц я один раз загрузила и больше не обновляю, а начиная с 991 страницы - это новый запрос, который я обновляю.
Сделала все так. Но не помогло совсем. Запрос после объединения также обновляется 2 часа. Может быть, кто-то уже сталкивался с постраничными JSON? Как их можно оптимизировать еще?