если у тебя такие большие документы, может стоит переформатировать в более близкий к реализационной базе формат или взять mongodb (или что то документно-ориентированное).
ведь когда тебе понадобится работать с этим документом, ты все равно будешь его читать и разворачивать через json_decode эти самые 780 кБайт, а чтений обычно чаще обновлений
при работе сервиса у тебя не будет 1000 одномоментных запросов, хотя может у тебя hiload
я пока с mongodb не знаком. Чтения документа будет не более , чем обновления. Да и чтение будет кусками. Это легко реализуется. В моем случае , как я выяснил, не желание через DB:: глубже одной вложенности, хотя чтение отличное. Вот бы решить эту проблему.....