Да. Но с другой стороны JSON можно плюнуть куда-нить в БД и с любой актуальной СУБД у тебя будет почти готовая аналитика. А с этими штуками ещё придётся писать адаптеры
Если для вашей задачи json работает на ура - юзайте его - это действительно удобный и понятный формат.
Однако когда речь заходит про аналитику, сопряженную с большими данными, к сожалению, json не поможет( к слову как и любые классические бд).
Так, например, у меня на проекте (многопользовательская онлайн игра) за пару месяцев в одну таблицу в постгрес пишется более 300Gb, один индекс по одному полю за эти два мес. занимает в RAM более 20GB. Представьте себе стоимость обсчёта аналитики за несколько лет...
Там где нужно лопатить такие объемы и за недорого приходиться юзать форматы которые:
- splittable (Json не разделяем на несколько файлов для параллельного процессинга)
- column oriented (меньше дискового чтения, лучше сжатие)
- compressible
Мы у себязаем Apache Parquet (точнее snappy) и Apache Presto / Hive поверх файловой системы для аналитики.
В общем как обычно все упирается в стоимость. Повторюсь, для задач где можно использовать json - лучше использовать его.