Там история такая - есть у нас дофига систем, работающих на БД Oracle, MSSQL, PostgreSQL, Mongo и так далее, вот из них все затекает в Кафку, через коннекторы JDBC и Debezium, как в AVRO, так и в JSON. А затем ребята дата инженеры через Ni-Fi и прочие ETL тулы забирают эти данные и пишут в GreenPlum. Но он очень нестабильно работает по ряду причин и поэтому они хотят, чтоб если он будет не доступен, хранить в Кафка, вот эти вот все данные из БД пришедшие, в течении 2 недель. То есть retention такой у топиков делать - типа за это время верняк GreenPlum успеют оживить =)