вообще, я как-то не верю, что количество этих моделек прям зашкаливает. однотипные рано или поздно набираются в библиотеку, из которой уже можно собирать data flow
ну вот у тебя есть модель на 60 млрд транзакций + 2к фичей по каждой из них, если ты отправишь даже в пожатом виде 60 млрд записей в кафка-сервис с питоновской моделью, это не будет так же быстро как заброадкастить модель и применить ее через спарк
ну вот у тебя есть модель на 60 млрд транзакций + 2к фичей по каждой из них, если ты отправишь даже в пожатом виде 60 млрд записей в кафка-сервис с питоновской моделью, это не будет так же быстро как заброадкастить модель и применить ее через спарк
ну вот у тебя есть модель на 60 млрд транзакций + 2к фичей по каждой из них, если ты отправишь даже в пожатом виде 60 млрд записей в кафка-сервис с питоновской моделью, это не будет так же быстро как заброадкастить модель и применить ее через спарк