через foreachBatch? нет гарантий атомарности... батрак черпанул один раз. влил в грязный чан и сдох от работы. чистый чан не дозаполнился, а оффсеты уже сдвинулись
Напилить партиций что бы гарантировать в размер памяти ? Читать чанками по 100к записей ?
> через foreachBatch не хочу - там нет атомарности двух df.write (или есть?) нет атомарности, если посередине батча упадет, df2.write может не случиться
Во всей истории, непонятно, почему эти процессы должны быть объединены. Результат - разный, вычисления разные, взаимное влияние - нет и не должно быть, экономия ресурсов - нет
Во всей истории, непонятно, почему эти процессы должны быть объединены. Результат - разный, вычисления разные, взаимное влияние - нет и не должно быть, экономия ресурсов - нет
а может действительно, пусть два разных черпаря работают. по разным сторонам реки