Size: a a a

2021 January 09

PD

Phil Delgyado in pro.kafka
тот же Cadence реализовать на кафке, а не чем-то еще
источник

VG

Vik Gamov in pro.kafka
Phil Delgyado
тот же Cadence реализовать на кафке, а не чем-то еще
Что такое cadence?
источник

PD

Phil Delgyado in pro.kafka
Уберовский workflow движок. Изначально сделан поверх кассандры, но это кривое решение.
источник

VG

Vik Gamov in pro.kafka
Блеск и нищета опенсорса ©️
источник

VG

Vik Gamov in pro.kafka
На Кафка саммите товарищ из camunda делал доклад про вот это все
источник

PD

Phil Delgyado in pro.kafka
Но вообще сценарии 'куча мелких очередей, в которых важна последовательность событий' вылезают часто. Персистентные акторы, да тот же список событий на клиент на вебсокетах.
источник

PD

Phil Delgyado in pro.kafka
Ну, камунда очень медленная.
источник

PD

Phil Delgyado in pro.kafka
Меня интересует 5000 tps, сотни тысяч одновременных процессов.
источник

PD

Phil Delgyado in pro.kafka
Можно сделать на кассандре илм редисе или foundationdb, но проще было бы на кафке.
источник

PD

Phil Delgyado in pro.kafka
Создавать по топику на workflow точно не стоит. А вот про consumer group на workflow - я не думал...
источник

PD

Phil Delgyado in pro.kafka
(тянуть в проект pulsar тоже не хочется, там вроде нет лимита на число топиков/партиций)
источник

PD

Phil Delgyado in pro.kafka
Если интересно, то могу отдельно рассказать поподробнее )
источник

В

Вадим in pro.kafka
подскажите пожалуйста а задача рассылки почти и пушей сюда подходит?
или не стоит такими пустяками нагружать архитектуру при помощи кафки?
источник

VG

Vik Gamov in pro.kafka
Вадим
подскажите пожалуйста а задача рассылки почти и пушей сюда подходит?
или не стоит такими пустяками нагружать архитектуру при помощи кафки?
Можно но только как низкоуровневый транспорт. Все равно надо будет обкладывать свои API
источник

KS

K S in pro.kafka
Граждане, подскажите как можно избежать дырок в данных если вдруг чтение из postgres с помощью CDC и запись в кафку на какое-то время невозможно. Как определить недостающие куски, которые нужно backfill?
источник

N

Nikolay in pro.kafka
Phil Delgyado
(тянуть в проект pulsar тоже не хочется, там вроде нет лимита на число топиков/партиций)
Они пишет о достигнутом максимум порядка 2 млн. Может лимит и есть , но нет такой статьи, которая бы объясняла почему он есть.
источник

PD

Phil Delgyado in pro.kafka
Nikolay
Они пишет о достигнутом максимум порядка 2 млн. Может лимит и есть , но нет такой статьи, которая бы объясняла почему он есть.
Ага, спасибо, подумаю, может реально микроочереде делать через consumer-group на каждую. Надо перечитать и подумать, не будет ли проблем при падении брокеров или консамеров и перераспределении партиций.
источник

ДН

Дмитрий Негреев... in pro.kafka
K S
Граждане, подскажите как можно избежать дырок в данных если вдруг чтение из postgres с помощью CDC и запись в кафку на какое-то время невозможно. Как определить недостающие куски, которые нужно backfill?
в постгрисе обычный replication slot ставится, пока все изменения debezium не высушит - wal не должен удаляться (но надо проверять)
он lsn хранит где-то, и стартует с него после перезапуска
источник

A

Anton in pro.kafka
K S
Граждане, подскажите как можно избежать дырок в данных если вдруг чтение из postgres с помощью CDC и запись в кафку на какое-то время невозможно. Как определить недостающие куски, которые нужно backfill?
Это задача cdc а не кафки
источник

В

Вадим in pro.kafka
Vik Gamov
Можно но только как низкоуровневый транспорт. Все равно надо будет обкладывать свои API
насколько я понимаю продьюсеры из Postgres в Kafka есть - нужно только реализовать консьюмеры которые и будут заниматься отправкой?
источник