Size: a a a

2020 December 30

A

Anton in pro.kafka
Peter Fitenko
Это, вроде, для синка, или я ошибаюсь? Мне такое для сорс коннектора нужно провернуть
Jdbc или cdc?
источник

PF

Peter Fitenko in pro.kafka
Anton
Jdbc или cdc?
jdbc
источник

A

Anton in pro.kafka
Т.е. нужно чтобы не заливался снэпшот таблицы а просто сразу инкремент читался?
источник

PF

Peter Fitenko in pro.kafka
Anton
Т.е. нужно чтобы не заливался снэпшот таблицы а просто сразу инкремент читался?
Да, именно, начинал переливать в кафку все то, что появится в базе ПОСЛЕ создания коннектора
источник

A

Anton in pro.kafka
Peter Fitenko
Да, именно, начинал переливать в кафку все то, что появится в базе ПОСЛЕ создания коннектора
А что если в connect-offsets вставить соответвующий коннектору ключ чтобы он подумал что запускается уже не впервые? Время следующего инкремента он вычислит по timestamp
источник

PF

Peter Fitenko in pro.kafka
Anton
А что если в connect-offsets вставить соответвующий коннектору ключ чтобы он подумал что запускается уже не впервые? Время следующего инкремента он вычислит по timestamp
В таблице нет поля таймстемпов, поэтому могу использовать только поля офсетов (они как-раз есть)
источник

A

Anton in pro.kafka
Peter Fitenko
В таблице нет поля таймстемпов, поэтому могу использовать только поля офсетов (они как-раз есть)
А почему нельзя просто написать ограничение в sql запросе которое отсечет имеющиеся данные по оффсету?
источник

PF

Peter Fitenko in pro.kafka
Anton
А почему нельзя просто написать ограничение в sql запросе которое отсечет имеющиеся данные по оффсету?
Актуальный офсет неизвестен на момент создания коннектора)
источник
2021 January 03

N

Nikolay in pro.kafka
Кто знает.прсветите почему в кафке нельзя создать условный миллион топиков . В какой предел ( узкое место ) мы упирается в этом случае.
источник

N

Nick in pro.kafka
Nikolay
Кто знает.прсветите почему в кафке нельзя создать условный миллион топиков . В какой предел ( узкое место ) мы упирается в этом случае.
первая самая банальная проблема - это выделение ресурсов на диске под хранение данных в партиции, для этого создается файл фиксированного размера (можно настаривать), даже если ужать его до 1МБ и по 1 партиции на топик, то это уже 1Тб зарезервированного места. Плюс открытые дескрипторы на каждую партицию (сам лог и индекс)
источник

N

Nick in pro.kafka
Потом собсна в дело идет внутрянка, за которую особо не скажу, но кафка начинает достаточно ощутимо жрать память при создании большого количества топиков (тут может кто-то детально подскажет почему так происходит)
И напоследок приятным бонусом идет перезапуск такого брокера, где он после запуска должен проверить корректность всех крайних датафайлов каждой принадлежащей ему партиции
источник

D

Dima in pro.kafka
какой порядок кол-ва топиков кафке "комфортен"?
источник

Y

Yuriy in pro.kafka
Dima
какой порядок кол-ва топиков кафке "комфортен"?
В смысле какой предел допустим?
источник

PD

Phil Delgyado in pro.kafka
Ну, больше 100k партиций уже нужно проверять и тестировать особенно тщательно.
источник

PD

Phil Delgyado in pro.kafka
Есть статья про 200k партиций.
источник

Y

Yuriy in pro.kafka
Dima
какой порядок кол-ва топиков кафке "комфортен"?
Топики - это именованная группа партиций.
Не более 4 партиций per broker
Не более 200к партиций per cluster
источник

PD

Phil Delgyado in pro.kafka
Yuriy
Топики - это именованная группа партиций.
Не более 4 партиций per broker
Не более 200к партиций per cluster
4k per broker или 4 ровно?
источник

Y

Yuriy in pro.kafka
Не более 4000, рекомендуют на брокер
источник

Y

Yuriy in pro.kafka
Ну вот вопрос, активных партиций или всего
источник

Y

Yuriy in pro.kafka
Есть же топики, которые не используются например
источник