Size: a a a

2020 December 23

KS

Kostya Struga in pro.kafka
terancet
Народ,

подскажите, пожалуйста, а куда смотреть, что бы разогнать consumer (увеличит throughput) без добавления новых партиций? К сожалению, confluent cloud не умеет добавлять налету новые партиции

Мой кейс следующий: есть consumer, который написан с использованием  spring Kafka binder streams. Он читает из топика, делает конвертацию и делает post request на внешний http. У топика одна партиция.
поиграться с размером батча
источник

KS

Kostya Struga in pro.kafka
terancet
Все таки хотелось бы разогнать сам consumer, а потом уже горизонтально скейлиться.
источник

t

terancet in pro.kafka
источник

t

terancet in pro.kafka
Кажется то, что нужно
источник

t

terancet in pro.kafka
Спасибо
источник

KS

Kostya Struga in pro.kafka
источник

VG

Vik Gamov in pro.kafka
Евгений Кирин
Хотелось бы чтобы была информация про семантику exactly-once, но не только со стороны конфига брокера, а так же со стороны клиентской библиотеки (producer), если она отваливается (в этом случае возможен дубликат). А также нет ничего про kstreams.
источник

VG

Vik Gamov in pro.kafka
terancet
Народ,

подскажите, пожалуйста, а куда смотреть, что бы разогнать consumer (увеличит throughput) без добавления новых партиций? К сожалению, confluent cloud не умеет добавлять налету новые партиции

Мой кейс следующий: есть consumer, который написан с использованием  spring Kafka binder streams. Он читает из топика, делает конвертацию и делает post request на внешний http. У топика одна партиция.
Что значит "на лету не умеет"?
источник

VG

Vik Gamov in pro.kafka
terancet
Все таки хотелось бы разогнать сам consumer, а потом уже горизонтально скейлиться.
Так не работает
источник

t

terancet in pro.kafka
Vik Gamov
Что значит "на лету не умеет"?
В UI Confluent Cloud нет опции обновления количества партиций после того как создан новый топик.
источник

t

terancet in pro.kafka
Vik Gamov
Так не работает
Что ты имеешь ввиду?
источник

VG

Vik Gamov in pro.kafka
terancet
В UI Confluent Cloud нет опции обновления количества партиций после того как создан новый топик.
источник

t

terancet in pro.kafka
Не пробовал. Но будет странно, что можно будет через cli обновить количество партиций, но нельзя через web морду.
источник

VG

Vik Gamov in pro.kafka
terancet
Не пробовал. Но будет странно, что можно будет через cli обновить количество партиций, но нельзя через web морду.
Я не буду удивлен
источник

VG

Vik Gamov in pro.kafka
terancet
Не пробовал. Но будет странно, что можно будет через cli обновить количество партиций, но нельзя через web морду.
Also, в саппорт писал?
источник

t

terancet in pro.kafka
Vik Gamov
Also, в саппорт писал?
Неа. Пока что руки не дошли до саппорта.
источник
2020 December 24

A

Asviel in pro.kafka
Коллеги, приветствую. Подскажите пожалуйста как Кафка обрабатывает commit от Consumer? Меня интересует в какой момент кафка считает сообщение для ConsumerGroup прочитанным? Когда лидер партиции запишет в свой лог коммит или когда хотя бы на одном фолловере лидера будет тоже подтверждено что данное сообщение прочитано?
источник

SB

Sergey Bezrukov in pro.kafka
Asviel
Коллеги, приветствую. Подскажите пожалуйста как Кафка обрабатывает commit от Consumer? Меня интересует в какой момент кафка считает сообщение для ConsumerGroup прочитанным? Когда лидер партиции запишет в свой лог коммит или когда хотя бы на одном фолловере лидера будет тоже подтверждено что данное сообщение прочитано?
Лидер партиции тут особо не при делах, оффсеты хранятся в специальных топиках со своими настройками репликации и времени жизни.
источник

A

Asviel in pro.kafka
Sergey Bezrukov
Лидер партиции тут особо не при делах, оффсеты хранятся в специальных топиках со своими настройками репликации и времени жизни.
Это я понимаю. Меня интересует следующая ситуация:
1. Я вызвал коммит на консьмере
2. Кафка записала этот комит в __consumer_offsets
Теперь вопрос, она мне отдаст подтверждение, что коммит успешно прошел сейчас или она сначала дождется пока все реплики согласно replication factor (последователи для этого раздела) подтвердят, что они сдвинули коммит у себя?
источник

SB

Sergey Bezrukov in pro.kafka
Asviel
Это я понимаю. Меня интересует следующая ситуация:
1. Я вызвал коммит на консьмере
2. Кафка записала этот комит в __consumer_offsets
Теперь вопрос, она мне отдаст подтверждение, что коммит успешно прошел сейчас или она сначала дождется пока все реплики согласно replication factor (последователи для этого раздела) подтвердят, что они сдвинули коммит у себя?
Это сложно сказать. Надо доку читать, что там на этот счёт.
источник