Size: a a a

2019 December 20

A

Alex in pro.kafka
сколько у вас продьюсеров если не секрет?
источник

A

Anatoly Soldatov in pro.kafka
Yuriy
Коллеги, привет
Я правильно понимаю, что client.rack говорит о том, что у клиента будет приоритет в работе с теми брокерами, у кого такой-же brocker.rack?
Ты так говоришь брокеру, где ты располагаешься
Брокер определяет какая реплика для твоего консьюмера является предпочтительной на основе в тч значения этого конфига
источник

RB

Ramzan Bekbulatov in pro.kafka
Alex
5m*10*3 (репликафактор) = 150MB/s чистой инфы
по идее 5 должно быть с запасом
только я бы поиграслся с размером буфера на клиенте

само добавление сообщения во внутренний буфер на клиенте может в вашем случае быть проблемой на таком рейте
Ага, есть такое, на стороне клиента планируется плюсовый код гонять
источник

RB

Ramzan Bekbulatov in pro.kafka
Alex
сколько у вас продьюсеров если не секрет?
Есть возможность подобрать необходимое количество. Предвариательно говоря, было бы удобно иметь штук 500 продьюсеров
источник

A

Alex in pro.kafka
за плюсовый код не скажу,
тут думаю люди лучше скажут насколько хорошо он работает с кафкой, у меня был не очень с ним опыт, но это было давно

по идее норм количество и должно переварить
источник

RB

Ramzan Bekbulatov in pro.kafka
Alex
за плюсовый код не скажу,
тут думаю люди лучше скажут насколько хорошо он работает с кафкой, у меня был не очень с ним опыт, но это было давно

по идее норм количество и должно переварить
Спасибо за ответы, помогло прицениться
источник

AS

Alexander Sibiryakov in pro.kafka
Коллеги, добрый вечер
источник

AS

Alexander Sibiryakov in pro.kafka
разрешите вакансию про Кафку?
источник

VD

Vitalii Dmitriev in pro.kafka
Alexander Sibiryakov
разрешите вакансию про Кафку?
Если хорошо оформлена, то можно.
источник
2019 December 21

VG

Vik Gamov in pro.kafka
Yuriy
Коллеги, привет
Я правильно понимаю, что client.rack говорит о том, что у клиента будет приоритет в работе с теми брокерами, у кого такой-же brocker.rack?
Client будет читать follower реплику с брокера с таким же rack

> Apache Kafka 2.3 clients or later will read from followers that have matching broker.rack and client.rack IDs.
источник

VG

Vik Gamov in pro.kafka
Vitalii Dmitriev
Если хорошо оформлена, то можно.
Я вот думаю может вакансии за денежку и в канал?
источник

Y

Yuriy in pro.kafka
Vik Gamov
Я вот думаю может вакансии за денежку и в канал?
Не лучше отдельный канал?
источник

VD

Vitalii Dmitriev in pro.kafka
Yuriy
Не лучше отдельный канал?
Вообще, лучше постить вакансии в соответствующие каналы, разделенным по языкам программирования.
источник

VG

Vik Gamov in pro.kafka
Yuriy
Не лучше отдельный канал?
Не, это чат, а есть канал у этого чата
источник

VD

Vitalii Dmitriev in pro.kafka
Vik Gamov
Не, это чат, а есть канал у этого чата
Ну, и предлагается его не засорять вакансиями, а создать отдельный для вакансий. Если правильно уловил мысль.
источник
2019 December 22

TB

Torlin Bios in pro.kafka
Никто не сталкивается с проблемой ребалансировки на Кафка стримах в версии 2.3.х с включенным exactly once?
источник
2019 December 23

DB

Dima Bash in pro.kafka
Добрый день. Есть Kafka connect hdfs sink. В настройках конфига прописан     log_dir. Если происходит какой-нибудь сбой, то при переподключении выдает странные сообщения о невозможности подключения к датанодам. Лечится только удалением директории логов на hdfs. После этого работает нормально. Это как-то можно полечить?
источник

g

grut in pro.kafka
привет!
подскажите, правильно ли я понимаю работу punctuate

если мне надо найти макс значение по ключу и punctuate вызывается раз в 10 сек, то если макс значение придет через 11 сек - у меня будут 2 сообщения в аутпут топике?

т.е. по одной записи на каждый вызов punctuate?
источник

NR

Nikita Ryanov in pro.kafka
grut
привет!
подскажите, правильно ли я понимаю работу punctuate

если мне надо найти макс значение по ключу и punctuate вызывается раз в 10 сек, то если макс значение придет через 11 сек - у меня будут 2 сообщения в аутпут топике?

т.е. по одной записи на каждый вызов punctuate?
Punctuate вызывается с указанным интервалом, соответственно, на каждый вызов будет выполнено какое-то действие.
Когда придет максимальное значение не столь принципиально, важно, что оно будет искаться каждые 10 секунд.

https://kafka.apache.org/10/documentation/streams/developer-guide/processor-api.html#defining-a-stream-processor
источник

АБ

Алексей Быстрый in pro.kafka
Приходит от кафки MessageSizeTooLarge. Выставил max.message.bytes больше. Но ошибка не ушла. Это ведь должно было помочь? (размер сообщения точно меньше чем значение параметра)
источник