Size: a a a

2020 April 29

ЮХ

Юра Ходырев... in pro.kafka
И для каждой партиции получения будет храниться свой офсет. Есть какое то апи, которое позволит из питона скинуть офсет для конкретной партиции?
источник

ЮХ

Юра Ходырев... in pro.kafka
Если я правильно понял суть вопроса
источник

M

Maksim in pro.kafka
Коллеги, привет 👋
Сразу оговорюсь, что я в кафке новичок.
Возникла задача в которой надо находить записи с определённым хешом каждый раз, как захочет пользователь.
Но если пользователь устанет ждать, то может стопнуть процесс и вернуться к нему позже :)
Планируется выгружать каждую запись из топика, проверять ее в джаве и сохранять смещение, чтобы можно было с него продолжить в случае чего.

Может есть какие-то советы или более правильные решения?
источник

VG

Vik Gamov in pro.kafka
Bear
я только нашел путь через консольную утилиту, что не хорошо.
https://docs.confluent.io/current/clients/confluent-kafka-python/index.html#kafka-client-configuration

conf = {'bootstrap.servers': 'mybroker.com',
       'group.id': 'mygroup',
       'session.timeout.ms': 6000,
       'on_commit': my_commit_callback,
       'auto.offset.reset': 'earliest'}
consumer = confluent_kafka.Consumer(conf)


https://docs.confluent.io/current/clients/consumer.html#id1

'auto.offset.reset': 'earliest' будет читать с начала
источник

VG

Vik Gamov in pro.kafka
Bear
Да я это знаю, но у меня два консьемера и приведу в пример три кейса
- оба работают и поочереди получают сообщения
- один продалжает работать второй ребутнулся и тогда оба перестнанут получать сообщения, а я хочу что бы тот кот продолжает работать продолжал их получать
- оба ребутнулись, тогда Ваш ответ подходит, можно просто сделать новую группу

А какое решение для случаю № 2?
они в одной группе или нет?
источник
2020 April 30

B

Bear in pro.kafka
Разобрался спасибо за наводку, разобрался, за ребалансинг отвечают параметры request_timeout_ms,   max_poll_interval_ms,  session_timeout_ms, heartbeat_interval_ms дефоты для меня были большие.
источник

c

cloud_tg_captcha_bot in pro.kafka
User didn't pass the validation and was banned.
источник

DN

Dmitriy Novikov in pro.kafka
Скачать?
источник

VG

Vik Gamov in pro.kafka
Dmitriy Novikov
Скачать?
не надо
источник

AR

Alexander Ryzhenko in pro.kafka
Никто не сталкивался с тем, что в kafka connect не создаются таски в коннекторе? без ошибок в логе. Просто нет тасок
источник

AD

Alex Dev in pro.kafka
Запускаю kafka connect, он запускается и сразу падает,  пишет connect is [DOWN]  , по логам confluent local log connect одни безобидные info . Куда копать ?
источник

AD

Alex Dev in pro.kafka
в интернетах посылают напрямую к разрабам в slack 😅
источник

AU

Andrey Ustinov in pro.kafka
а если логи в дебаг переключить?
источник

AD

Alex Dev in pro.kafka
Andrey Ustinov
а если логи в дебаг переключить?
тоже пусто, нашел проблему. оперативка + свап настолько истощаются что даже видно java outmemory не может записать 😅
источник

AU

Andrey Ustinov in pro.kafka
хы)
источник

AU

Aleksey Uzhva in pro.kafka
А подскажите пожалуйста.

Консюмер через librdkafka (c++). Консюмит в консюмер группе.

Координатором группы сообщение о ребалансировке обрабатывается в том же треде?

То есть грубо говоря может ли быть такое что координатор группы обрабатывает очень толстое и сложное сообщение 2 минуты и вся группа в эти 2 минуты не может перебалансироваться?
источник

r

roudder in pro.kafka
гайз, понятие лидера в кафк кластера относительное же? то есть на текущий момент вот эта особь через пару мин уже другая может, это корректно?
источник

DD

Dmitry Dobrynin in pro.kafka
на разных топиках, на разных партициях - разные брокеры являются лидерами
источник

r

roudder in pro.kafka
но брокер лидер это же не статик, допустим он отваливается, там уже другой, коррект?
источник

DD

Dmitry Dobrynin in pro.kafka
если репликация не включена (1 реплика), то отвалится брокер - топик потерян
если репликация 2+, то клиент подключится к соседнему брокеру
источник