Size: a a a

2020 March 19

AK

Alexey Konyaev in pro.kafka
там, кстати, метрик у кафки куча, так что может и не стоит все-все собирать
источник

AE

Anton Evseev in pro.kafka
Коллеги, подскажите пожалуйста. Развернул Kafka Confluent впервые, пишет ошибку «1 --- [ad | producer-1] o.a.k.clients.producer.internals.Sender  : [Producer clientId=producer-1] Received invalid metadata error in produce request on partition charge-raw-0 due to org.apache.kafka.common.errors.NotLeaderForPartitionException: This server is not the leader for that topic-partition.. Going to request metadata update now»
источник

AD

Alex Dunaevsky in pro.kafka
Anton Evseev
Коллеги, подскажите пожалуйста. Развернул Kafka Confluent впервые, пишет ошибку «1 --- [ad | producer-1] o.a.k.clients.producer.internals.Sender  : [Producer clientId=producer-1] Received invalid metadata error in produce request on partition charge-raw-0 due to org.apache.kafka.common.errors.NotLeaderForPartitionException: This server is not the leader for that topic-partition.. Going to request metadata update now»
Видать, не совсем развернул)
источник

D

Dmitry in pro.kafka
Mikhail Butalin
Кто-нибудь сталкивался с таким агентом по сбору JMX для прометеуса?
https://github.com/prometheus/jmx_exporter
сталкивался. работает
собирает немного иные метрики, нежели https://github.com/danielqsj/kafka_exporter
источник

VG

Vik Gamov in pro.kafka
Это зачем тут?
источник

L

L.thm in pro.kafka
Сорри
источник

AU

Andrey Ustinov in pro.kafka
Vitaly Dobrovolsky
Товарищи, подскажите, почему такое может быть, что в одной партиции не удаляются старые сегменты?
303G    /srv/kafka/disk-4/logs/{topic}-0/
11G    /srv/kafka/disk-3/logs/{topic}-1/
11G    /srv/kafka/disk-1/logs/{topic}-2/

брокеры(2.4.0):
log.retention.hours=168
log.retention.check.interval.ms=300000
топик:
Configs for topic '{topic}' are retention.ms=302400000

И некоторые файлы в партиции 0 уже давно за неделю. А в партициях 1 и 2 все корректно удаляется.
удалось разобраться?
источник

VD

Vitaly Dobrovolsky in pro.kafka
Andrey Ustinov
удалось разобраться?
Дропнули в итоге старые сегменты, новые ротируются.
источник

AU

Andrey Ustinov in pro.kafka
Глюк брокера?
источник

AU

Andrey Ustinov in pro.kafka
Как дропнули? Релоадом просто?
источник

VD

Vitaly Dobrovolsky in pro.kafka
Похоже на то. Кореллирует правда с плагином omkafka в rsyslog которым мы некоторые логи пишем в кафку(до того как выставили randompartitions в true он писал только в нулевую партицию) так как другие топики тоже так же себя вели, но точная причина осталась неясной.
Удалили лог и индекс файлы старых сегментов и рестартовали брокера.
источник

AU

Andrey Ustinov in pro.kafka
Спасибо
источник
2020 March 20

NK

Nikita Konev in pro.kafka
Есть шанс что в будущем KIP-500 будет закончен и Zookeeper наконец-то отрежут ?
источник

VG

Vik Gamov in pro.kafka
Nikita Konev
Есть шанс что в будущем KIP-500 будет закончен и Zookeeper наконец-то отрежут ?
Да
источник

NK

Nikita Konev in pro.kafka
Вот его подзадачи из джиры вливаются прямо в trunk?

Я правильно понимаю что они сделаны так, что даже если сделаны не все, то кафка продолжает корректно, работать, просто меньше функционала 'смотрит' в зоокипер?
источник

N

Nikolay in pro.kafka
Про kip-500. А где этот аналог ЗК будет жить ? В одном из потоков на брокере ?
источник

VG

Vik Gamov in pro.kafka
ребяты, заходим и читаем - тут уже много написали https://cwiki.apache.org/confluence/display/KAFKA/KIP-500%3A+Replace+ZooKeeper+with+a+Self-Managed+Metadata+Quorum
источник

VG

Vik Gamov in pro.kafka
Nikita Konev
Вот его подзадачи из джиры вливаются прямо в trunk?

Я правильно понимаю что они сделаны так, что даже если сделаны не все, то кафка продолжает корректно, работать, просто меньше функционала 'смотрит' в зоокипер?
Bridge Release
The overall plan for compatibility is to create a "bridge release" of Kafka where the ZooKeeper dependency is well-isolated.
While this release will not remove ZooKeeper, it will eliminate most of the touch points where the rest of the system communicates with it.  As much as possible, we will perform all access to ZooKeeper in the controller, rather than in other brokers, clients, or tools.  Therefore, although ZooKeeper will still be required for the bridge release, it will be a well-isolated dependency.
We will be able to upgrade from any version of Kafka to this bridge release, and from the bridge release to a post-ZK release.  When upgrading from an earlier release to a post-ZK release, the upgrade must be done in two steps: first, you must upgrade to the bridge release, and then you must upgrade to the post-ZK release.
источник

VG

Vik Gamov in pro.kafka
Nikita Konev
Вот его подзадачи из джиры вливаются прямо в trunk?

Я правильно понимаю что они сделаны так, что даже если сделаны не все, то кафка продолжает корректно, работать, просто меньше функционала 'смотрит' в зоокипер?
Только Не функционал, а функциональность
источник

NK

Nikita Konev in pro.kafka
Спасибо)
источник