Size: a a a

2020 December 04

VG

Vik Gamov in pro.kafka
Anatoly
@gamussa интересно, а можно как-то подключить через новый tier storage данные из s3 к новому пустому кластеру?:)
Так, уточнить.
Люди в курсе, люди работают ©️

Сейчас не работает но активно ведётся работа над этим
источник

DL

Denis Larionov in pro.kafka
Почему @StreamListener @Binder задеппеккйтили в спринг бут 2.4?
источник

VG

Vik Gamov in pro.kafka
Denis Larionov
Почему @StreamListener @Binder задеппеккйтили в спринг бут 2.4?
Потому что в spring cloud stream 3 правильный способ это аннотировать функциональные интерфейсы (Function, Consumer, Supplier)
источник

DL

Denis Larionov in pro.kafka
Т.е. всё в настройках теперь?
источник

VG

Vik Gamov in pro.kafka
Denis Larionov
Т.е. всё в настройках теперь?
источник

DL

Denis Larionov in pro.kafka
Ок, спасибо
источник

A

Anatoly in pro.kafka
Vik Gamov
Так, уточнить.
Люди в курсе, люди работают ©️

Сейчас не работает но активно ведётся работа над этим
Круто будет когда появится такая возможность :)
источник
2020 December 05

VP

Vitaly Pismarev in pro.kafka
Привет

Вопрос может не совсем по кафке, но всё же спрошу тут. Нужно настроить SSL для клиента кафки и есть два pem-файла (сертификат + ключ). Как эти ключи конвертнуть в jks?  Гуглением нашёл как оба файла импортировать в один jks, но мне судя по всему нужен отдельно trustStore и keyStore и указать их в параметрах консьюмера:

"ssl.truststore.location","cert.jks";
"ssl.keystore.location", "key.jks";

+ пароли

Может кто делал такое?
источник

Y

Yuriy in pro.kafka
источник

VP

Vitaly Pismarev in pro.kafka
А удалось по этой инструкции нормальные jks сгенерить? Я её пробовал, но не завелось (  Пишет не могу распознать сертификато, как то так
источник

VP

Vitaly Pismarev in pro.kafka
Но возможно это мои руки
источник

SP

Sergey Pichkurov in pro.kafka
Всем привет. Есть вопрос по оптимизации кластера с большим кол-вом топиков (до 10к) и партиций (больше 50к), и низкой частотой сообщений (1k-5к/cek), и умеренными требованиями по producer latency (до 50 msec P90). кластер на 5 брокеров.
текущая идея - управлять через replica.fetch.min.bytes , поднять с 1 (default) до большего значения (которое уберет срабатывание по данному параметру), и снизить replica.fetch.wait.max.ms с 500 до 30msec.
первые тесты показывают что рейты FetchFollower упали до расчетных 30/сек (1000/ replica.fetch.wait.max.ms),  а было где-то 800/ceк на брокер. Это дроп где-то в раз 30, за счет того что num.replica.fetchers вернули в 1 (было 32).
вроде бы хорошо, но вылезла проблема - CPU usage улетел в область глубокой сатурации (90%). Ну и соотвественно, все тайминги просели сразу.
единственная зацепка пока это метрика  kafka_network_RequestMetrics_OneMinuteRate{request="Fetch",name="ErrorsPerSec",error="NONE"}, она скакнула в 4-5 раз, (это при том что FetchFollower упали в 30 раз), и теперь где-то 50к/сек на кластер (близко к кол-ву партиций).
Пока не могу понять что за хрень такая, может у кого есть идеи? Спасибо
источник

SP

Sergey Pichkurov in pro.kafka
смотрел в связи с этим https://cwiki.apache.org/confluence/display/KAFKA/KIP-227, там вроде пишут что  FetchFollower должен возвращать ответ только если метаданные топика меняются, те, по идее, response rates должны быть низкими (соответсвовать реальному траффику)
источник

SP

Sergey Pichkurov in pro.kafka
проверил IncrementalFetchSessionEvictionsPerSec, все по нулям
источник

V

VR in pro.kafka
Vitaly Pismarev
Привет

Вопрос может не совсем по кафке, но всё же спрошу тут. Нужно настроить SSL для клиента кафки и есть два pem-файла (сертификат + ключ). Как эти ключи конвертнуть в jks?  Гуглением нашёл как оба файла импортировать в один jks, но мне судя по всему нужен отдельно trustStore и keyStore и указать их в параметрах консьюмера:

"ssl.truststore.location","cert.jks";
"ssl.keystore.location", "key.jks";

+ пароли

Может кто делал такое?
Попробуй импортировать keypair Keystore Explorerом
https://keystore-explorer.org/
Не обязательно иметь  2 jks можно тот же и как keystore и как trustore
источник

SP

Sergey Pichkurov in pro.kafka
профиль выполнениея с брокера. похоже, incremental FetchRequests KIP-227 не такой уж и инкрементальный. непонятно, нафига он ломится читать лог файлы всех партиций, когда у лидера, по идее, все метаданные должны быть уже в кеше ??

100%... kafka.server.KafkaRequestHandler.run(KafkaRequestHandler.scala:70)

85.7%kafka.server.KafkaApis.handle(KafkaApis.scala:129)
80.0%kafka.server.KafkaApis.handleFetchRequest(KafkaApis.scala:827)
53.8%kafka.server.ReplicaManager.fetchMessages(ReplicaManager.scala:920)
35.7%... kafka.server.ReplicaManager$$Lambda$883/2092893048.apply()

35.5%kafka.server.ReplicaManager.$anonfun$readFromLocalLog$8(ReplicaManager.scala:1102)
32.0%... kafka.cluster.Partition.readRecords(Partition.scala:1048)

31.0%kafka.cluster.Partition.$anonfun$readRecords$1(Partition.scala:1058)
29.8%kafka.log.Log.read(Log.scala:2337)
источник

VP

Vitaly Pismarev in pro.kafka
спс
источник

A

Andrey in pro.kafka
Подскажите, а что бы воспользоваться вот этим коннектором https://docs.confluent.io/kafka-connect-s3-sink/current/index.html#install-the-amazon-s3-sink-connector мне нужна какая-то особая сборка кафки? Я скачал официальную с apache, но при запуске connect-standalone жалуется на java.lang.ClassNotFoundException: io.confluent.connect.storage.StorageSinkConnectorConfig
источник

A

Anton in pro.kafka
Andrey
Подскажите, а что бы воспользоваться вот этим коннектором https://docs.confluent.io/kafka-connect-s3-sink/current/index.html#install-the-amazon-s3-sink-connector мне нужна какая-то особая сборка кафки? Я скачал официальную с apache, но при запуске connect-standalone жалуется на java.lang.ClassNotFoundException: io.confluent.connect.storage.StorageSinkConnectorConfig
скачать https://www.confluent.io/hub/confluentinc/kafka-connect-s3 и подложить в папку с плагинами
источник

A

Andrey in pro.kafka
я так и сделал :(
источник