Size: a a a

2020 August 27

YA

Yerlan A in pro.kafka
Правда я SSL не заюзал)
источник

N

Nenormalniy in pro.kafka
Yerlan A
Правда я SSL не заюзал)
заюзаешь ещё, куда ты денешься)
источник

YA

Yerlan A in pro.kafka
Nenormalniy
заюзаешь ещё, куда ты денешься)
В проде однозначно)
источник

YA

Yerlan A in pro.kafka
Yerlan A
Правда я SSL не заюзал)
Ну тут еще впном периметр обозначили)
источник
2020 August 28

IR

Ivan Rasikhin in pro.kafka
Привет всем.
Кто нибудь в курсе могут ли закомпактиться данные еще не записанные на диск(которые лежат в page cache)?
источник

Y

Yuriy in pro.kafka
Ivan Rasikhin
Привет всем.
Кто нибудь в курсе могут ли закомпактиться данные еще не записанные на диск(которые лежат в page cache)?
Компактится вроде только закрытые сегменты, не?
источник

IR

Ivan Rasikhin in pro.kafka
ну по идее и закрытые сегменты все еще могут быть в кэше
источник

IR

Ivan Rasikhin in pro.kafka
сталкивался с кейсом, когда брокеры кафки рестартились потому что им не хватало лимитов по открытым файлам, и один из оффсетов слетел на 0 у одного из консюмеров, вот все пытаюсь понять почему это произошло
источник

S

Sirozha in pro.kafka
Добрый день. Подскажите, как коннектору указать с какого офсета считывать рекорды?
источник

AR

Alexander Ryzhenko in pro.kafka
Sirozha
Добрый день. Подскажите, как коннектору указать с какого офсета считывать рекорды?
- стопнуть коннектор
- записать в топик оффсетов нужное значение
- запустить коннектор
источник

ЮХ

Юра Ходырев... in pro.kafka
Sirozha
Добрый день. Подскажите, как коннектору указать с какого офсета считывать рекорды?
Я использовал кафкакат.

https://www.confluent.io/blog/kafka-connect-deep-dive-jdbc-source-connector/

Читать отсюда: Resetting the point from which the JDBC source connector reads data
источник

S

Sirozha in pro.kafka
А если я прото запущу новый коннектор, то он вычитает все рекорды в топике с начала?
источник

S

Sirozha in pro.kafka
Спасибо. Попробую
источник

S

Sirozha in pro.kafka
Заодно тогда проясните, что делает auto.offset.reset = latest для консюмера? Вижу в некоторых коннекторах есть это параметр
источник

AI

Alexander Iskuskov in pro.kafka
Sirozha
Добрый день. Подскажите, как коннектору указать с какого офсета считывать рекорды?
Какой тип коннектора?
если source - вот пример https://rmoff.net/2019/08/15/reset-kafka-connect-source-connector-offsets/
для sink - через consumer groups должно работать (пример https://rmoff.net/2019/10/15/skipping-bad-records-with-the-kafka-connect-jdbc-sink-connector/)
источник

S

Sirozha in pro.kafka
Sink
источник

AI

Alexander Iskuskov in pro.kafka
под капотом sink коннектора - консьюмер, в который можно прокинуть параметры (в том числе auto.offset.reset)
auto.offset.reset = latest - если для консьюмера нет закомиченного оффсета, то чтение из топика будет происходить с конца
можно установить для всех коннекторов, можно переопределить для каждого в отдельности (подробнее тут https://rmoff.net/2019/08/09/starting-a-kafka-connect-sink-connector-at-the-end-of-a-topic/)
источник

S

Sirozha in pro.kafka
Благодарю
источник

A

Andrei in pro.kafka
Как правильно использовать embedded-kafka при большом (50) кол-ве тестов. Тесты однотипные (отправить/получить/посмотреть результат), происходит гонка за ресурсами и часть тестов приходится прогонять повторно?
источник

VG

Vik Gamov in pro.kafka
Andrei
Как правильно использовать embedded-kafka при большом (50) кол-ве тестов. Тесты однотипные (отправить/получить/посмотреть результат), происходит гонка за ресурсами и часть тестов приходится прогонять повторно?
Не использовать
источник