Size: a a a

2021 February 03

SN

Sergey Nikolaev in pro.kafka
Vik Gamov
SR использует кафку как хранилище BTW
кафка есть, просто требования к одному кейсу такие.

спасибо за подсказку
источник

GA

George Artemiev in pro.kafka
Можно ли сгенерив 5К сообщений в Kafka за раз сразу же их получить там ибо когда я пробую высылать 5К за раз то количество порциями прилетает но не сразу. Если такое возможно то каким параметром/параметрами на стороне producer или самой Kafka?
На Producer у меня стоят следующие параметры:
"queue.buffering.max.messages=5120",    
"queue.buffering.max.ms=1000",
"batch.num.messages=5120

На самой Kafka в AWS:
auto.create.topics.enable=false
default.replication.factor=3
min.insync.replicas=2
num.io.threads=8
num.network.threads=5
num.partitions=1
num.replica.fetchers=2
replica.lag.time.max.ms=30000
socket.receive.buffer.bytes=102400
socket.request.max.bytes=104857600
socket.send.buffer.bytes=102400
unclean.leader.election.enable=true
zookeeper.session.timeout.ms=18000
источник

IS

Ivan Shirokov in pro.kafka
George Artemiev
Можно ли сгенерив 5К сообщений в Kafka за раз сразу же их получить там ибо когда я пробую высылать 5К за раз то количество порциями прилетает но не сразу. Если такое возможно то каким параметром/параметрами на стороне producer или самой Kafka?
На Producer у меня стоят следующие параметры:
"queue.buffering.max.messages=5120",    
"queue.buffering.max.ms=1000",
"batch.num.messages=5120

На самой Kafka в AWS:
auto.create.topics.enable=false
default.replication.factor=3
min.insync.replicas=2
num.io.threads=8
num.network.threads=5
num.partitions=1
num.replica.fetchers=2
replica.lag.time.max.ms=30000
socket.receive.buffer.bytes=102400
socket.request.max.bytes=104857600
socket.send.buffer.bytes=102400
unclean.leader.election.enable=true
zookeeper.session.timeout.ms=18000
Транзакционный продюсер не подойдёт?)
источник

GA

George Artemiev in pro.kafka
у меня в качестве продюсера rsyslog выступает
источник
2021 February 04

NG

Nikolay Gordienko in pro.kafka
Подскажите пожалуйста есть ли возможность Topology или TopologyDescription (Kafka Stream Java API) перевести в ksql запрос (вывод, печать).
Т.е есть Stream app, вывести запрос который будет выполняться? Т.е топологию в запрос.
Написать ksql не проблема, но вопрос с тестированием, используя Stream API значительно легче тестировать стримы.
Спасибо!
источник

AI

Alexey Ivanko in pro.kafka
Всем привет!
Поискал по чату - ответ на свой вопрос не нашёл, хотя наверняка кто-то интересовался.
У каждого топика существует 2 настраиваемых ограничения:
1. время хранения данных в топике (похоже 7 дней по умолчанию)
2. объем памяти, занимаемый топиком на диске

Подскажите пожалуйста, где и как их настраивать?
источник

МИ

Морозов Иван... in pro.kafka
Alexey Ivanko
Всем привет!
Поискал по чату - ответ на свой вопрос не нашёл, хотя наверняка кто-то интересовался.
У каждого топика существует 2 настраиваемых ограничения:
1. время хранения данных в топике (похоже 7 дней по умолчанию)
2. объем памяти, занимаемый топиком на диске

Подскажите пожалуйста, где и как их настраивать?
источник

AI

Alexey Ivanko in pro.kafka
Спасибо!
источник

VG

Vik Gamov in pro.kafka
Nikolay Gordienko
Подскажите пожалуйста есть ли возможность Topology или TopologyDescription (Kafka Stream Java API) перевести в ksql запрос (вывод, печать).
Т.е есть Stream app, вывести запрос который будет выполняться? Т.е топологию в запрос.
Написать ksql не проблема, но вопрос с тестированием, используя Stream API значительно легче тестировать стримы.
Спасибо!
А в чем проблема тестировать ksqlDB? ksql-test-runner - куда уж проще?
источник

NG

Nikolay Gordienko in pro.kafka
да, но сообщения в Protobuf, понимаю что требования мягко говоря специфичные.
Да ну и как то не разгуляешься в тестах (ksql-test-runner inputFile expectedResult).
источник

VG

Vik Gamov in pro.kafka
Nikolay Gordienko
да, но сообщения в Protobuf, понимаю что требования мягко говоря специфичные.
Да ну и как то не разгуляешься в тестах (ksql-test-runner inputFile expectedResult).
А какая разница в какой формате? Работает с и protobuf
источник

NG

Nikolay Gordienko in pro.kafka
Я 2мя руками за StreamAPI + полноценные тесты, но требование использовать только KSQL.
Так мне проще написать Stream app и прогнать полноценные тесты чем тестировать запросы на подготовленных файликах.
Спасибо @gamussa , тогда буду тестировать с ksql-test-runner.
источник

NG

Nikolay Gordienko in pro.kafka
Нашел такое https://github.com/lensesio/ksql-streams
Думал есть и обратное. (Смотря что считать прямым и обратным :) )
источник

VG

Vik Gamov in pro.kafka
Nikolay Gordienko
Нашел такое https://github.com/lensesio/ksql-streams
Думал есть и обратное. (Смотря что считать прямым и обратным :) )
Это прям очень странное но может быть кому-то полезно
источник

NG

Nikolay Gordienko in pro.kafka
Да, это точно, из DSL -> KSQL еще логично (код->строка запроса), но парсить строки что бы стрим построить объектными средствами - странно.
источник

NG

Nikolay Gordienko in pro.kafka
Vik Gamov
А какая разница в какой формате? Работает с и protobuf
Файлики не читабельные (не понятно кто что тестировал и что отправляем), разве что их генерировать из кода, а потом запускать tool.
источник

VG

Vik Gamov in pro.kafka
Nikolay Gordienko
Да, это точно, из DSL -> KSQL еще логично (код->строка запроса), но парсить строки что бы стрим построить объектными средствами - странно.
Ну ksqlDBна джаве написан, можно парсер выдрать
источник

VS

Vladimir S. in pro.kafka
Парни, для общего развития, max.message.bytes на топике это размер сжатого сообщения или нет?
источник

AC

Anton Churkin in pro.kafka
Vladimir S.
Парни, для общего развития, max.message.bytes на топике это размер сжатого сообщения или нет?
если не ошибаюсь, это размер до сжатия.
источник

VG

Vik Gamov in pro.kafka
Nikolay Gordienko
Нашел такое https://github.com/lensesio/ksql-streams
Думал есть и обратное. (Смотря что считать прямым и обратным :) )
Плюс эта штука древняя как какашка мамонта
источник