Size: a a a

2021 February 01

SB

S B in pro.kafka
так что если это работает достаточно быстро, то наивная имплементация, которая начинает сначала и идет до конца может оказаться вполне приемлемой.
источник

СК

Слава Ксенз... in pro.kafka
это и от размера лога зависит
источник

SB

S B in pro.kafka
если работает недостаточно быстро, то скорее всего надо прикрутить параметры буфера и вот это все.
источник

SB

S B in pro.kafka
если и это не помогает ,тогда уже оптимизировать.
источник

N

Nikolay in pro.kafka
а если там лог в 1TB? тоже буфер можно подкрутить?
источник

NR

Nikolaj Rudakov in pro.kafka
Denis Pavlyuchenko
а в кафке какое ретеншен полиси? а то данные удалятся, и вывести все операции не выйдте
Данные хранятся условно бесконечно
источник

SB

S B in pro.kafka
Nikolay
а если там лог в 1TB? тоже буфер можно подкрутить?
если там лог 1ТВ, то надо начинать с лечения головы
источник

SB

S B in pro.kafka
и да - буфер даже в этом случае можно подкрутить. проблема как правило не в IO, а в темпах обработки на стороне консюмера.
источник

SB

S B in pro.kafka
а пропускная способность у Кафки дикая совершенно
источник

N

Nikolay in pro.kafka
S B
если там лог 1ТВ, то надо начинать с лечения головы
а сколько "нормально"? какие размеры не вызывают сомнения в адекватности?
источник

AM

Alexey Melchakov in pro.kafka
Vik Gamov
Ad blocker отключи
Спасибо) Че то не подумал даже на него
источник

SB

S B in pro.kafka
Nikolay
а сколько "нормально"? какие размеры не вызывают сомнения в адекватности?
под типичный хайлоад?
источник

VG

Vik Gamov in pro.kafka
Alexey Melchakov
Спасибо) Че то не подумал даже на него
Сам страдаю. Я пытаюсь уговорить перенести на YT, но очень хз
источник

N

Nikolay in pro.kafka
S B
под типичный хайлоад?
yes
источник

SB

S B in pro.kafka
Nikolay
yes
типичный хайлоад начинается от 32 партиций с репликой миниум 3. партиция должна уверенно помещаться на ноде и в большинстве случаев, в силу идемпотентности, подлежит компактизации. дай считать что хайлоад начинается от 10к rps, размер сообщения возьмем < 4KB, в 95%% случав < 1КБ. дальше надо продолжать или сам посчитаешь?
источник

SB

S B in pro.kafka
(это чисто мое субъективно мнение, да)
источник

SB

S B in pro.kafka
ну и надо быть законечнным дебилом, чтобы хайлоад без ретеншина хранить
источник

AR

Alexander Ryzhenko in pro.kafka
Vik Gamov
А что если long сделать orderid?
Помогло id string key и KEY_FORMAT=«KAFKA»
Заметил в кондукторе, что в ключе сообщения string (который json, но все же изначально string).
Пример ключа: {"OrderID":42547152}

Отсюда вопрос №1:
Можно ли при такой ситуации (в message key лежит строка с json-ом) в id талицы/стрима подставить значение поля из этого json-а?

Вопрос №2.
Я наверное не до конца понимаю суть таблицы KSQL. Подскажите плз в чем я заблуждаюсь.
а) стрим - это собственно стрим данных, основанный на кафка топике; б) Таблица - грубо говоря, топик с последними состояниями сущностей по primary key
в) таблицы можно кверить, как обычные мускуль таблицы через CLI либо REST API ( select * from table where id = 123 - вернет последнее состояние сущности с id = 123 из соответствующего топика).
г) Под капотом у таблиц лежит compacted topic.

3) Почему когда я делаю запрос в таблицу, то получаю ошибку?
ksql> select * from o_table where OrderID=42547941;
Can't pull from O_TABLE as it's not a materialized table. See https://cnfl.io/queries for more info.
Add EMIT CHANGES if you intended to issue a push query.
В доке вроде как сказано, что к таблицам можно делать pull запрос на получение состояния сущности.

И вот не понял в чем разница Table и Materialized view (которая по сути table, которая as select …)

Сори за возможно делитантские вопросы, но я только погружаюсь в потоковое видение 🙂
источник

VG

Vik Gamov in pro.kafka
1) у тебя где-то с типами напутано. Я уточнил у нижененов - ключ в json в 0.14 поддерживается.
3) потому что надо сказать ksqldb по какому полю делать агрегации. вот тут туториал который многое должен объяснитьнить https://docs.ksqldb.io/en/latest/tutorials/materialized/
источник

AR

Alexander Ryzhenko in pro.kafka
Vik Gamov
1) у тебя где-то с типами напутано. Я уточнил у нижененов - ключ в json в 0.14 поддерживается.
3) потому что надо сказать ksqldb по какому полю делать агрегации. вот тут туториал который многое должен объяснитьнить https://docs.ksqldb.io/en/latest/tutorials/materialized/
А без агрегаций - просто последнее состояние не получится?
Пытаюсь решить задачу получения текущего состояния сущности из топика
источник