Size: a a a

2020 January 15

ВЗ

Влад Запалов in pro.kafka
вот более вменяемая
https://docs.confluent.io/current/installation/installing_cp/cp-ansible.html
но имхо лучше самому написать тк много лишнего ставит
+ будешь полностью контролировать что и куда а не фиксить чужие роли
источник

b

bykva in pro.kafka
Влад Запалов
вот более вменяемая
https://docs.confluent.io/current/installation/installing_cp/cp-ansible.html
но имхо лучше самому написать тк много лишнего ставит
+ будешь полностью контролировать что и куда а не фиксить чужие роли
+1. Ну или взять готовую и смотря на нее рядом написать свою
источник

ВЗ

Влад Запалов in pro.kafka
ага
источник

RB

Ramzan Bekbulatov in pro.kafka
Спасибо!
источник

DZ

Dmitriy Zaytsev in pro.kafka
Ramzan Bekbulatov
И да, zookeeper как обычно располагают? Типа по ноде зукипера к ноде кафки? Или стоит их разнести по хостам?
zk лучше отдельно поставить
источник

b

bykva in pro.kafka
просто всегда есть нюансы. то же самое проставление id у нод зукипера и кафки у каждого будет сделано по-разному. в той роли брались теги амазона, а у меня вмваре. я в терраформе создаю теги, собираю ансиблом динамическим инвентарем и получаю id который нужно пробросить в конфиг внутрь виртуалки. У тебя будет свой путь
источник

RB

Ramzan Bekbulatov in pro.kafka
bykva
просто всегда есть нюансы. то же самое проставление id у нод зукипера и кафки у каждого будет сделано по-разному. в той роли брались теги амазона, а у меня вмваре. я в терраформе создаю теги, собираю ансиблом динамическим инвентарем и получаю id который нужно пробросить в конфиг внутрь виртуалки. У тебя будет свой путь
Последнее предложение прочитал с пафосом как в фильмах
источник

b

bykva in pro.kafka
источник

MK

Maxon Kalashnikov in pro.kafka
Сталкивался кто с проблемой накапливания данных в топике __consumer_offsets ? Топик  уже неприлично распух, при том что offsets.retention.minutes выставлен в 2880, а сегменты лежат на диске с начала времент.
Кафка 1.0.1
источник

DZ

Dmitriy Zaytsev in pro.kafka
log.cleanup.policy посмотрите на всякий случай
источник

MU

Max Underwood in pro.kafka
cleanup.policy у топика надо менять. по умолчанию там шлак какой то. ставил в delete и на байты
источник

MU

Max Underwood in pro.kafka
у меня все топики по размеру партиций чистятся
источник

MK

Maxon Kalashnikov in pro.kafka
cleanup.policy=compact (по дефолту, не переопределял)
источник

MK

Maxon Kalashnikov in pro.kafka
Max Underwood
у меня все топики по размеру партиций чистятся
версия 1.0.1?
источник

MU

Max Underwood in pro.kafka
0.10.0.0 и 1.0.0 но compact я и менял на delete
источник

MU

Max Underwood in pro.kafka
Вам они действительно так сильно нужны
источник

MU

Max Underwood in pro.kafka
как по мне единственная верная политика это удаление по размеру. так можно контролировать сколько будет использовать выделенного диска и никогда не получить проблему с его нехваткой
источник

A

Alex in pro.kafka
а там разве не размер на партицию указывается?
источник

MK

Maxon Kalashnikov in pro.kafka
Max Underwood
Вам они действительно так сильно нужны
нет, но судя по описанию этой полиси - она не работает (если я правильно понял что такое ключи месаджей = ид консумер группы), поскольку у нас всего 3 группы...
источник

MU

Max Underwood in pro.kafka
месседжи активно читаются лаг есть большой? если нет то ставьте удаление по размеру партиций, а там столько сколько можете выделить места. тоже самое рекомендую и для продуктовых топиков
источник