Size: a a a

2020 December 04

A

Anatoly in pro.kafka
Пока присматриваемся
Но для зк есть не один инструмент для бэкапов, по настоящему ещё ничего не тестировали кроме Burry
источник

A

Anatoly in pro.kafka
IV
а вчерашний стрим по девопс, о котором говорили выше, есть в записи?
Есть, но только если у вас билеты были на конфу, вроде
источник

I

IV in pro.kafka
Anatoly
Есть, но только если у вас билеты были на конфу, вроде
а по тезису - бекап ненужен там что было, в двух словах?))
источник

DZ

Dmitriy Zaytsev in pro.kafka
Бекап для кафки - это как бекап для хадупа, только абсурдность в другом заключается.
источник

DZ

Dmitriy Zaytsev in pro.kafka
Хадуп бекапить дорого, а кафку просто незачем.
источник

I

IV in pro.kafka
согласен, просто интересны были вариант возможные
источник

DZ

Dmitriy Zaytsev in pro.kafka
Кафка-коннект с сохранением топика на с3. Дешёво, быстро, можно хорошо заплатить провайдеру с3.
источник

A

Anatoly in pro.kafka
IV
а по тезису - бекап ненужен там что было, в двух словах?))
Нужно позаботиться об отказоустойчивости сетапа (разные дц или разные стойки в одном дц), обратить внимание на конфиг (в первую очередь rack awareness), иметь on-call дежурства или команду реагирования 24х7
источник

A

Anatoly in pro.kafka
Dmitriy Zaytsev
Кафка-коннект с сохранением топика на с3. Дешёво, быстро, можно хорошо заплатить провайдеру с3.
Да, это один из способов организации бэкапа, когда он нужен
источник

A

Anatoly in pro.kafka
Либо резервный кластер кафка
источник

I

IV in pro.kafka
Anatoly
Нужно позаботиться об отказоустойчивости сетапа (разные дц или разные стойки в одном дц), обратить внимание на конфиг (в первую очередь rack awareness), иметь on-call дежурства или команду реагирования 24х7
да два ДЦ, мирорй 2й настроили
источник

I

IV in pro.kafka
Dmitriy Zaytsev
Кафка-коннект с сохранением топика на с3. Дешёво, быстро, можно хорошо заплатить провайдеру с3.
восстановление не очевидно
источник

A

Anatoly in pro.kafka
@gamussa интересно, а можно как-то подключить через новый tier storage данные из s3 к новому пустому кластеру?:)
источник

V

VTaliKK in pro.kafka
чисто вопрос на интерес. Предположим мы забекапили топики.
Случилось ахтунг, молодой зеленый кильнул топик.

текущие вариант позволяют восстановить данные с топика, даже с __consumers_offset.

но что будет после воосстановления данных? тупо все читатели сначала прочтут весь топик?
источник

V

VTaliKK in pro.kafka
или после восстановления срзу изменть offset на примерное время ?
источник

AB

Andrey Belyakov in pro.kafka
VTaliKK
чисто вопрос на интерес. Предположим мы забекапили топики.
Случилось ахтунг, молодой зеленый кильнул топик.

текущие вариант позволяют восстановить данные с топика, даже с __consumers_offset.

но что будет после воосстановления данных? тупо все читатели сначала прочтут весь топик?
Можно хранить оффсеты во внешнем сторе и устанавливать их автоматически per partition при присоединении нового консьюмера к кластеру
источник

A

Anatoly in pro.kafka
Некоторые репликаторы умеют маппить офсеты в разных кластерах
источник

I

IV in pro.kafka
Anatoly
Некоторые репликаторы умеют маппить офсеты в разных кластерах
а какие варианты репликаторов есть, бесплатных?
источник

A

Anatoly in pro.kafka
Мм2 уже научился, вроде, но не из коробки (надо мудрить)
источник

VG

Vik Gamov in pro.kafka
Anatoly
@gamussa интересно, а можно как-то подключить через новый tier storage данные из s3 к новому пустому кластеру?:)
В теории должно работать. На практике я не пробовал
источник