Size: a a a

2020 January 04

GM

Gleb Mekhrenin in uptime.community
Serg Malakhov
Коллеги, давайте про это поговорим. Многие отошли от праздников.
Что у вас в эксплуатации если не сеф?
Мы пользуемся свифтом, но как большой хранилкой - бекапы, образы и пр. для реалтайма он не годится.
Что еще из реализаций SDS?
DRBD - не серьезно.
GLFS - у нас отрицательный опыт.
Давайте делится, у кого какой SDS.
IBM Spectrum Scale - вот название приличного sds ранее GPFS звалось
источник

GM

Gleb Mekhrenin in uptime.community
Slach
а сколько у вас в minio ? я вот его дальше тестовых сред в localstack просто не пускал пока... и там у меня сотни мегабайт не больше
500 тб нормально в минио лежало, но лежать и активно писать\читать - это разные вещи.
источник

T

The in uptime.community
minio в режиме single node работает примерно на скорости nginx.
У кластерного minio при росте RPS задержки уходят в космос, а сам демон валится в OOM.
Причём демон не использует механизмы системного кэша и хранит данные в анонимной памяти.
Очередная cloud native поделка.
источник

GM

Gleb Mekhrenin in uptime.community
ну что значит "валится в оом" что бы в оом упасть нужно пожрать память, сколько нужно памяти для работы вопрос к сайзингу.
источник

GM

Gleb Mekhrenin in uptime.community
другой вопрос что конкретно минио на голенге написан и версии через раз с такими багами выходят что могут быть проблемы с возращением памяти, с учетом того что это еще и голенг где работа с памятью это отдельное веселье.
источник

GM

Gleb Mekhrenin in uptime.community
https://www.scality.com/products/ring/ вот про это бы интересно было послушать если кто использовал
источник

T

The in uptime.community
Тестировал от 8 до 64 ГБ, результат один, только срок отдаляется.
На go — потому что так модно!!!
Внезапно быстрее и стабильнее всего себя показывает... ceph with rados gateway.
источник

GM

Gleb Mekhrenin in uptime.community
The
Тестировал от 8 до 64 ГБ, результат один, только срок отдаляется.
На go — потому что так модно!!!
Внезапно быстрее и стабильнее всего себя показывает... ceph with rados gateway.
для s3 ceph вполне жизнеспособен. там все говно в rbd и fs
источник

T

The in uptime.community
А я думал, что в critical bugs with data corruption :)
источник

T

The in uptime.community
И, кстати, minio не полностью Amazon S3 compliant, особенно в плане политик. И ручная настройка прав через CLI удручает.
источник

GM

Gleb Mekhrenin in uptime.community
The
А я думал, что в critical bugs with data corruption :)
самое тривиальное они починили, а то что осталось как лотерея. Если кто-то готов ванильный ceph эксплуатировать и хранить там данные он под это автоматом подписывается потому и смысла говорить об этом не вижу. Я лично сотни часов потратил на починку\извлечение данных из множества кластеров цефа. Сейчас никакого желания связываться нет - альтернатив полно.
источник
2020 January 05

EO

Eric Oldmann in uptime.community
Все проблемы с модными хипсторскими изделиями начинаются тогда, когда задачи выходят за пределы тупой и равномерной отдачи контента.
источник

AN

Anton Noginov in uptime.community
Eric Oldmann
Все проблемы с модными хипсторскими изделиями начинаются тогда, когда задачи выходят за пределы тупой и равномерной отдачи контента.
Да ты чо же!
Это все решается средствами кубернетеса! Облака! Микросервисы! Кококо!
источник

EO

Eric Oldmann in uptime.community
Anton Noginov
Да ты чо же!
Это все решается средствами кубернетеса! Облака! Микросервисы! Кококо!
ну да, оно само там всё рассосёт всю нагрузку внутри себя, и защитит данные как избыточностью, так и erasure coding
источник

VS

Vladimir Smirnov in uptime.community
Anton Noginov
Да ты чо же!
Это все решается средствами кубернетеса! Облака! Микросервисы! Кококо!
вот как раз крупные облачные провайдеры у себя как-то решили эту задачу) Собственно за что и берут конский ценник.
источник

AN

Anton Noginov in uptime.community
Eric Oldmann
ну да, оно само там всё рассосёт всю нагрузку внутри себя, и защитит данные как избыточностью, так и erasure coding
Мэджик!
источник

SM

Serg Malakhov in uptime.community
Gleb Mekhrenin
IBM Spectrum Scale - вот название приличного sds ранее GPFS звалось
спасибо, посмотрим
радует, что цен совершенно нет на сайте)
но есть подозрение что как обычно в энетрепрайзе, даже не конский, а заоблачный (каламбур).
источник

SM

Serg Malakhov in uptime.community
Gleb Mekhrenin
самое тривиальное они починили, а то что осталось как лотерея. Если кто-то готов ванильный ceph эксплуатировать и хранить там данные он под это автоматом подписывается потому и смысла говорить об этом не вижу. Я лично сотни часов потратил на починку\извлечение данных из множества кластеров цефа. Сейчас никакого желания связываться нет - альтернатив полно.
> Сейчас никакого желания связываться нет - альтернатив полно.
можно поподробнее про альтернативы?
а то продуктов полно, вроде нутаникса, а поддерживать вменяемо альтернатив как-то не очень...
источник
2020 January 09

S

Stanislav in uptime.community
источник

ДЧ

Дмитрий Чумак in uptime.community
источник