Size: a a a

2019 December 09

ec

eugEne coopEr in ru_proxmox
Сергей Голод
за счёт выноса ZFS на "внешний" сервер. shared storage.
Две ноды и полка с sas дисками? Типа zfs ha.
источник

ec

eugEne coopEr in ru_proxmox
источник

СГ

Сергей Голод in ru_proxmox
eugEne coopEr
Две ноды и полка с sas дисками? Типа zfs ha.
можете и так, если есть вероятность что shared storage тоже "упадёт". А можете раздавать ZFS over iSCSI:
https://pve.proxmox.com/wiki/Storage:_ZFS_over_iSCSI
источник

ec

eugEne coopEr in ru_proxmox
Понял, спасибо.
Просто надеялся что проксмокс сам это делать умеет, чтоб самому руками не крутить. 21 век жеж)
источник

FK

Fedor Krashnikov in ru_proxmox
eugEne coopEr
Две ноды и полка с sas дисками? Типа zfs ha.
Полка не HA 😁
источник

ec

eugEne coopEr in ru_proxmox
Fedor Krashnikov
Полка не HA 😁
Полка да.
источник

ec

eugEne coopEr in ru_proxmox
Но вней ломаться нечему (два контроллера, два-четыре блока питания) подключение по мультипасу и все такое.
источник

ec

eugEne coopEr in ru_proxmox
На моей практике только один раз была поломка одного из двух контроллеров в hp msa 2000.
А вот с серваками как-то больше инцидентов было.
источник

ec

eugEne coopEr in ru_proxmox
Так что про полку можно говорить что она на 99.999999% HA.
источник

СГ

Сергей Голод in ru_proxmox
eugEne coopEr
Так что про полку можно говорить что она на 99.999999% HA.
так создайте на базе полки + два сервера для неё внешний сторадж например на базе esos-project:
https://www.esos-project.com

а сервера с проксмоксом - они в первую очередь для виртуализации
источник

ec

eugEne coopEr in ru_proxmox
Что привлекает в zfs так это относительная простота, по сравнению с кластерными фс, но подсознательно почему-то хочется кластерную фс (21 век жеж) хотя с ними больше мороки да и железа больше нужно.
источник

СГ

Сергей Голод in ru_proxmox
вы же хотите построить супер-отказоустойчивое решение? тогда нужно понимать что придётся выделить железо для этого
источник

FK

Fedor Krashnikov in ru_proxmox
У меня мечта - спроектировать и построить нормальный отказоустойчивый сервис схд. Именно сервис.
источник

СГ

Сергей Голод in ru_proxmox
eugEne coopEr
Что привлекает в zfs так это относительная простота, по сравнению с кластерными фс, но подсознательно почему-то хочется кластерную фс (21 век жеж) хотя с ними больше мороки да и железа больше нужно.
но если у вас требование полной отказоустойчивости, то образы ВМ обязаны храниться вне серверов, где выполняется ВМ. локальная ZFS в данном случае вам не поможет ничем если сервер рухнет
источник

ec

eugEne coopEr in ru_proxmox
Сергей Голод
вы же хотите построить супер-отказоустойчивое решение? тогда нужно понимать что придётся выделить железо для этого
Тут даже спорить не буду.
источник

ec

eugEne coopEr in ru_proxmox
Сергей Голод
но если у вас требование полной отказоустойчивости, то образы ВМ обязаны храниться вне серверов, где выполняется ВМ. локальная ZFS в данном случае вам не поможет ничем если сервер рухнет
Zfs расматриваю именно как внешнюю хранилку сбоку кластера прокса.
источник

СГ

Сергей Голод in ru_proxmox
eugEne coopEr
Zfs расматриваю именно как внешнюю хранилку сбоку кластера прокса.
есос-прожект, там у вас на дисках будет ZFS. А раздавать она будет через iSCSI со всеми (почти со всеми) плюшками ZFS
источник

ec

eugEne coopEr in ru_proxmox
Чтобы вней виртуалки хранить и пользовательскую файлопомойку.

Пробижался по програмным компанентам ecoc - они похожи на zfs ha из моей ссылки.
источник

СГ

Сергей Голод in ru_proxmox
eugEne coopEr
Чтобы вней виртуалки хранить и пользовательскую файлопомойку.

Пробижался по програмным компанентам ecoc - они похожи на zfs ha из моей ссылки.
esos - это проект именно программной СХД на базе линукса. Минимальный объём (запускается с флэшки чтобы не занимать диски)
источник

СГ

Сергей Голод in ru_proxmox
Fedor Krashnikov
У меня мечта - спроектировать и построить нормальный отказоустойчивый сервис схд. Именно сервис.
а железо есть уже?
источник