Size: a a a

2021 February 09

B[

Braunly [R13, UA] in DevOps
Доброго времени
Чем можно эффективно перенести большое количество (1-1.5ТБ) относительно небольших файликов между двумя серваками под CentOS 8?
Сейчас юзается rsync --archive --verbose --compress --delete -e "ssh -p 1234" <server> <localdir>
Но, оно медленное и на одном из серверов иногда вылетает с out of memory.
источник

rd

rus dacent in DevOps
Braunly [R13, UA]
Доброго времени
Чем можно эффективно перенести большое количество (1-1.5ТБ) относительно небольших файликов между двумя серваками под CentOS 8?
Сейчас юзается rsync --archive --verbose --compress --delete -e "ssh -p 1234" <server> <localdir>
Но, оно медленное и на одном из серверов иногда вылетает с out of memory.
Про out of memory - https://rsync.samba.org/FAQ.html#5
источник

B[

Braunly [R13, UA] in DevOps
Спасибо, видел. incremental recursion юзается
источник

B[

Braunly [R13, UA] in DevOps
Делить по поддиректориям - это последний вариант
источник

VS

Vladimir Smirnov in DevOps
Braunly [R13, UA]
Доброго времени
Чем можно эффективно перенести большое количество (1-1.5ТБ) относительно небольших файликов между двумя серваками под CentOS 8?
Сейчас юзается rsync --archive --verbose --compress --delete -e "ssh -p 1234" <server> <localdir>
Но, оно медленное и на одном из серверов иногда вылетает с out of memory.
у рсинка есть свой протокол серверный, где нет шифрования (в отличии от ссш), возможно стоит о нем подумать дополнительно, если это все во внутренней доверенной сети, так как ssh жрет ресурсы.
источник

VS

Vladimir Smirnov in DevOps
по идее как workaround oom’у можно список файлов рсинку передавать
источник

B[

Braunly [R13, UA] in DevOps
Vladimir Smirnov
у рсинка есть свой протокол серверный, где нет шифрования (в отличии от ссш), возможно стоит о нем подумать дополнительно, если это все во внутренней доверенной сети, так как ssh жрет ресурсы.
Файлы публичные, сеть тоже. Там нужно поднимать сервер рсинка?
источник

VS

Vladimir Smirnov in DevOps
Braunly [R13, UA]
Файлы публичные, сеть тоже. Там нужно поднимать сервер рсинка?
ну да
источник

OT

One Two in DevOps
Braunly [R13, UA]
Доброго времени
Чем можно эффективно перенести большое количество (1-1.5ТБ) относительно небольших файликов между двумя серваками под CentOS 8?
Сейчас юзается rsync --archive --verbose --compress --delete -e "ssh -p 1234" <server> <localdir>
Но, оно медленное и на одном из серверов иногда вылетает с out of memory.
а что в логах, если  oom?
источник

B[

Braunly [R13, UA] in DevOps
One Two
а что в логах, если  oom?
Оно просто всю память сожрало и ядро его убило
источник

B[

Braunly [R13, UA] in DevOps
лют 09 03:23:46 CDN1 kernel: Out of memory: Killed process 162325 (rsync) total-vm:2418268kB, anon-rss:2049252kB, file-rss:0kB, shmem-rss:0kB, U>
лют 09 03:23:46 CDN1 CROND[162309]: (root) CMDOUT (rsync: connection unexpectedly closed (3736878782 bytes received so far) [receiver])
лют 09 03:23:46 CDN1 CROND[162309]: (root) CMDOUT (rsync error: error in rsync protocol data stream (code 12) at io.c(226) [receiver=3.1.3])
источник

B[

Braunly [R13, UA] in DevOps
Попробую поднять сервер. Посмотрим
источник

VS

Vladimir Smirnov in DevOps
Braunly [R13, UA]
Попробую поднять сервер. Посмотрим
тогда и передавать спиок файлов, условно взять find’ом сделать список, поsplit’ать его по кускам по 10 тысяч файлов и их синкать уже
источник

OT

One Two in DevOps
я по 20 тер таскал рсинком... загрузил в скрине, неделю льется неспешно. до консоли доберусь, гляну набор ключей
источник

IB

Igor Boyko in DevOps
Если качает кучка разных серверов с одного, можно посмотреть в сторону libtorrent и настрогать на питоне свою обертку под это
источник

IB

Igor Boyko in DevOps
Он там жрет пару десятков мегабайт оперативки при загрузке в 12 мегов в секунду
источник

IB

Igor Boyko in DevOps
И чем больше серверов, естесна общая скорость выше, и нет такого что пердит только один сервак во всю
источник

OT

One Two in DevOps
One Two
я по 20 тер таскал рсинком... загрузил в скрине, неделю льется неспешно. до консоли доберусь, гляну набор ключей
rsync -avzh
источник

B[

Braunly [R13, UA] in DevOps
One Two
rsync -avzh
У меня те же
источник

B[

Braunly [R13, UA] in DevOps
Поднял демон, качается быстрее, но на память клиента не повлияло никак
источник