Size: a a a

2020 January 06

A

Alex in Data Engineers
Балансировка по равномерной загрузке дискового пространства
источник

A

Alex in Data Engineers
Условно на всех утилизация 50% места
источник

A

Alex in Data Engineers
С недавних пор добавили и балансировку в пределах ноды между дисками
источник

A

Alex in Data Engineers
Раньше была проблема когда было 2 диска, докинули 3й, и все новые данные на него, а со старых на новый не балансируется
источник

A

Alex in Data Engineers
Сейчас даже в пределах ноды можно попросить чтобы все диски одинаково были заполнены
источник

ʏᴍ

ʏᴜʀɪʏ ᴍᴀʟʏɢɪɴ in Data Engineers
Alex
Раньше была проблема когда было 2 диска, докинули 3й, и все новые данные на него, а со старых на новый не балансируется
Это не проблема, а контролируемое поведение. Есть параметр отвечающий за вес
источник

A

Alex in Data Engineers
:) веса появились в момент когда ввели tier
источник

ʏᴍ

ʏᴜʀɪʏ ᴍᴀʟʏɢɪɴ in Data Engineers
?
источник

A

Alex in Data Engineers
До этого диски по round Robin  долбились,

потом добавили проверку на свободное место, чтобы более равномерно заполнялись

Потом добавили балансировка в пределах ноды
источник

ʏᴍ

ʏᴜʀɪʏ ᴍᴀʟʏɢɪɴ in Data Engineers
оу, вы настолько древние версии вспомнили
источник

ʏᴍ

ʏᴜʀɪʏ ᴍᴀʟʏɢɪɴ in Data Engineers
я подумал что речь про современный hadoop, сорян
источник

A

Alex in Data Engineers
Ну в современном и указал что там и в пределах ноды сейчас многие проблемы с балансировкой решили :)
источник

T

Tatiana in Data Engineers
ʏᴜʀɪʏ ᴍᴀʟʏɢɪɴ
Это не проблема, а контролируемое поведение. Есть параметр отвечающий за вес
А какая настройка ?
источник

T

Tatiana in Data Engineers
Alex
Ну в современном и указал что там и в пределах ноды сейчас многие проблемы с балансировкой решили :)
А по каким словам поискать про этот алгоритм? Если он пишет по round robin , то можно рассчитывать на больший сроупут
источник

T

Tatiana in Data Engineers
Вот если у меня допустим 5 датанод. Нейнода будет выделять  одну из датанод для записи блока и если каждый раз для одной датаноды блоки будут в разные маунтпоинты попадать , то можно рассчитывать , что и читать я буду со всех дисков в параллель ( когда много тасков )
источник

A

Alex in Data Engineers
Клиент стучится на неймноду говорит хочу писать файл

Она отвечает пиши блок вот на эту датаноду

Клиент подключился и пишет в пределах размера блока

Потом стучится повторно на неймноду и говорит хочу дальше писать

Неймнода отвечает  пиши следующий блок вот на эту ноду

Неймнода не знала раньше про то сколько дисков у Датаноды, была инфа только какие блоки на какой датаноде лежат

Роундробин и тд это внутренняя реализация в датаноде

Название параметра переключения алгоритмов на датаноде я так и не вспомню сейчас
источник

A

Alex in Data Engineers
Датаноды ничего не знают о файлах, просто блок айди и все
источник

A

Alex in Data Engineers
Один это файл или разные никаких данных они не имеют
источник

A

Alex in Data Engineers
Это как диск не понимает о том какие блоки к какому файлу принадлежат, для этого служит fs на уровне операционки
источник
2020 January 07

p

panda in Data Engineers
может кто-то сталкивался: на маке развернут докер контейнер с постгрес, хочу с другого компа по локалке обратиться к контейнеру, не видит. Кто нить сталкивался?
источник