Size: a a a

2019 December 31

AZ

Anton Zadorozhniy in Data Engineers
Я знаю только про ТСЕ, но это можно отвязать от хдфс, это на клиенте все происходит
источник

UD

Uncel Duk in Data Engineers
Anton Zadorozhniy
В смысле квоты?
Квоты и политики на s3
источник

UD

Uncel Duk in Data Engineers
Руками я могу конечно нафигачивать эти json-ы, но это я :)
источник

AZ

Anton Zadorozhniy in Data Engineers
Просто для среднего админа запуск минио против запуска все инфраструктурных мастер сервисов хдфс выглядит как нечестное соревнование))
источник

AZ

Anton Zadorozhniy in Data Engineers
Они там щас зоны прикручивают во всю, уже есть в апстриме, будет рост/ресайз кластера без федерации, дальше будут как раз метаданные расширять и накручивать секьюрити, чтобы как даталейк формейшен было
источник

AZ

Anton Zadorozhniy in Data Engineers
Общался тут с ними перед праздниками
источник

UD

Uncel Duk in Data Engineers
С озоном странно
источник

UD

Uncel Duk in Data Engineers
Взяли и вытащили из гита хадупа
источник

СХ

Старый Хрыч in Data Engineers
Anton Zadorozhniy
Общался тут с ними перед праздниками
🙄лизардфс тоже много чего делают, годы уже
источник

СХ

Старый Хрыч in Data Engineers
Anton Zadorozhniy
Просто для среднего админа запуск минио против запуска все инфраструктурных мастер сервисов хдфс выглядит как нечестное соревнование))
😐ровно до тех пор пока минио не скажет "ой я сломалось"
источник

A

Alex in Data Engineers
Anton Zadorozhniy
(И хайв 3.1 как раз поддерживает безхадупное развертывание)
Хайв 3.1 в сборке хортона материться хочется

https://issues.apache.org/jira/browse/HIVE-20001

В апстрим не приняли но хортоны говно себе вкомитили
источник

A

Alex in Data Engineers
Причём логики я до сих пор патча не улавливаю:

Если пользователь попросил создание таблицы (мэнеджет стрикт отключен, так что как таковое это экстернал) и указал директорию (используем spark sql, там можно default warehouse dir указать), то

1) создадим по указанному пути фолдер но с пермишенами hive пользователя (следовательно спарк уже туда не попишет)
2) создадим в дефол локейшене ещё один фолдер но уже с пользовательскими правами

Ну это помимо что когда это двойное создание делали не везде поправили копипасту, поэтому логи кривые выводит
источник

AZ

Anton Zadorozhniy in Data Engineers
Старый Хрыч
🙄лизардфс тоже много чего делают, годы уже
есть еще хопсворкс со своей неймнодой поверх мускл кластера и аутентификацией по сертификатам 🙂
источник

UD

Uncel Duk in Data Engineers
Ну вот серты это прям бальзам на душу
источник

UD

Uncel Duk in Data Engineers
После возни со всеми сортами кербероса, и "вы тут опять нам контроллер домена уложили"
источник

AZ

Anton Zadorozhniy in Data Engineers
Alex
Причём логики я до сих пор патча не улавливаю:

Если пользователь попросил создание таблицы (мэнеджет стрикт отключен, так что как таковое это экстернал) и указал директорию (используем spark sql, там можно default warehouse dir указать), то

1) создадим по указанному пути фолдер но с пермишенами hive пользователя (следовательно спарк уже туда не попишет)
2) создадим в дефол локейшене ещё один фолдер но уже с пользовательскими правами

Ну это помимо что когда это двойное создание делали не везде поправили копипасту, поэтому логи кривые выводит
вот, а запустив в стенделоун хайв метастор эта проблема неактуальна 🙂
источник

A

Alex in Data Engineers
Нууууу, у нас хдфс и много, плюс импала активно используем
источник

UD

Uncel Duk in Data Engineers
Напомните, а была "программа" развития после мержа без булшита
источник

UD

Uncel Duk in Data Engineers
Например мы "закопаем куду/хайв/етц через два года"
источник

GP

Grigory Pomadchin in Data Engineers
Alex
Нууууу, у нас хдфс и много, плюс импала активно используем
а вы на хортон завязаны?
источник