Size: a a a

2020 August 17

UD

Uncel Duk in Data Engineers
Evgeny
Да, переносил, все ок
А детали можно?
источник

UD

Uncel Duk in Data Engineers
Полный шатдаун кластера, бэкап fsimage и форчиком пробежаться по корсайтам?
источник

UD

Uncel Duk in Data Engineers
или чет сложнее?
источник

E

Evgeny in Data Engineers
Uncel Duk
А детали можно?
Ну если тушить можно, то так, ну и я конфиги солью деплою. В целом - сначала переносил management nodes, затем датаноды
источник

UD

Uncel Duk in Data Engineers
Evgeny
Ну если тушить можно, то так, ну и я конфиги солью деплою. В целом - сначала переносил management nodes, затем датаноды
Переливать данные просто не вариант, по сети это несколько месяцев займет
источник

UD

Uncel Duk in Data Engineers
Только пока вижу вариант согласовать даунтайм на час и поправить все
источник

E

Evgeny in Data Engineers
зачем данные переливать?
источник

UD

Uncel Duk in Data Engineers
Evgeny
зачем данные переливать?
>переносил
источник

UD

Uncel Duk in Data Engineers
я криво распарсил значит
источник

E

Evgeny in Data Engineers
ну, у меня был опыт и переноса в другую зону с другими адресами и переливка management nodes с изменением зоны и адресов
источник

UD

Uncel Duk in Data Engineers
ок, соберу пока лабу
источник

E

Evgeny in Data Engineers
из того, что замечал: при изменении hostname history/timeline server старые джобы пытаются открыться по старому адресу. И надо hive рестартить, чтобы он все корректно подцеплял новый адрес rm
источник

E

Evgeny in Data Engineers
ну и да, надо быть внимательным с топологией, чтобы она не поменялась
источник

U

Ugly in Data Engineers
Господа - а правила канала - только то что в закрепе?
источник

AS

Andrey Smirnov in Data Engineers
Жмака
Всем привет. Новичок в скале 😇Не могу победить сериализацию. Создал тест класс с junit, в @before определил sparkSession, в тестовом методе нужно создать dataset из sequence с тестовыми даннымми. Создает датасет с одной колонкой value с бинарными данными. Имплиситс не могу прописать, потому что sparkSession определена в @before. Как правильно сделать? Пробовал энкодер сделать но видно "руки кривые" или туплю🙂
я не совсем понял, что ты делаешь, но обычно создание спарка выделяют в отдельный трайт
SparkContextSetup и там его запускают.
можно вообще через var поле в классе :)
источник

Ж

Жмака in Data Engineers
Andrey Smirnov
я не совсем понял, что ты делаешь, но обычно создание спарка выделяют в отдельный трайт
SparkContextSetup и там его запускают.
можно вообще через var поле в классе :)
Спасибо. Но как этот трейт работает с другими трейтами, например Logger? Extends + with на обьект аппликации с мейном?
источник

AS

Andrey Smirnov in Data Engineers
Жмака
Спасибо. Но как этот трейт работает с другими трейтами, например Logger? Extends + with на обьект аппликации с мейном?
да, делаешь трейт который реализует BeforeAfterAll и там делаешь запуск остановку
источник

R

Renarde in Data Engineers
Andrey Smirnov
да, делаешь трейт который реализует BeforeAfterAll и там делаешь запуск остановку
источник

Ж

Жмака in Data Engineers
Andrey Smirnov
да, делаешь трейт который реализует BeforeAfterAll и там делаешь запуск остановку
Спасибо
источник

Ж

Жмака in Data Engineers
Спасибо
источник