Size: a a a

2021 November 03

K

KrivdaTheTriewe in Data Engineers
подойдет
источник

S

Sebastian in Data Engineers
спарк заменил хадуп?
источник

AZ

Anton Zadorozhniy in Data Engineers
как пройду - обязательно подключусь
источник

K

KrivdaTheTriewe in Data Engineers
а про общие практики свои рассказать?
источник

AZ

Anton Zadorozhniy in Data Engineers
я вечером посвящаю время семье, извините, в другой раз
источник

D

Dmitry in Data Engineers
да, мы все увеличивали executor.memory, дошли до 20G не помогало, выставили 14G executor.memory и 6G spark.executor.memoryOverhead - заработало (2.4.7)
источник

K

KrivdaTheTriewe in Data Engineers
да в другой раз)
источник

SA

Sergose Amigos 🌀 in Data Engineers
ловко)
источник

GP

Grigory Pomadchin in Data Engineers
ну понятно, одно то сеттинги жвм а другое хард лимиты контейнера * (я без контекста набросил)
оом случится или что в жвм не попадает или оом киллер прибиывает за баунды вылезает
видишь какой хороший жава код у вас)
источник

K

KrivdaTheTriewe in Data Engineers
оч расстроился из за фейр скедулера
источник

K

KrivdaTheTriewe in Data Engineers
=(
источник

GP

Grigory Pomadchin in Data Engineers
почему? не честный?
источник

D

Dmitry in Data Engineers
я понял это не наш код - а spark с некой версии научился хранить датафрейм в off-heap и это больше его косяк
источник

T

T in Data Engineers
Всем спасибо, особая благодарность тем кто задавал вопросы!
источник

AF

Anna Flyingby in Data Engineers
Ого, а драйвер сколько? Меня убедили, что кластер слабый и больше 16 на драйвер и 12 на экзекьютор нельзя и вот оверхед не подбирался ни при больших ни при меньших величинах, так витрину и не построили в проме:(
источник

N

N in Data Engineers
Ребят, учусь создавать и загружать json данные в таблицы hive из hdfs, хотелось узнать, какой тип поля для таблицы указывать если у меня значение в одном поле в виде словаря?
источник

AF

Anna Flyingby in Data Engineers
Спасибо, отличный митап
источник

D

Dmitry in Data Engineers
драйвер тоже огромный, 20+G - но там  живет долгоиграющая спарк апликуха, которая работает неделями и создает спарк сессии, в которых запускает разные джобы. драйвер у нас дох из-за оргомных массивов, что хранит spark ui :) ограничили хранение истории джобов - наладилось
источник

AF

Anna Flyingby in Data Engineers
Спасибо, это может пригодиться в моём кластере, да и про тот тоже спрошу, хотя уже не актуально:( нет моей витрины:(
источник

V

Vadim in Data Engineers
А запись будет?)
источник