Size: a a a

2020 December 19

GP

Grigory Pomadchin in Data Engineers
V. M.
кто то вообще кластеры через GPU строил?
Да
источник

AT

Al T in Data Engineers
👍
источник

VM

V. M. in Data Engineers
как оно??
источник

GP

Grigory Pomadchin in Data Engineers
V. M.
как оно??
хорошо
источник

GP

Grigory Pomadchin in Data Engineers
V. M.
у ребят из нвидии спрашивать про GPU.
ну они как бы ОЧЕНЬ ЗАИНТЕРЕСОВАНЫ чтобы видяшечка тащила всё в n раз быстрее т.е. они предвзято будут судить как по мне
тут хорошие ребята по делу консультируют давайка не бычить
источник

GP

Grigory Pomadchin in Data Engineers
источник

ME

Max Efremov in Data Engineers
А для добавления gpu в кластер надо с кубером что-то придумывать, emr не может же вроде такого?
источник

ME

Max Efremov in Data Engineers
Ну или на ec2...
источник

GP

Grigory Pomadchin in Data Engineers
Al T
моя не смотрел, можно ссылочку плз?
https://youtu.be/hQI-QYJXlVU @ 2h:30m гдето
источник

AT

Al T in Data Engineers
Max Efremov
А для добавления gpu в кластер надо с кубером что-то придумывать, emr не может же вроде такого?
источник

AT

Al T in Data Engineers
c 6.2.0
источник

GP

Grigory Pomadchin in Data Engineers
Ето сама презентация*
источник

PK

Pavel Klemenkov in Data Engineers
V. M.
у ребят из нвидии спрашивать про GPU.
ну они как бы ОЧЕНЬ ЗАИНТЕРЕСОВАНЫ чтобы видяшечка тащила всё в n раз быстрее т.е. они предвзято будут судить как по мне
Привет от ребят из Нвидии. Канеш мы заинтересованы, чтоб на GPU тащило хорошо, чтоб вы GPU покупали. Но ток для этого оно действительно должно тащить, поэтому работы еще много. По факту презентацию Самира с последнего митапа кидали выше. Мы тести Spark GPU для нашей дата платформы. Пока результаты смешанные. Есть некоторые запросы, на которых GPU быстрее, есть некоторые где медленней. У RAPIDS плагина довольно много CUDA-специфичных настроек, с которыми надо играться, как-то количество CUDA тредов, работа аллкатора памяти. Кароч как и в обычном Спарке нужно сидеть и тюнить
источник

PK

Pavel Klemenkov in Data Engineers
Из хорошего: ридеры паркета на GPU реально шустрее, чем CPU как бы странно это не звучало. 2) Оно просто работает. Там, где может меняет физические операторы на GPU версии, гден не может фолбэчится на CPU. Это плохо, конечно, потому что перекидывание данных из систменой памяти в GPU убивает весь профит, но первоначальная задача была сделать drop-in replacement. А потом уже запиматься оптимизацией.
источник

NN

No Name in Data Engineers
Pavel Klemenkov
Из хорошего: ридеры паркета на GPU реально шустрее, чем CPU как бы странно это не звучало. 2) Оно просто работает. Там, где может меняет физические операторы на GPU версии, гден не может фолбэчится на CPU. Это плохо, конечно, потому что перекидывание данных из систменой памяти в GPU убивает весь профит, но первоначальная задача была сделать drop-in replacement. А потом уже запиматься оптимизацией.
А почему именно паркет, а не тот же орк?
источник

ME

Max Efremov in Data Engineers
Pavel Klemenkov
Из хорошего: ридеры паркета на GPU реально шустрее, чем CPU как бы странно это не звучало. 2) Оно просто работает. Там, где может меняет физические операторы на GPU версии, гден не может фолбэчится на CPU. Это плохо, конечно, потому что перекидывание данных из систменой памяти в GPU убивает весь профит, но первоначальная задача была сделать drop-in replacement. А потом уже запиматься оптимизацией.
А вы юзаете фичу, когда видюха сразу с диска тянет данные, без процессора?
источник

GP

Grigory Pomadchin in Data Engineers
No Name
А почему именно паркет, а не тот же орк?
орк тож быстрее должен быть (в доке сказано)
источник

PK

Pavel Klemenkov in Data Engineers
No Name
А почему именно паркет, а не тот же орк?
Я ток паркет просто пробовал
источник

PK

Pavel Klemenkov in Data Engineers
Max Efremov
А вы юзаете фичу, когда видюха сразу с диска тянет данные, без процессора?
Gpu direct store? В разработке
источник

А

Алексей in Data Engineers
Кто какие проекты ведёт для души в свободное время?
источник