Size: a a a

AI / Big Data / Machine Learning

2020 January 18

AS

Alex Surname in AI / Big Data / Machine Learning
есть методы агрегировать память с нескольких GPU в одно пространство для tensorflow?
источник

n

ncux in AI / Big Data / Machine Learning
Alex Surname
есть методы агрегировать память с нескольких GPU в одно пространство для tensorflow?
Кластер? На одной машине? Тоже интересно...
источник

A

Alexei in AI / Big Data / Machine Learning
Alex Surname
есть методы агрегировать память с нескольких GPU в одно пространство для tensorflow?
10 колабов сразу?)
источник

EZ

Evgeniy Zheltonozhskiy🇮🇱 in AI / Big Data / Machine Learning
Alex Surname
есть методы агрегировать память с нескольких GPU в одно пространство для tensorflow?
Есть методы обучать сразу на нескольких гпу
источник

AS

Alex Surname in AI / Big Data / Machine Learning
я использовал хоровод для обучениях на несокльких видеокартах. по итогу получается аналог батч сайз. я сейчас немного другое ищу, мне памяти не хватает. возможно можно одной GPU считать используя память всех видях
источник

AS

Alex Surname in AI / Big Data / Machine Learning
Alexei
10 колабов сразу?)
это как? колаб насколько я знаю дает 11 гигабайт для видяхи
источник

EZ

Evgeniy Zheltonozhskiy🇮🇱 in AI / Big Data / Machine Learning
Alex Surname
я использовал хоровод для обучениях на несокльких видеокартах. по итогу получается аналог батч сайз. я сейчас немного другое ищу, мне памяти не хватает. возможно можно одной GPU считать используя память всех видях
Тебе нужен model parallelism?
источник

AS

Alex Surname in AI / Big Data / Machine Learning
мне не хватает памяти одной видяхи чтобы обучить модель. но при этом установлены еще 3 видяхи которые пустуют
источник

AS

Alex Surname in AI / Big Data / Machine Learning
при использовании Хоровод каждая из видях загружает в себя всю модель полностью
источник

AS

Alex Surname in AI / Big Data / Machine Learning
мне это не подходит, возможно есть апаратные или програмные средства чтоб как-то замапить память со всех видях в один кусок для одной ГПУ
источник

A

Alexei in AI / Big Data / Machine Learning
Alex Surname
мне это не подходит, возможно есть апаратные или програмные средства чтоб как-то замапить память со всех видях в один кусок для одной ГПУ
Стандартная библиотека нвидиа?
источник

AS

Alex Surname in AI / Big Data / Machine Learning
а подробнее?
источник

AS

Alex Surname in AI / Big Data / Machine Learning
я использую tensorflow
источник

p

palladdiumm in AI / Big Data / Machine Learning
Мне кажется, если замапить память всех видях в одно пространство, то можно получить разрыв шаблона, так как данные из областей памяти на разных видеокартах будут кочевать очень медленно
источник

EZ

Evgeniy Zheltonozhskiy🇮🇱 in AI / Big Data / Machine Learning
Alex Surname
мне не хватает памяти одной видяхи чтобы обучить модель. но при этом установлены еще 3 видяхи которые пустуют
Это называется model parallelism
источник

AS

Alex Surname in AI / Big Data / Machine Learning
palladdiumm
Мне кажется, если замапить память всех видях в одно пространство, то можно получить разрыв шаблона, так как данные из областей памяти на разных видеокартах будут кочевать очень медленно
ну есть же nvlink
источник

EZ

Evgeniy Zheltonozhskiy🇮🇱 in AI / Big Data / Machine Learning
Можешь посмотреть на gpipe например
источник

EZ

Evgeniy Zheltonozhskiy🇮🇱 in AI / Big Data / Machine Learning
Но в целом хорошей поддержки из коробки пока нет
источник

AS

Alex Surname in AI / Big Data / Machine Learning
нагуглил такое https://github.com/NVIDIA/Megatron-LM
источник

A

Alexei in AI / Big Data / Machine Learning
Alex Surname
мне не хватает памяти одной видяхи чтобы обучить модель. но при этом установлены еще 3 видяхи которые пустуют
Может стоит батчами загружать данные?
источник