Size: a a a

Scalability Camp — чат про распределенные системы

2020 April 03

SN

Semyon Novikov in Scalability Camp — чат про распределенные системы
Спасибо большое
источник

AD

Alex D in Scalability Camp — чат про распределенные системы
Semyon Novikov
Спасибо большое
Не за что
источник

DZ

Dmitry Zuev in Scalability Camp — чат про распределенные системы
источник

AS

Alexander Solovev in Scalability Camp — чат про распределенные системы
источник
2020 April 10

DM

Dilarang Merokok in Scalability Camp — чат про распределенные системы
16 апреля марта в 12.00 по московскому времени мы проведем вебинар на русском языке, где расскажем, как получить оптимальный инференс на NVIDIA GPU.

На вебинаре вы узнаете, что такое фреймворк TensorRT и как он ускоряет нейросети. Мы также покажем, как расширять NVIDIA TensorRT пользовательскими слоями с использованием CUDA и вместе имплементируем кастомный CoordConv слой в PyTorch и TensorRT для ускоренного инференса.

Спикер - Денис Тимонин, NVIDIA Solutions Architect AI for Russia & CIS
Длительность вебинара - 2 часа.

Для участия в вебинаре, пожалуйста, зарегистрируйтесь: https://bit.ly/2Ve1OrJhttps://bit.ly/2Ve1OrJ
источник

rd

rus dacent in Scalability Camp — чат про распределенные системы
Dilarang Merokok
16 апреля марта в 12.00 по московскому времени мы проведем вебинар на русском языке, где расскажем, как получить оптимальный инференс на NVIDIA GPU.

На вебинаре вы узнаете, что такое фреймворк TensorRT и как он ускоряет нейросети. Мы также покажем, как расширять NVIDIA TensorRT пользовательскими слоями с использованием CUDA и вместе имплементируем кастомный CoordConv слой в PyTorch и TensorRT для ускоренного инференса.

Спикер - Денис Тимонин, NVIDIA Solutions Architect AI for Russia & CIS
Длительность вебинара - 2 часа.

Для участия в вебинаре, пожалуйста, зарегистрируйтесь: https://bit.ly/2Ve1OrJhttps://bit.ly/2Ve1OrJ
> 16 апреля марта

=)
источник

DM

Dilarang Merokok in Scalability Camp — чат про распределенные системы
rus dacent
> 16 апреля марта

=)
ой. сорри. поправил. спасибо!
источник

rd

rus dacent in Scalability Camp — чат про распределенные системы
Dilarang Merokok
ой. сорри. поправил. спасибо!
Не за что =)
источник
2020 April 17

DM

Dilarang Merokok in Scalability Camp — чат про распределенные системы
Dilarang Merokok
16 апреля марта в 12.00 по московскому времени мы проведем вебинар на русском языке, где расскажем, как получить оптимальный инференс на NVIDIA GPU.

На вебинаре вы узнаете, что такое фреймворк TensorRT и как он ускоряет нейросети. Мы также покажем, как расширять NVIDIA TensorRT пользовательскими слоями с использованием CUDA и вместе имплементируем кастомный CoordConv слой в PyTorch и TensorRT для ускоренного инференса.

Спикер - Денис Тимонин, NVIDIA Solutions Architect AI for Russia & CIS
Длительность вебинара - 2 часа.

Для участия в вебинаре, пожалуйста, зарегистрируйтесь: https://bit.ly/2Ve1OrJhttps://bit.ly/2Ve1OrJ
Запись вебинара "NVIDIA TensorRT: Оптимальный инференс нейросетей на GPU", слайды, а также выгрузку Q&A вы найдете по ссылке: https://bit.ly/2XILxhi

Также, запись вебинара можно посмотреть в нашей группе в VK: https://vk.com/nvidiadeveloper
источник
2020 April 23

PR

Paul Rudnitskiy in Scalability Camp — чат про распределенные системы
источник

ZO

Zlata Obukhovskaya in Scalability Camp — чат про распределенные системы
А?
источник

AB

Aleksandr Borgardt in Scalability Camp — чат про распределенные системы
Удалил тут опять рекламировали услуги
источник
2020 April 27

AB

Aleksandr Borgardt in Scalability Camp — чат про распределенные системы
источник

ZO

Zlata Obukhovskaya in Scalability Camp — чат про распределенные системы
Разве в рафте не нашли ошибку?
источник

S

Slach in Scalability Camp — чат про распределенные системы
Zlata Obukhovskaya
Разве в рафте не нашли ошибку?
;) а нашли? можно пруфы?
источник

SF

Sergey Fomin in Scalability Camp — чат про распределенные системы
А в каких продакшен системах paxos вообще применяется? Все системы, которые у меня на слуху, используют рафт или что-то рафтоподобное
источник

C

Constantine in Scalability Camp — чат про распределенные системы
источник
2020 April 28

AK

Andrey Kolnoochenko in Scalability Camp — чат про распределенные системы
Новость одной строкой: вышла новая версия стандарта OpenCL 3.0 для параллельных вычислений на разных мультиядерных устройствах. В отличие от nVidia CUDA, которая работает только на GPU nVidia, OpenCL может использоваться на GPU от AMD и nVidia + на многоядерных CPU (то есть вообще на всех современных процессорах, даже ARM).

https://www.khronos.org/registry/OpenCL/
источник

AK

Andrey Kolnoochenko in Scalability Camp — чат про распределенные системы
Andrey Kolnoochenko
Новость одной строкой: вышла новая версия стандарта OpenCL 3.0 для параллельных вычислений на разных мультиядерных устройствах. В отличие от nVidia CUDA, которая работает только на GPU nVidia, OpenCL может использоваться на GPU от AMD и nVidia + на многоядерных CPU (то есть вообще на всех современных процессорах, даже ARM).

https://www.khronos.org/registry/OpenCL/
Кто-то смотрел уже?
Не стала секси как куда?
источник

AB

Aleksandr Borgardt in Scalability Camp — чат про распределенные системы
Да  но пока не нашел релизации
источник