Size: a a a

2019 September 03

AZ

Arthur Zalevsky in Science FYI
(там на самом деле вагон реализаций нагуглилось. но все, очевидно, врапперы. потому что альтернатив openmpi, mpich, impi фиг перепишешь)
источник

VD

Victor Dymov in Science FYI
Arthur Zalevsky
(там на самом деле вагон реализаций нагуглилось. но все, очевидно, врапперы. потому что альтернатив openmpi, mpich, impi фиг перепишешь)
вот-вот-вот... )
источник

AZ

Arthur Zalevsky in Science FYI
Victor Dymov
у меня ощущение, что сами вы параллельные алгоритмы не пишите, а только пользуетесь библиотечными )
я пишу mpi + python + mpi4py + parallel hdf5
источник

VD

Victor Dymov in Science FYI
Arthur Zalevsky
я пишу mpi + python + mpi4py + parallel hdf5
вы отдельно на Си или плюсах прям кернелы для MPI пишите? а то питончик это дело такое... чисто для прототипирования )
источник

AZ

Arthur Zalevsky in Science FYI
Victor Dymov
вы отдельно на Си или плюсах прям кернелы для MPI пишите? а то питончик это дело такое... чисто для прототипирования )
ну... у меня есть и вставки на цитоне. да и оптимизированные питоновские реализации  типа bottleneck (в качестве альтернативы нампи) весьма быстры.
источник

VD

Victor Dymov in Science FYI
Arthur Zalevsky
ну... у меня есть и вставки на цитоне. да и оптимизированные питоновские реализации  типа bottleneck (в качестве альтернативы нампи) весьма быстры.
понятно... у меня немного другой профиль, и взгляд на это дело тоже другой )
источник

O

Orodret in Science FYI
Victor Dymov
понятно... у меня немного другой профиль, и взгляд на это дело тоже другой )
Эмм... а тут спор шел о том, что если хочешь писать что-то супершустрое и оптимизированное, то надо использовать Си? Оо
источник

AZ

Arthur Zalevsky in Science FYI
Victor Dymov
понятно... у меня немного другой профиль, и взгляд на это дело тоже другой )
так а что мы обсуждаем то?) сомневаюсь, что именно MPI будет бутылочным горлышком.
источник

VD

Victor Dymov in Science FYI
Orodret
Эмм... а тут спор шел о том, что если хочешь писать что-то супершустрое и оптимизированное, то надо использовать Си? Оо
ну да, я преимущественно на Си и пишу, даже без плюсов
источник

O

Orodret in Science FYI
Victor Dymov
ну да, я преимущественно на Си и пишу, даже без плюсов
Дык это вроде вообще не о том, с чего начиналось... Или я плохо вчитывался...
источник

VD

Victor Dymov in Science FYI
Arthur Zalevsky
так а что мы обсуждаем то?) сомневаюсь, что именно MPI будет бутылочным горлышком.
ну, по простому... если мой код запустить, на обычном даже 8-миядерном компе, то можно уехать в отпуск на недельки три, вернуться и оно еще будет работать... если на МПИ кластере или ГПГПУ то уже несколько суток... потом оптимизация-оптимизация-оптимизация, ура, мы успеваем собрать модель за ночь )))
источник

VD

Victor Dymov in Science FYI
поэтому преимущества параллельности Го мне неочевидны )
источник

AZ

Arthur Zalevsky in Science FYI
во всяком случае в био* (включая МД) я не слышал, кто-то упирался в именно в MPI). Более того, как ни крути, биоинформатика последовательностей до сих пор скорее в IO упирается.
источник

VD

Victor Dymov in Science FYI
Arthur Zalevsky
во всяком случае в био* (включая МД) я не слышал, кто-то упирался в именно в MPI). Более того, как ни крути, биоинформатика последовательностей до сих пор скорее в IO упирается.
что значит био* ?
источник

AZ

Arthur Zalevsky in Science FYI
молекулярная динамика, докинг, NGS
источник

VD

Victor Dymov in Science FYI
я работал с алгоритмами в фарме, популяционными и климатическими, там везде параллелизм именно на гпгпу очень широко применяется
источник

AZ

Arthur Zalevsky in Science FYI
против ГПУ я то ничего не имею) обеими руками за и люблю такой софт. но сам пока не писал, да.
источник

VD

Victor Dymov in Science FYI
Arthur Zalevsky
против ГПУ я то ничего не имею) обеими руками за и люблю такой софт. но сам пока не писал, да.
если будет интерес расскажу, много делал под это дело, вплоть до маллока внутри кернела гпу )
источник

O

Orodret in Science FYI
Victor Dymov
поэтому преимущества параллельности Го мне неочевидны )
Преимущество естественно не в возможности оптимизации-оптимизации-оптимизации, а в том, что можно достаточно легко написать прогу, которая без проблем будет раскидывать выполнение на столько ядер, сколько ей дадут, без необходимости особо следить за блокировками.
источник

VD

Victor Dymov in Science FYI
Orodret
Преимущество естественно не в возможности оптимизации-оптимизации-оптимизации, а в том, что можно достаточно легко написать прогу, которая без проблем будет раскидывать выполнение на столько ядер, сколько ей дадут, без необходимости особо следить за блокировками.
не впечатляющее достижение с моей точки зрения, так как цимес параллелизма в возможности тонкой декомпозиции задачи )
источник