Инструменты мало используются именно в среде тестирования производительности.
Это выбор команд разработки, которые сами пишут на Erlang и хотят поддерживать единую кодовую базу для всех частей проекта.
Если вы в такой среде, и цель в том, чтобы команда разработки поддерживала тесты производительности, или важно переиспользовать библиотеки в коде, то выбор разумен - если свои плагины писать для tsung.
Консультировать именно по особенностям инструмента будет сложно. XML-язык, как в JMeter.
Когда-то tsung был прорывным, подкупал своей асинхронностью, тем, что поддерживал WebSocket, а больше никто это не поддерживал.
Но так было 10 лет назад.
Потом появились плагины в JMeter для WebSocket, потом появился Gatling, который совместим с более распространенной экосистемой JVM.
И про tsung как-то забыли. Это глазами команды нагрузки отдельно взятой компании
mzbench выглядит интереснее, синтаксисом
А чтобы сформировать профессиональное мнение, я бы почитал как сделаны тесты производительности в крупных проектах.
В RabbitMQ
А в RabbitMQ (наиболее известном мне проекте на Erlang)
тесты производительности написаны на Java:
https://github.com/rabbitmq/rabbitmq-perf-testПоэтому, буду советовать вам смотреть инструменты на Scala/Java, если вы инженер нагрузки: Gatling, JMeter
А если разработчик, то в выборе mzbench / tsung - выбирать mzbench за более приятный синтаксис