а в чем смысл так делать? результаты от запуска к запуску будут непредсказуемы
Последовательный запуск очень удобная штука при отслеживании деградации. Я раньше старался эмулировать реальный профиль нагрузки и на основании результатов тестов с реальным профилем делать сравнения билдов.
Здесь есть несколько минусов :
1. Профиль нужно постоянно апдейтить, чтоб он оставался "реальным"
2. Всё равно очень часто оказывается, что профиль не отражает действительность - есть неучтенные транзакции, не покрытые мониторингом, интеграции и т.д.
3. Часто бывает, что при деградации одной части системы это влияет на другие части и становится сложно выявить корневую проблему. К примеру на одном из бекенд инстансов есть несколько эндпоинтов, один из которых начал потреблять больше CPU. Это влияет на время ответа остальных эндпоинтов. В итоге в отчете мы видим замедление по целому ряду транзакций и нужно дополнительно разбираться, какая из них стала причиной замедления остальных
4. При расширении тестового набора нужно увеличивать количество ресурсов на тестовом окружении
В итоге перешел на последовательный запуск в Jmeter. Каждая группа транзакций имеет свою ThreadGroup. На прогон теста для одной группы уходит 10-15 минут. Итоги:
1. Чётко видно деградацию и часть системы в которой она произошла
2. Легко можно расширять тестовое покрытие путем простого добавления новых TreadGroup в конец тест плана
3. Ушла необходимость поддерживать "реальный" профиль без потери результативаности.
Возможно для теста на максперф такой подход не очень подойдет, но при отслеживании деградации дает хорошие результаты