Ах да. Очень важный момент. Вот мы задали профиль
1) 10 стартов сценария в сек
2) 20 стартов сценария в сек
3) 10 стартов сценария в сек
Сколько это запросов в сек?
Пусть у нас в сценарии 7 запросов. Которые выполняются всегда, кеширования нет.
А. 10 стартов сценария в сек даст 10 запросов в сек?
Только первый запрос сценария будет стартовать с интенсивность старта сценария. При Loop Count = 1. Остальные запустятся после его выполнения, после выполнения предыдущих.
При Loop Count = 10 даже интенсивность старта первого запроса не будет равна интенсивности старта потоков. На первой итерации да, а на 9-ти других уже нет. В среднем - не будет равна.
И в моменте интенсивность запросов точно не будет 10 RPS. Но на большом промежутке времени (10 минут) средний показатель RPS для каждого отдельного запроса будет 10 запросов в сек. А RPS выдаваемый всем сценарием посчитать так нельзя.
Б. 10 стартов сценария в сек из 7 запросов даст 70 запросов в сек?
Снова нет. Если внутри катушки не применять Parallel Controller, то запросы будут выполняться последовательно. Эффекта умножения не произойдет.
Верно только то, что для нагрузки с точным RPS уже нужны таймеры. Базовые или плагины или с дополнительными катушками.
Исключение. В сценарии ровно 1 запрос. Тогда интенсивность старта будет равна RPS. И тогда нужный RPS можно получить с помощью простой Thread Group.
Я не владею техникой расчета RPS. И профиль составляю по стартам сценария в сек. С RPS есть особенности, которые нужно исследовать.
привет.
@smirnovqa , попробовала реализовать ваше решение (открытая нагрузка на только лишь тредгруппе) для целевого рпс = 100, внутри катушки только один запрос.
users = target_rps*duration_sec
rump_up = duration_sec
loop = 1
наблюдается следующее печальное явление: независимо от заказанного времени теста жметр первую половину (ровно) шлёт 95 с кепкой, а вторую — 105 с кепкой.
any ideas, почему так?