Size: a a a

QA — Load & Performance

2021 August 20

jj

jagga jagga in QA — Load & Performance
букв очень много)
источник

D

Darina in QA — Load & Performance
У нас сейчас jmeter + influx + grafana, все это дело запускаете "по нужде" в кубере, понятное дело, тест план пишется под конкретную нужду, хочется понять кто и как делал нагрузочное чтобы в динамике смотреть какие эндпоинты проседают, как решить проблему с тем как поддерживать тест план... Понятное дело, что надо  прикручивать дженкинс, тригеррить запуск тест плана прокидывая разные значения, мне интересен подход, кто что юзает, что лучше
источник

AS

Anatoliy Surin in QA — Load & Performance
Да там ничего особенного https://pastebin.com/AjR3Q5q9
источник

jj

jagga jagga in QA — Load & Performance
так начни с вкручивания в дженкинс
источник

СЧ

Сергей Чепкасов... in QA — Load & Performance
Гатлинг поддерживает 30 параллельных сценариев, но интенсивность тут зависит от скорости ответа.
Сценарий: подключиться, сделать getQuote, отключиться. Если сценарий выполняется за 1 секунду, то в итоге будет 30 запросов в секунду, если за 100мс, то будет 300 запросов в секунду
источник

AS

Anatoliy Surin in QA — Load & Performance
Это я понимаю. 30 параллельных сценариев, значит и отчете Active Users along the Simulation должно быть 30 пользователей, так ведь?
источник

A

Andrii in QA — Load & Performance
Прочитал, очень понравилось!
Планируется ли продолжение с углублением в затронутые темы?
источник

СЧ

Сергей Чепкасов... in QA — Load & Performance
Можно начать с выбора системы автоматизации (jenkins, gitlab), лучше взять ту, что используется для билда тестируемого приложения, потом будет проще интегрировать тесты в общий пайплайн
источник

NM

Nikita Muntian in QA — Load & Performance
подскажите пожалуйста, чет не могу сообразить как сделать "timestamp": ${__time(/1000)} + 5 sec и отправить в запросе
источник

СЧ

Сергей Чепкасов... in QA — Load & Performance
https://gatling.io/docs/gatling/reference/current/general/reports/#active-users-over-time
 (number of alive users at previous second)
+ (number of users that were started during this second)
- (number of users that were terminated during previous second)

Если сценарий отрабатывает быстрее секунды, то это значение будет выше
источник

AS

Anatoliy Surin in QA — Load & Performance
Ну для закрытой модели я понимаю, что может быть пользователей в какой-то момент меньше, если время ответа больше секунды, но как может быть со старта на 200 больше?
источник

AS

Anatoliy Surin in QA — Load & Performance
В закрытой модели количество пользователей, на сколько я понимаю, вообще не должно увеличиваться, потому-что мы должны ждать пока какой-нибудь из пользователей не закончит сценарий
источник

KY

Kirill Yurkov in QA — Load & Performance
источник

ДВ

Дмитрий Винокуров... in QA — Load & Performance
Спасибо за отзыв! Да, будет серия подробных статей по каждому этапу. Только у меня сейчас 3 сертификации, поэтому месяца через 3 начну их писать.
источник

СЧ

Сергей Чепкасов... in QA — Load & Performance
Все верно, я думаю в этом случае закрытая модель вводит ограничение на число одновременных коннектов, что соблюдается при таком сценарии. Если необходимо ограничить число коннектов в секунду, то можно добавить pacing
источник

AS

Anatoliy Surin in QA — Load & Performance
Не понял на счёт ограничения одновременных коннектов. Кстати, такое поведение наблюдается то при запуске из ci, если запускаю сценарий локально, то всё ок
источник

СЧ

Сергей Чепкасов... in QA — Load & Performance
30 параллельных сценариев, значит 30 одновременных подключений (независимо от числа новых подключений в секунду), надо реализовать такое поведение? Или надо ограничить число новых подключений до 30 в секунду?
Если второе, то можно добавить pacing, который позволит регулировать время выполнения одного сценария https://gatling.io/docs/gatling/reference/current/general/scenario/#pace
источник

AS

Anatoliy Surin in QA — Load & Performance
Я хотел ограничить rps при помощи троттлинга, чтобы понять как поменялось время ответа в новой версии. Но троттлинг почему-то тоже не срабатывает
источник

СЧ

Сергей Чепкасов... in QA — Load & Performance
Тротлингом только для http пользовался, возможно он не реализован для WS. Предлагаю добавить pace 1 секунду в сценарий и посмотреть на результат
источник

AS

Anatoliy Surin in QA — Load & Performance
Вот у меня складывается впечатление, что closed model для ws тоже реализован как-то криво
источник