Size: a a a

QA — Load & Performance

2020 July 30

AG

Alex Grishutin in QA — Load & Performance
Мне нравится идея смотреть гугл аналитику туже по кол-ву уникальных пользователей, и ориентироваться на дельту в росте пользователей за час
источник

v

vasiliy in QA — Load & Performance
Alex Grishutin
несогласен... зависит от системы. Если, например, мы знаем что система расчитана на дневную работу и все пользователи в нее логинятся, скажем, за 20 минут в начале рабочего дня. То соответсвенно, сколько бы юзеров не было, разогнать их желательно за этот промежуток времени
Не соглашусь) , тогда логины нужно добавить в основной сценарий нагрузки. Смысл в том что не нужно оценивать производительность на ramp up-е, это время нужно для инициализации и, например, логина , если мы не собираемся его грузить.
источник

v

vasiliy in QA — Load & Performance
Сценарии "реального дня системы" - обычно длительная утопия . Нужно делать пиковый час. Если в этом пиковом часу пользователи логинятся - добавить это в профиль. Для ramp up главное не завалить систему или генераторы нагрузки до основного сценария стабильной подачи нагрузки
источник

VG

Viktor Ganeles in QA — Load & Performance
Матвей
ramp-up исход из чего расчитывается?
Разгон рассчитывается исходя из:

1) что выдерживает система. Многие системы выдают проблемы при быстром разгоне, и эти проблемы могут сказаться на дальнейшей работе. Дедлоки там и тд.

2) если разгоняете очень быстро, то, как сказал Василий, учитывайте производительность системы подачи нагрузки (хотя бы несколько минут на каждую тысячу пользователей)

3) разгон должен учитывать длительность шага нагрузки (pacing).
Почему это важно?
Предположим, каждый виртуальный пользователь выполняет по операции раз в 5 минут.
Если вы разгоните всех пользователей за минуту, то у вас нагрузка на систему будет волнами:
- Первая минута: все пользаки отработали
- со второй по четвёртую минуты: нагрузки нет вовсе
- пятая минута: все пол заки отработали опять.


В общем, я обычно делаю разгон минут 15. Если системе тяжко - можно и до получаса увеличить.

Максим примерно про такое же выше сказал.
источник

М

Матвей in QA — Load & Performance
Спасибо всем большое ) в качестсве продукта идет приложение для мобилок , то есть соответсвенно ожидается что люди будут пользоваться им в течении дня без каких то вспышек условно все зашли с утра, я думаю 10-15 минут прирост будет достатосчным для сбора аналитики?
источник

ВП

Вячеслав Поляков... in QA — Load & Performance
Добрый день! При запуске простого сценария (вход-выход на сайт) jmeter грузить на 50% только 1 ядро ЦПУ из 16. Подскажите пожалуйста как настроить равномерное распределение нагрузки на все ядра ЦПУ?
источник

A

Alex in QA — Load & Performance
1. сколько потоков в тред группе жметра?
2. а зачем вы хотите это сделать?
источник

ВП

Вячеслав Поляков... in QA — Load & Performance
Alex
1. сколько потоков в тред группе жметра?
2. а зачем вы хотите это сделать?
2а потока. Это отладочный тест, чтоб потом не отвлекаться на настройки.
источник

ВС

Вячеслав Смирнов... in QA — Load & Performance
Сейчас не более двух ядер будет использоваться
источник

A

Alex in QA — Load & Performance
он не будет использовать больше 2х ядер. а скорее даже больше 1 т.к пока ждет ответ будет отправлять запрос другим тредом. Если поставите больше потоков - оно само выровняет как ему нужно. Единственное что нужно поправить - размеры лимитов в .bat\.sh для хипа и тп
источник

ВП

Вячеслав Поляков... in QA — Load & Performance
Спасибо!
источник

K

Katerina in QA — Load & Performance
Мюсля 🙈 Ёшшик
подскажите нормальную утилиту для нагрузки для  приложения на socket io
Он же вроде по вебсокетному протоколу идёт? Если да, то любая тулза которая с вебсокетами работает. Жиметр с плагином, или гатлинг, например. Но кмк с большими шансами все что не голый вебсокет - некоторая боль в любом случае.
источник

МЁ

Мюсля 🙈 Ёшшик... in QA — Load & Performance
Katerina
Он же вроде по вебсокетному протоколу идёт? Если да, то любая тулза которая с вебсокетами работает. Жиметр с плагином, или гатлинг, например. Но кмк с большими шансами все что не голый вебсокет - некоторая боль в любом случае.
жиметер с плагином не подходит, он не отрабатывает как следует  - ждет не того и не туда и как следствие при минимальных задержках все летит в тартарары.
сейчас смотрю на артилерию, следующий в списке гатлинг.  некоторая боль - это слабо сказано. надеялась кто-то поможет остудить это дело поделившись опытом
источник

K

Katerina in QA — Load & Performance
Мюсля 🙈 Ёшшик
жиметер с плагином не подходит, он не отрабатывает как следует  - ждет не того и не туда и как следствие при минимальных задержках все летит в тартарары.
сейчас смотрю на артилерию, следующий в списке гатлинг.  некоторая боль - это слабо сказано. надеялась кто-то поможет остудить это дело поделившись опытом
Я с сокет ио не работала, у меня был sockjs +stomp. С гатлингом одна сложность была - хартбиты, мессадж раз в неск секунд, и он плохо стыковался с основным сценарием. Если у socket io чего-то такого нет, то и больших проблем вообще не должно быть, просто написать обертку чтобы мессаджи удобно конструировать было.
источник

AA

Andrew Antoniuk in QA — Load & Performance
Мюсля 🙈 Ёшшик
жиметер с плагином не подходит, он не отрабатывает как следует  - ждет не того и не туда и как следствие при минимальных задержках все летит в тартарары.
сейчас смотрю на артилерию, следующий в списке гатлинг.  некоторая боль - это слабо сказано. надеялась кто-то поможет остудить это дело поделившись опытом
С gatling для websocket работал. Там на scala сценарии. У меня было 2 транзакции данные генерировал с помощью feeder.
источник

ΙΤ

Ιωάννης Τσεκούρι... in QA — Load & Performance
Andrew Antoniuk
С gatling для websocket работал. Там на scala сценарии. У меня было 2 транзакции данные генерировал с помощью feeder.
когда GatlingDSL назвали скалой
источник

YZ

Yehor Zakharov in QA — Load & Performance
Мюсля 🙈 Ёшшик
подскажите нормальную утилиту для нагрузки для  приложения на socket io
тоже Gatling используем для этого
источник

AA

Andrew Antoniuk in QA — Load & Performance
Там еще кроме dsl scala поддерживается
источник

K

Katerina in QA — Load & Performance
Нну, в простых случаях там от скалы ничего почти не надо)
источник

AA

Andrew Antoniuk in QA — Load & Performance
Да ну я писал функцию генерации id для транзакций.
источник