Size: a a a

QA — Load & Performance

2020 October 26

ВС

Вячеслав Смирнов... in QA — Load & Performance
https://github.com/polarnik/gatling-report-example/blob/master/start.gatling.rootPathPrefix.sh

Если два узла отправят метрики с одинаковыми тегами в один момент времени, то сохранится только вторая запись. Этого не избежать, так реализован InfluxDB.

Чтобы это обойти использую дополнительные теги:

RunID
Hostname

Так метрики становятся раздельными. С уникальными тегами. И не удаляют друг друга
источник

MP

Maxz Pezhnev in QA — Load & Performance
Степа Фомичев
Сегодня немного поразбирался с gaussian random timer, если кому-то интересно, как он работает, то вот к чему я пришел(постарался опустить большую часть математики):
В этом таймере мы можем задать два числа: константную задержку и смещение.
В основе этого рандомизатора лежит метод класса Math nextGaussian()(https://docs.oracle.com/javase/8/docs/api/java/util/Random.html#nextGaussian--), где среднеквадратическое отклонение равно 1.0.

В gaussian random timer время задержки высчитывается слудующим образом:
(nextGaussian() * смещение) + константная задержка = thinktime

nextGaussian ~ в 66% случаев принимает значение от -среднеквадратическое отклонение(в нашем случае -1.0) до +среднеквадратическое отклонение(+1.0).
В 27% случаев это будет -2.0/+2.0
В 5% -3.0/+3.0

При константной задержке в 500ms и смещении 100 ms в существенном для нас проценте случаев (68.26%) числа будут в диапазоне от 400 до 600 ms (+/- (100 * 1) + 400),
еще в 27.18% случаев диапазон будет от 300 до 700 (+/- (100 * 2) + 400) и вего в 4.28% будет от 200 до 800 (+/- (100 * 3) + 400). Что в сумме нам будет давать ожидаемое нами среднее значение в ~ 500.
В 0.28% значения будут вне пределов этого диапазона(кому интересно, можете посмотреть правило трех сигм).
Спасибо
источник
2020 October 27

PB

Pavel Bairov in QA — Load & Performance
Вячеслав Смирнов
https://github.com/polarnik/gatling-report-example/blob/master/start.gatling.rootPathPrefix.sh

Если два узла отправят метрики с одинаковыми тегами в один момент времени, то сохранится только вторая запись. Этого не избежать, так реализован InfluxDB.

Чтобы это обойти использую дополнительные теги:

RunID
Hostname

Так метрики становятся раздельными. С уникальными тегами. И не удаляют друг друга
вот за это спасибо!)
источник

D

Dk Vdec in QA — Load & Performance
Вячеслав Смирнов
https://github.com/polarnik/gatling-report-example/blob/master/start.gatling.rootPathPrefix.sh

Если два узла отправят метрики с одинаковыми тегами в один момент времени, то сохранится только вторая запись. Этого не избежать, так реализован InfluxDB.

Чтобы это обойти использую дополнительные теги:

RunID
Hostname

Так метрики становятся раздельными. С уникальными тегами. И не удаляют друг друга
Спасибо большое)
источник

СФ

Степа Фомичев... in QA — Load & Performance
Всем добрый день!

Вчера писал про gaussian random timer, сегодня разобрался немного в poisson random timer. Математику постигнуть не смог, зато тесты показали довольно точные результаты:
1) 99% всех случайных чисел, которые генерирует poisson random timer находятся в диапазоне от constant delay + (0.75 * lambda) до constant delay + (1.25 * lambda)
2) Если у вас огромное количество таймеров, большие значения в lambda могут вызвать проблемы. Например, при lambda = 100 10 000 000 чисел у меня рассчитывались 3.5 секунды, при lambda = 300 - 7.3. Сильно возрастает нагрузка на cpu
источник

СФ

Степа Фомичев... in QA — Load & Performance
С секундомером?)
источник

СФ

Степа Фомичев... in QA — Load & Performance
Мб здесь знают https://t.me/qajuniors, я слышал, что у них есть множество разных тестировщицких тулзовин для десктопа, но подробностей не ведаю
источник

ВС

Вячеслав Смирнов... in QA — Load & Performance
time ./winword.exe
В git bash
+ Alt F4
источник

A

Anna in QA — Load & Performance
неплохо бы сначала определить, что считается "стартануло" для конкретного приложения
источник

VK

Vitaliy Kudryashov in QA — Load & Performance
возьми тул который умеет работать с твоим приложением
источник

ВС

Вячеслав Смирнов... in QA — Load & Performance
Тормоза в офисе из-за неподписанных расширений чаще всего
источник

ВС

Вячеслав Смирнов... in QA — Load & Performance
Офис по ним ищет удостоверяющий центр и висит, а потом просто загружается не дождавшись отклика от УЦ
источник

ВС

Вячеслав Смирнов... in QA — Load & Performance
И речь о минуте, не о миллисекундах
источник

VG

Viktor Ganeles in QA — Load & Performance
у меня ещё была проблема, когда офис запускался очень долго потому, что лез в прокси (хз зачем, может за апдейтами) а у меня не было доступа к интернету.
Нашёл в реестре где запретить ему лазать в инет при старте и стало быстро запускаться
источник

OC

Oleg Chaplashkin in QA — Load & Performance
Коллеги, не нашел по истории ничего про сетевые издержки.
Вопрос: есть две машины (клиент - сервер), которые находятся БЕЗ low latency режима в AWS, но географически близко. В скором времени будут проводить тесты и возник вопрос: стоит ли учитывать сетевые издержки? и каким инструментом? iperf?
источник

СФ

Степа Фомичев... in QA — Load & Performance
Oleg Chaplashkin
Коллеги, не нашел по истории ничего про сетевые издержки.
Вопрос: есть две машины (клиент - сервер), которые находятся БЕЗ low latency режима в AWS, но географически близко. В скором времени будут проводить тесты и возник вопрос: стоит ли учитывать сетевые издержки? и каким инструментом? iperf?
А трафик идёт по внутреннему ip или по внешнему? Кажется, если это машины не в одной сети, то стоит учитывать
источник

OC

Oleg Chaplashkin in QA — Load & Performance
Степа Фомичев
А трафик идёт по внутреннему ip или по внешнему? Кажется, если это машины не в одной сети, то стоит учитывать
Трафик идёт по внутреннему
Однако интересен сам факт измерения: как и чем? Допустим, один замер в одной сети, другой - нет. Как измерить сетевые издержки?
источник

СФ

Степа Фомичев... in QA — Load & Performance
Стоит учитывать - я имел в виду стоит рассчитывать на то, что они будут
Насчет измерений есть смысл только если вы рассчитываете что это будет бутылочное горлышко и есть решение, как, в случае неудовлетворительных результатов, это поправить(допустим, поменять локацию aws тачки).
Насчет самих тестов, я почти уверен что амазон должен где-то вам это показывать, но если смотреть сторонние утилиты то лично я пользовался speedtest
источник

СФ

Степа Фомичев... in QA — Load & Performance
источник

VG

Viktor Ganeles in QA — Load & Performance
Latency вроде умеет jmeter замерять
Но я сам этим не занимался
источник