Size: a a a

QA — Load & Performance

2020 June 11

DB

Dmitry Bulka in QA — Load & Performance
Привет
подскажите плиз на вскидку если с нуля делать задачу по нагрузочному тестированию магазина доставки продуктов
сколько на это времени нужно ?
источник

M

Maksimall89 in QA — Load & Performance
Dmitry Bulka
Привет
подскажите плиз на вскидку если с нуля делать задачу по нагрузочному тестированию магазина доставки продуктов
сколько на это времени нужно ?
всё зависит от вашего опыта, объема скриптов и их сложности написания
источник

DB

Dmitry Bulka in QA — Load & Performance
Maksimall89
всё зависит от вашего опыта, объема скриптов и их сложности написания
Опыта ноль
Поступила задача на проверку производительности, сейчас пробую оценить
По объёму и сложности: хочется проверить нагрузку пользователями при переходе на сайт и поиском ими продуктов
Тысяч 10-20
источник

I

I-1 in QA — Load & Performance
Dmitry Bulka
Опыта ноль
Поступила задача на проверку производительности, сейчас пробую оценить
По объёму и сложности: хочется проверить нагрузку пользователями при переходе на сайт и поиском ими продуктов
Тысяч 10-20
Долго, скорее имеет смысл внедрять потихоньку НТ и каждый заход исправлять ошибки и неточности прошлого тестирования.
Даже если изучить основы НТ за месяц, есть много скользких моментов.
источник

I

I-1 in QA — Load & Performance
Если хочется именно своими силами
источник

jj

jagga jagga in QA — Load & Performance
зависит от того что у вас есть в распоряжении
источник

jj

jagga jagga in QA — Load & Performance
как минимум логи сайта есть?
источник

J

JohnMMX400 in QA — Load & Performance
Вот кстати про логи хотел спросить, логирование настраивается по разному и бывает там нет каких то деталей, (т.к. в проде дебаг_левел слабже, чтоб не грузить)... Так вот,              вопрос: как из логов вытащить информацию с каким количеством запросов в секунду(rps) Нужно делать 'профиль нагрузки'?  Т.е. я вытащил общее количество пользователей из где то 35-125 тыс. В зависимости от дня, я просто считаю уникальные логины в логе за день. Но они заходят не все разом и... Делают разные операции...
источник

J

JohnMMX400 in QA — Load & Performance
Неужели реально вытаскивать каждый топовый урл, и начинать смотреть время в которое он дёргался ,  используя какой нить спланк... Наверное можно раскидать такой лог по минутам...
источник

J

JohnMMX400 in QA — Load & Performance
Просто мож кто регулярно делает, есть какой нить лайфхак?
источник

O

Oleg in QA — Load & Performance
Это же зависит т конкретной системы. Надо понять что хочется и пусть она это логгирует или отдает в мониторинг. Если каждый запрос дорого - пусть логгирует количество запросов в минуту по типам.
источник

А

Антон in QA — Load & Performance
Viktor Ganeles
Коллеги, есть идеи, что могло так повлиять?

Обновили MSSQL 2012 => 2016(в режиме совместимости с 2012), и в первых трёх тестах (2 дня после обновления) утилизация CPU на БД была в разы больше - вместо 30% все 100%, с соответствующим (плохим) поведением системы.

А на третий день внезапно всё вернулось к изначальному состоянию.
а какая была нагрузка на диск? он мог работать с логом транзакций
источник
2020 June 12

VG

Viktor Ganeles in QA — Load & Performance
Антон
а какая была нагрузка на диск? он мог работать с логом транзакций
диск сравнил, время отклика 1ms как до так и после
источник

VG

Viktor Ganeles in QA — Load & Performance
но блин. Оказалось, что был после апдейта один тест где проблем не было.
на следующий день тест с проблемами, а потом тест без проблем.

так что, походу, не в апдейте дело. А в чём - пытаюсь понять, но не понимаю пока.
источник

jj

jagga jagga in QA — Load & Performance
JohnMMX400
Вот кстати про логи хотел спросить, логирование настраивается по разному и бывает там нет каких то деталей, (т.к. в проде дебаг_левел слабже, чтоб не грузить)... Так вот,              вопрос: как из логов вытащить информацию с каким количеством запросов в секунду(rps) Нужно делать 'профиль нагрузки'?  Т.е. я вытащил общее количество пользователей из где то 35-125 тыс. В зависимости от дня, я просто считаю уникальные логины в логе за день. Но они заходят не все разом и... Делают разные операции...
распарсить и обсчитать статистику по логу - выяснить количество операций
источник

jj

jagga jagga in QA — Load & Performance
количество операций в секунду  - sort и uniq в помощь если нету елки
источник

J

JohnMMX400 in QA — Load & Performance
Да  спасибо ими и сортировал, но все таки не удобно, логи большие , по 20гб файл за 1 день, и это не полный лог, есть акцес.лог а есть юзер.экшен лог
источник

jj

jagga jagga in QA — Load & Performance
20 гб за день - это тебе повезло))
источник

jj

jagga jagga in QA — Load & Performance
если экшены постовые сохраняются = то это облегчит работу
источник

J

JohnMMX400 in QA — Load & Performance
Спасибо)) вдохновляет))
источник