Size: a a a

QA — Load & Performance

2021 April 30

МВ

Максим Варанкевич... in QA — Load & Performance
ну что ни проект то хттп 2
источник

VG

Viktor Ganeles in QA — Load & Performance
а "большинство сайтов" не перешли
источник

МВ

Максим Варанкевич... in QA — Load & Performance
ну вот и мелкие проекты тоже
источник

KY

Kirill Yurkov in QA — Load & Performance
пока встречал 1-2 проекта под http/2
источник

KY

Kirill Yurkov in QA — Load & Performance
экспертизы пока нет
источник

МВ

Максим Варанкевич... in QA — Load & Performance
мне вот этот момент интересен был, как кто воюет или воевал с хттп2)
источник

KY

Kirill Yurkov in QA — Load & Performance
а зачем с ним воевать, там небольшая специфика относительно http/1.1
источник

МВ

Максим Варанкевич... in QA — Load & Performance
нуу асинхоронность запросов
источник

KY

Kirill Yurkov in QA — Load & Performance
учитываем её в нагрузке и всё. по тулам - например в jmeter от blazemater уже выдали плагин, его юзал на проекте и проблем не видел
источник

МВ

Максим Варанкевич... in QA — Load & Performance
быстрее трафик идет
источник

РЗ

Роман Зимин... in QA — Load & Performance
всем привет! подскажите, каким способом из контейнера, запущенного в ECS Fargate Cluster, вытащить в S3 логи и результат прогона?
первая мысль - запаковать aws cli в контейнер и в entrypoint.sh делать aws s3 cp.
Или быть может есть более изящный способ?
источник

YY

Yegor Ya in QA — Load & Performance
Всем привет. Есть очень нестандартная задачка для метра. Вкратце: Сервис должен получить запрос на создание задачи, дать на этот запрос ответ с айдишкой этой задачи. Через какой-то промежуток времени сервис должен отправить POST запрос содержащий json  с полным ответом по этой задаче метру. Есть ли какой-то способ ловить эти запросы метром, чтобы понимать, за какое время  происходит обработка задачи? Пока у меня из идей это сделать заглушку, которая ловит эти запросы с JSON'ном и логирует время и id задачи, а так же логать инфу из метра когда происходит запрос на создание задачи c её id, после чего парсить и вычислять это время.  Но может есть какие варианты реализовать это проще и удобнее?
источник

СФ

Степа Фомичев... in QA — Load & Performance
Это же асинхронная задача, отдаёт простым рестом ?
источник

YY

Yegor Ya in QA — Load & Performance
Да, Rest
источник

ВС

Вячеслав Смирнов... in QA — Load & Performance
Логи можно парсить еще. Делал такую реализацию один раз.
1) настроил формат вывода лога для конкретного логгера в отдельный файл. В файл попадал id ответа. А в JMeter сделал сохранение времени отправки запроса в property c HashMap
2) в JMeter периодически запускался скрипт (раз в 5 минут), который этот лог читал и парсил. Скрипт на bash/grep/

Реализация работала хорошо. Но именно в этом сервисе не было большой параллельной работы. Там было - отправить задачу на загрузку 10 000 объектов. И просто отслеживал результат по логам

3) Создать SampleResult через API JMeter в который записать длительность обработки, чтобы это попало в результаты
источник

ВС

Вячеслав Смирнов... in QA — Load & Performance
Если будет массовая отправка запросов, то да, сложнее будет реализация. Но опять же можно настроить логирование и периодически парсить лог, чтобы получать из лога и момент получения запроса и момент завершения обработки. Отчет по логу строить
источник

YY

Yegor Ya in QA — Load & Performance
Понял, по логированию я примерно понимаю как такую конструкцию можно реализовать и парсить (из самого простого я пока нашел что можно использовать к запросу Save Responses to a file Listener и потом эту инфу собирать
источник

YY

Yegor Ya in QA — Load & Performance
У меня скорее есть вопросы к реализации такой заглушки. Возможно ли метром поднимать сервер на каждый поток и пытаться отловить запросы на него? Просто я видел подобную реализацию тут в 4 пункте https://dzone.com/articles/how-to-load-test-async-requests-with-jmeter. Но у меня большие сомнения насчет такой штуки
источник

YY

Yegor Ya in QA — Load & Performance
Сам плагин там изначально уже сломанный, поэтому скорее если пытаться реализовать это то это нужно будет делать самому. Но хочу понять, какие могут быть серьезные недостатки такого подхода
источник

GG

Gugo Groci in QA — Load & Performance
У вас эндпойнт для получения ответа одинаковый?
источник