Size: a a a

QA — Load & Performance

2021 November 16

VS

Vladimir Sitnikov in QA — Load & Performance
А разве устоялось, что «закрытая, это когда think time и всё такое?»
источник

NN

Nobody Noname in QA — Load & Performance
не, я про "закрытая это когда количество юзеров ограниченно" vs "закрытая это когда запросы ждут предыдущих отработанных" например
источник

VS

Vladimir Sitnikov in QA — Load & Performance
«Запросы ждут предыдущих» это всё-таки следствие, а не определение
Не так-то и много авторитетных товарищей, которые говорят про «запросы, ждущие предыдущих»
источник

NN

Nobody Noname in QA — Load & Performance
нужен опрос)
источник

KY

Kirill Yurkov in QA — Load & Performance
вообще может не стоит выбирать модель? мне кажется соответствие моделей системы и модели нагрузки это заблуждение
источник

KY

Kirill Yurkov in QA — Load & Performance
любая система более многогранна чем эти модели. в любой системе можно найти уровень имплементации который бы демонстрировал открытую или закрытую модель
источник

ВС

Вячеслав Смирнов... in QA — Load & Performance
Да, когда впервые услышал про открытую модель, то это было от Алексея Лавренюка на Гейзенбаге.
Эмоционально воспринял, так как показалось, что вот все вокруг знают про две модели, а я не знаю. Но мне было ок так-то.

Стал изучать и понял, что открытая модель именно в танке это Hit Based-тесты (запросы без корелляции).
И тогда, на тот момент, сделал вывод - что открытая модель это вот такие именно тесты, без корреляций и это специфично для такого проекта как Яндекс. Понизил важность этих знаний и успокоился.

А потом такое разделение появилось и в Gatling. И там не было про HitBased, поэтому там я никак не мог переварить специфику. И никак не мог переварить объяснения других. Пока сам не попробовал все модели, все таймеры и не получил Ph D по потокам.
источник

ВС

Вячеслав Смирнов... in QA — Load & Performance
источник

ВС

Вячеслав Смирнов... in QA — Load & Performance
Доклад, который пересмотрел раз пять. Все из-за этих моделей, пользователей, циклов, ...
Все это стало понятно только после десятков экспериментов
Доклад хороший, и я, вроде, в теме нагрузки
Но тема такая, что ее не описать )
источник

KY

Kirill Yurkov in QA — Load & Performance
думаю большинство узнало об этих терминах в нагрузке из этого доклада
источник

A

Alexander in QA — Load & Performance
Коллеги, нужно ваше мнение насколько рискованно проводить сравнение результатов НТ одних и тех же приложений
Если эталон крутится на RHEL.
Стенд НТ на Oracle Linux .
При условии, что версии ядра и версии всего софта  одинаковые на полигонах
???
источник

KY

Kirill Yurkov in QA — Load & Performance
а в итоге сравнения вы что хотите получить и зачем
источник

AB

Anton Barzyonok in QA — Load & Performance
https://www.youtube.com/watch?v=unhG-WUOHnE
еще часть, возможно, из этого доклада)
(Андрей Похилько, "Нагрузочное тестирование типичного интернет-сервиса")
источник

A

Alexander in QA — Load & Performance
Тестирование ранее проводилось на RHEL, планируем переезд на Oralce всего полигона НТ.
Продуктив же был и остается на RHEL.
источник

KY

Kirill Yurkov in QA — Load & Performance
и что хотим узнать
источник

A

Alexander in QA — Load & Performance
насколько будут применимы новые результаты НТ и их сходимость с историческими тестами
источник

KY

Kirill Yurkov in QA — Load & Performance
ну рисков как таковых не вижу, обычное конфигурационное тестирование. в таком случае желательно ряд разных тестов провести на двух конфигурациях и найти погрешность с которой можно подвязать исторические результаты к новой архитектуре
источник

A

Alexander in QA — Load & Performance
я переживаю не будет ли подводных камней из-за разных поставщиков дистрибутивов
источник

KY

Kirill Yurkov in QA — Load & Performance
ну разница может почти отсутствовать, тут зависит от того что за нагрузку вы даете
источник

KY

Kirill Yurkov in QA — Load & Performance
и как само приложение с ядром дружит
источник