Size: a a a

QA — Load & Performance

2021 May 28

AA

Artem Astaxov in QA — Load & Performance
мониторинг которых + бд хотелось бы поглазеть
источник

А

Апельсин in QA — Load & Performance
5 интеграций как минимум  но на схеме они не через Rabbit общаются что странно
источник

А

Апельсин in QA — Load & Performance
Или через какой-то worker
источник

AA

Artem Astaxov in QA — Load & Performance
а сервер файлового хранилища на тех же дисках или зажали или попроще стоят?
источник

А

Апельсин in QA — Load & Performance
Схема кстати классная, даже git с дженкинсом указали
источник

AA

Artem Astaxov in QA — Load & Performance
почему? сервак приложений ложит в очередь а какой то worker обрабатывает ж
источник

С

Сергей in QA — Load & Performance
Не могу знать ,но добавил себе этот вопрос
источник

AA

Artem Astaxov in QA — Load & Performance
правда я чет не понял почему у бд одностороняя связь, но наверное это ошибка схемы
источник

GG

Gugo Groci in QA — Load & Performance
Схема хорошая. Нужно количество Worker увеличить, если ресурсы есть. И узнай, какая задержка на ответ считается приемлемой. Всё, что выше (по времени) - нужно резать на стороне nginx, т.е. посылать в ответ 503.
источник

А

Апельсин in QA — Load & Performance
FPM сервер у тебя. Хз что то там и как с php связано. Даже не сервер а менеджер процессов. Интересная штука
источник

С

Сергей in QA — Load & Performance
🙏 спасибо
источник

А

Апельсин in QA — Load & Performance
Кто бы объяснил что это такое, интересно же
источник

AA

Artem Astaxov in QA — Load & Performance
мб все же до мониторинга очереди сначала дойти чем вслепую увеличивать
источник

С

Сергей in QA — Load & Performance
Подскажите плиз как грамотно предложить настроить мониторинг ? Какие-нибудь самые распространенные решения ... Я бекендерам говорил ,но они юзают htop и все 😐
источник

VG

Viktor Ganeles in QA — Load & Performance
Скажи вот ещё что:
А нагрузка в тесте исходя из чего выбиралась?

Из графика видно, что по одному запросу 200rps, по другим - 100rps

На проде ожидается такая нагрузка?

Может на проде сильно меньше будет, а значит у тебя и так всё хорошо :)
источник

ΙΤ

Ιωάννης Τσεκούρι... in QA — Load & Performance
Prometheus + нужные экспортеры
источник

ДМ

Дмитрий Миняев... in QA — Load & Performance
Из шифта прометей пишет в инфлюкс, чтобы получить утилизацию ЦПУ конкретного пода делю метрику node_namespace_pod_container:container_cpu_usage_seconds_total:sum_rate на kube_pod_container_resource_limits_cpu_cores. Лимит получаю как переменную, а в запросе через math / $имя_лимита.
Как-то иначе можно запрос построить чтобы получать метрику?
источник

ДМ

Дмитрий Миняев... in QA — Load & Performance
Получение использования процессора SELECT mean("value") / $limit_cpu_cores FROM "$prometheus_database"."node_namespace_pod_container:container_cpu_usage_seconds_total:sum_rate" WHERE ("namespace" =~ /^$namespace$/ AND "container" = "container_name" AND "pod" =~ /^$pod_name$/) AND $timeFilter GROUP BY time($aggr), "pod", "namespace" fill none

Это как раз получение лимита SELECT mean("value") / $limit_cpu_cores FROM "$prometheus_database"."kube_pod_container_resource_limits_cpu_cores" WHERE ("namespace" =~ /^$namespace$/ AND "container" = "container_name" AND "pod" =~ /^$pod_name$/) AND $timeFilter GROUP BY time($aggr), "pod", "namespace" fill none
источник

С

Сергей in QA — Load & Performance
800 потоков мы выбрали из-за того что на 600 все в целом хорошо было ) а прирост Как-то рандомно сделали ... Рпс я никак не прогнозировал , ориентировались на количество пользователей
источник

KY

Kirill Yurkov in QA — Load & Performance
не плохо, скоро чатик будет вообще полноценным сервисом по нагрузочному тестированию!))
источник