Size: a a a

2020 April 27

NS

Nick Silver in JS for testing
Boris Osipov
нужно больше вводных.

>эффективность автотестов

дай определение или методику расчета метрик

>в условиях A/B  тестирования фич.

что за условия? в чем принципиальные отличия от обратных условий
Спасибо за отклик  ребят ❤️ Немного вводных данных :

- У нас нет мануального тестирования вообще  , все тесты тригерятся автоматом на коммит в дженкинсе , когда разработчик разворачивает динамический енв. По этому ROI посчитать тяжело ибо сравнивать времязатраты с мануальным тестированием не получится

- На счёт А/Б тестов : у нас есть 4 продуктовых команды , которые запускают фичи под тестом на 50% пользователей. Некоторые эксперименты перезапускаются из-за багов ,  вот нужно как-то считать , сколько компания на этом теряет. В квартал - примерно 80 тестов

- Вот ключевая загвоздка , что не могу подобрать метрику по какой считать эффективность автотестов.

У нас есть тул для подсчёта А/В тестов фич и была идея брать инфу оттуда ( брать 1 версию эксперимента с багом и смотреть инфу до перезапуска и после сравнивать с версией 2 которая была запущена с фиксом ) ,но увы 1 версия не сохраняется и моя гипотеза разрушилась (


Я месяц назад перевел все логи тестов в Kibana  и теперь есть статистика по упавшим тестам на каждый ПР и так далее в реальном времени, но требуют все равно в деньгах считать(
источник

BO

Boris Osipov in JS for testing
понятнее не стало
источник

AG

Andrii Grom in JS for testing
Привет. Вопрос к тем, кто работает с TestCafe: как вы логируете в тестах инфо? Какой тест/сют запустился -> куда кликнул -> что написал -> проверил. В них есть свой Reporter Plugin https://devexpress.github.io/testcafe/documentation/extending-testcafe/reporter-plugin/, но собрать его не могу никак - ошибки валятся (при том, что я ничего не менял там - их код). Пофиксил одно, второе. Зачем заливать неработающий пример / код! У вас тоже были такие танцы?
источник

RI

Robert Isaev in JS for testing
Andrii Grom
Привет. Вопрос к тем, кто работает с TestCafe: как вы логируете в тестах инфо? Какой тест/сют запустился -> куда кликнул -> что написал -> проверил. В них есть свой Reporter Plugin https://devexpress.github.io/testcafe/documentation/extending-testcafe/reporter-plugin/, но собрать его не могу никак - ошибки валятся (при том, что я ничего не менял там - их код). Пофиксил одно, второе. Зачем заливать неработающий пример / код! У вас тоже были такие танцы?
привет, у меня есть опыт с их репортерами, пару сделал. можешь написать в директ, подскажу.
источник

K

Korwwyn in JS for testing
Nick Silver
Ребят , сорри за оффтоп. Столкнулся с проблемой - нужно посчитать бизнесу эффективность автотестов в условиях A/B  тестирования фич. Возможно есть какие-то идеи, как это сделать или кто-то сталкивался ?
Ну, эффективность автотестов != ROI.

Return On Investment он о том насколько профит от ваших тестов превзошел затраты, которые на них потрачены. В случае с мануальным тестированием все понятнее.
Если у вас автоматизация плотно вплетена в разработку - то и отделять ее будет неправильно.

Я бы предложил не делать на "А/Б тестирование" и "просто тестирование", а начать с общего.
Насколько эффективны ваши тесты вообще?
Если у вас есть метрика по найденным багам - то можно прикинуть где и на каком этапе то было найдено (интеграционные тесты или какие-то ночные е2е тесты), серьезность этих багов для бизнеса, и как много времени тратилось на их исправление (например).

Так-же сильно помогла бы метрика по количеству багов найденных на проде юзерами. Тогда можно ооооочень приближенно считать как кол-во найденных автотестами багов / кол-во багов с продакшена.
источник

NS

Nick Silver in JS for testing
Boris Osipov
понятнее не стало
Обновил инфу , может нужно что-то конкретизировать?
источник

BO

Boris Osipov in JS for testing
Nick Silver
Обновил инфу , может нужно что-то конкретизировать?
"Некоторые эксперименты перезапускаются из-за багов ,  вот нужно как-то считать , сколько компания на этом теряет. " автотесты то тут причем?
источник

NS

Nick Silver in JS for testing
Korwwyn
Ну, эффективность автотестов != ROI.

Return On Investment он о том насколько профит от ваших тестов превзошел затраты, которые на них потрачены. В случае с мануальным тестированием все понятнее.
Если у вас автоматизация плотно вплетена в разработку - то и отделять ее будет неправильно.

Я бы предложил не делать на "А/Б тестирование" и "просто тестирование", а начать с общего.
Насколько эффективны ваши тесты вообще?
Если у вас есть метрика по найденным багам - то можно прикинуть где и на каком этапе то было найдено (интеграционные тесты или какие-то ночные е2е тесты), серьезность этих багов для бизнеса, и как много времени тратилось на их исправление (например).

Так-же сильно помогла бы метрика по количеству багов найденных на проде юзерами. Тогда можно ооооочень приближенно считать как кол-во найденных автотестами багов / кол-во багов с продакшена.
Тесты отлавливают баги на этапе разработки , я вручную с коллегами заношу их в документ
источник

OI

Oleksii Ihnatiuk in JS for testing
тесты отлавливают баги? я же надеюсь эксплоратори у вас присутствует в неком виде?
источник

NS

Nick Silver in JS for testing
Boris Osipov
"Некоторые эксперименты перезапускаются из-за багов ,  вот нужно как-то считать , сколько компания на этом теряет. " автотесты то тут причем?
Потому что мерджили с красными тестами и тд, пока я ковырял CI и стабилизацией занимался. Т.е вот этих проблем можно было избежать если бы они смотрели тесты  и компания не потеряла бы деньги
источник

NS

Nick Silver in JS for testing
Oleksii Ihnatiuk
тесты отлавливают баги? я же надеюсь эксплоратори у вас присутствует в неком виде?
Да , делал репорт как раз в пятницу прошлую . Примерно 8 багов за день было отловлено из 80 джоб с тестами
источник

OI

Oleksii Ihnatiuk in JS for testing
да мне без разницы на кол-во отловленных багов :)
источник

OI

Oleksii Ihnatiuk in JS for testing
если писать тесты только на аксептанс критерии
источник

OI

Oleksii Ihnatiuk in JS for testing
то продукт будет говно
источник

NS

Nick Silver in JS for testing
Та понятное дело , но у нас примерно 80 % процентов покрытия , тесты ловят проблемы , но вот как посчитать это правильно в наших условиях- не знаю (
источник

NS

Nick Silver in JS for testing
Korwwyn
Ну, эффективность автотестов != ROI.

Return On Investment он о том насколько профит от ваших тестов превзошел затраты, которые на них потрачены. В случае с мануальным тестированием все понятнее.
Если у вас автоматизация плотно вплетена в разработку - то и отделять ее будет неправильно.

Я бы предложил не делать на "А/Б тестирование" и "просто тестирование", а начать с общего.
Насколько эффективны ваши тесты вообще?
Если у вас есть метрика по найденным багам - то можно прикинуть где и на каком этапе то было найдено (интеграционные тесты или какие-то ночные е2е тесты), серьезность этих багов для бизнеса, и как много времени тратилось на их исправление (например).

Так-же сильно помогла бы метрика по количеству багов найденных на проде юзерами. Тогда можно ооооочень приближенно считать как кол-во найденных автотестами багов / кол-во багов с продакшена.
Спасибо, подумаю как применить к нашим условиям)
источник

OI

Oleksii Ihnatiuk in JS for testing
понимаешь, дело не в эффективности, а в процессе и желаемом уровне качества. Есть требования, они могут быть покрыты тестами, чтобы удостовериться что фича работает. Задизайнили, написали, забыли. Провели эксплоратори в конце.
источник

OI

Oleksii Ihnatiuk in JS for testing
проблема заключается лишь в том, что тебе сказали сделать что-то, ты не понимаешь ни что, ни зачем
источник

OI

Oleksii Ihnatiuk in JS for testing
может нужно еще раз подумать, вопросики написать, и сделать еще один звонок?
источник

NS

Nick Silver in JS for testing
Oleksii Ihnatiuk
может нужно еще раз подумать, вопросики написать, и сделать еще один звонок?
Согласен, что я размыто описал инфу и вводные данные, за что извиняюсь. Подумал , что возможно кто-то сталкивался с схожими проблемами, ещё раз сорри за офтоп
источник