Size: a a a

2019 March 26

A

Aleksandr in uptime.community
Vladimir Smirnov
они делают много экспериментов в день и как-то оценивают результаты
это именно про их методику "накати-откати" или про А/Б тестирование? Я читал про обе, емнип, они используют staged-rollout, раскатывают каждое новое изменение на кусок пользователей сначала, потом везде. Но это про код, в котором, я так понимаю, участвуют фича-флаги и А/Б тесты
А/Б тестов у них может и много, но я не видел нигде, чтобы они за час понимали, насколько тест удачен или нет. Слышал, что у них очень короткое время реакции по основному показателю (бронирований в единицу времени?) но, опять-таки не слышал, чтобы они использовали только его в результатах своих тестов
в любом случае, почитаю про них еще, вдруг упустил что-то, спасибо )
источник

ВЖ

Виталий Жаков in uptime.community
Slach
главное не забывайте принимать решения после окончания эксперимента и выпиливать все эти if нахрен, а то лапша получается
Решение добавляет работы...
Ещё есть варианты?
источник

A

Aleksandr in uptime.community
Виталий Жаков
Решение добавляет работы...
Ещё есть варианты?
так проблема именно в том, чтобы понять, что изменения хорошие/плохие по метрикам? Или что добавляет работы, выпиливание if-ов?
источник

ВЖ

Виталий Жаков in uptime.community
Aleksandr
так проблема именно в том, чтобы понять, что изменения хорошие/плохие по метрикам? Или что добавляет работы, выпиливание if-ов?
Кажется большой проблема выпиливания / создания if'ов
источник

A

Aleksandr in uptime.community
Виталий Жаков
Кажется большой проблема выпиливания / создания if'ов
если интересен именно опыт badoo (но мы так не делаем, по крайней мере официально, для фич)
https://habr.com/ru/company/badoo/blog/413991/
* берем стабильную версию
* накладываем сверху 1+ "патчей" от разработчиков
* генерим из каждой пачки версию кода
* раскладываем на каждую группу машин (разработчики решают сами, куда) свою версию кода
* ждем отмашки разработчика на откат или применение изменений в мастере

новый патч/принятие старого == перераскладка
источник

ВЖ

Виталий Жаков in uptime.community
Естественно ручное тестирование в ветке, статический анализ и автотесты перед merge в master уже есть
источник

A

Aleksandr in uptime.community
Виталий Жаков
Естественно ручное тестирование в ветке, статический анализ и автотесты перед merge в master уже есть
а никакого интеграционного тестирования, кроме как на проде, нет? Не боитесь его потерять/не хотите добавить, если его нет?
источник

ВЖ

Виталий Жаков in uptime.community
Aleksandr
а никакого интеграционного тестирования, кроме как на проде, нет? Не боитесь его потерять/не хотите добавить, если его нет?
Под интеграционным тестированием здесь что понимается?
источник

A

Aleksandr in uptime.community
Виталий Жаков
Под интеграционным тестированием здесь что понимается?
стейджинг какой-то, когда тестировщики смогут проверить все 10 веток, что ни одна из них не ломает функционал из другой
источник

ВЖ

Виталий Жаков in uptime.community
Aleksandr
стейджинг какой-то, когда тестировщики смогут проверить все 10 веток, что ни одна из них не ломает функционал из другой
Стейджинг сейчас есть, но кажется, что это снижает скорость внесения изменений.

В теории ничего же не мешает в ветку с фичей забрать функционал от master и проверять со всеми остальными фичами, которые уже подготовлены к релизу.
источник

VR

Vladimir Renskiy in uptime.community
А как вы боритесь с отрицательным узер экспириансом если выкатили на тест в проде плохую фичу?
источник

ВЖ

Виталий Жаков in uptime.community
A/B тестирование есть, но редко. На кардинальные изменения.
Иногда до прода тестируем дизайн на фокус-группе.

По остальным случаям снижения конверсии пока разбираемся по факту.
источник

ВЖ

Виталий Жаков in uptime.community
Vladimir Smirnov
определение метрик это сложно в принципе, бывают люди которые условно конверсию меряют, тэгируют ее разными experiment id и смотрят
Допустим, бывают явные баги в коде (исключения, которые могут быть отловлены такими системами, как sentry).
Случилось так, что эти кейсы всё-таки прошли в прод через QA, человеческий фактор.
Никто не определяет автоматически коммиты, которые привели к этому и автоматически не откатывает их?
источник

VS

Vladimir Smirnov in uptime.community
Виталий Жаков
Допустим, бывают явные баги в коде (исключения, которые могут быть отловлены такими системами, как sentry).
Случилось так, что эти кейсы всё-таки прошли в прод через QA, человеческий фактор.
Никто не определяет автоматически коммиты, которые привели к этому и автоматически не откатывает их?
наверное кто-то определяет )
источник

S

Stanislav in uptime.community
Ну пользователи точно )
источник
2019 March 27

EO

Eric Oldmann in uptime.community
Rational Test Suite например, плюс AppScan, хотя явные баги выскочат ещё на стадии нагрузочного тестирования.
источник
2019 March 28

I

Igor in uptime.community
источник

I

Igor in uptime.community
у трэвиса там проблемы уже второй день
источник

KO

Karey Oke in uptime.community
У Circle CI тоже последние дни не очень проходят - https://status.circleci.com/
источник
2019 March 29

ЕГ

Егор Голубев in uptime.community
Ребята, а у вас тут вакансии DevOps можно постить?
источник