Size: a a a

2019 February 08

AT

Alexander Tsukanov in testspro1c
Да и не стал задавать другие вопросы, т.к. тишина
источник

AA

Artur Ayukhanov in testspro1c
Alexander Tsukanov
Артур, вот тут можешь глянуть когда я первый раз упомянул об этом глюке.
Но в VA ошибка была другая (из-за английского)

Надеюсь вам удастся отловить этот глюк, чтобы новички в ступор не впадали
какой глюк-то?
пока я от тебя не увидел описания возникающей У ТЕБЯ проблемы :(
довольно странно говорить, что сообщал об этом, если не сообщал.
источник

A

Alexey Lab Sosnoviy in testspro1c
vendor support vs community
источник

AT

Alexander Tsukanov in testspro1c
Артур, я не сообщал о проблеме вам и объяснил выше почему так получилось.
Не понимаю что ты от меня хочешь сейчас
источник

AA

Artur Ayukhanov in testspro1c
>Артур, вот тут можешь глянуть когда я первый раз упомянул об этом глюке.
Но в VA ошибка была другая (из-за английского)

Alexander я хочу исключить не подтвержденные утверждения о рассказе о глюке, когда на самом деле про глюк не было написано :)
все просто
источник

AK

Alexander Kuntashov in testspro1c
А как же "клиент всегда прав"? :)
источник

AT

Alexander Tsukanov in testspro1c
Артур, прочитай внимательно что я писал. Утверждений о "рассказе о глюке" не было
источник

AT

Alexander Tsukanov in testspro1c
Я просто сказал что мы тоже с этим сталкивались
источник

AA

Artur Ayukhanov in testspro1c
Alexander я-то читал, а ты читал мою цитату твоего же текста.

>Артур, вот тут можешь глянуть когда я первый раз упомянул об этом глюке.
Но в VA ошибка была другая (из-за английского)

"в первый раз упомянул", хотя не упомянул.
я только об этом и все.
источник

LP

Leonid Pautov in testspro1c
Artem
А ещё это нормально, что add при внесение изменения в epf файл теряет известные шаги и приходится сбрасывать кэш? Или только у меня так?
Ради эксперимента  - можете проверить тоже самое на VA?
источник

A

Artem in testspro1c
Leonid Pautov
Ради эксперимента  - можете проверить тоже самое на VA?
Может быть когда-нибудь позже) она у меня не установлена
источник

AT

Alexander Tsukanov in testspro1c
@aartbear Не в этом конкретно сообщении. Я его дал как ссылку на группу сообщений там.
Не буду же дублировать весь свой спич.
источник

AT

Alexander Tsukanov in testspro1c
Сломаный телефон какой-то ) Надеюсь разобрались
источник

AA

Artur Ayukhanov in testspro1c
да, конечно
источник

AT

Alexander Tsukanov in testspro1c
Коллеги, вопрос ко всем у кого тестировщики/аналитики пишут кликеры.
После того как кликер написан (например создание, заполнение и проведение документа).
И проверять в общем случае нужно всю функциональность документа.
Какие контрольные точки (проверки) вы втыкаете в сценарий?
1. Проверка видимости
2. Проверка доступности
3. Проверка текущего окна
4. и т.д. (ваши варианты)
На какой детализации проверок останавливаетесь?
Делаете ли пинтест сценариев (что они реально ловят неадекватное поведение документа)?
Как убеждаетесь что проверочные шаги реально работают с учетом особенностей тестового API платформы (например видимость API не всегда возвращаеет правильно)?
Поделитесь опытом, плиз. Может кто-то мануал для фичеписателей делал и где-то он есть в паблике.
источник

AT

Alexander Tsukanov in testspro1c
Вопросы в общем без привязки к инструменту если что.
источник

AT

Alexander Tsukanov in testspro1c
Еще вопрос до кучи (вообще ко всем):
Ведете ли какую-то базу данных по сценариям?
Чтобы можно было относительно быстро оценить хотя бы на глаз покрытие функциональности.
Типа что в сценариях, которые создают конкретный документ, присутствует проверка нажатия какой-то кнопки (подбор из остатков например).
Или источником такой информации у вас выступают только сами тексты сценариев? (я понимаю что поддержка БД тоже требует затрат)
источник

LP

Leonid Pautov in testspro1c
Alexander Tsukanov
Коллеги, вопрос ко всем у кого тестировщики/аналитики пишут кликеры.
После того как кликер написан (например создание, заполнение и проведение документа).
И проверять в общем случае нужно всю функциональность документа.
Какие контрольные точки (проверки) вы втыкаете в сценарий?
1. Проверка видимости
2. Проверка доступности
3. Проверка текущего окна
4. и т.д. (ваши варианты)
На какой детализации проверок останавливаетесь?
Делаете ли пинтест сценариев (что они реально ловят неадекватное поведение документа)?
Как убеждаетесь что проверочные шаги реально работают с учетом особенностей тестового API платформы (например видимость API не всегда возвращаеет правильно)?
Поделитесь опытом, плиз. Может кто-то мануал для фичеписателей делал и где-то он есть в паблике.
Мы идём от задачи. Когда мы пишем тест - мы знаем что в нём хотим проверить.
Это может быть и поведение формы, и проводки и т.д.
источник

AT

Alexander Tsukanov in testspro1c
Ну т.е. один тест проверяет что-то одно конкретное?
А если нужна регрессия?
источник

LP

Leonid Pautov in testspro1c
Alexander Tsukanov
Коллеги, вопрос ко всем у кого тестировщики/аналитики пишут кликеры.
После того как кликер написан (например создание, заполнение и проведение документа).
И проверять в общем случае нужно всю функциональность документа.
Какие контрольные точки (проверки) вы втыкаете в сценарий?
1. Проверка видимости
2. Проверка доступности
3. Проверка текущего окна
4. и т.д. (ваши варианты)
На какой детализации проверок останавливаетесь?
Делаете ли пинтест сценариев (что они реально ловят неадекватное поведение документа)?
Как убеждаетесь что проверочные шаги реально работают с учетом особенностей тестового API платформы (например видимость API не всегда возвращаеет правильно)?
Поделитесь опытом, плиз. Может кто-то мануал для фичеписателей делал и где-то он есть в паблике.
Насчет проверки видимости - проблема известная.
Мы её решаем с помощью такой конструкции (работает только в VA)
И я включаю проверку видимости элементов с учётом видимости групп элементов
//Проверка видимости
И я выключаю проверку видимости элементов с учётом видимости групп элементов
источник