Привет! Я — Таня Рашидова, QA тимлид в KODE. Я думала, что все тестировщики уже давно внедрили AI в свою повседневную работу. Но недавно выяснила, что многие либо не пробовали, либо попробовали, запутались, не получили вау-результата и забросили. Раз уж я уже объяснила, как использую AI в работе нескольким коллегам, решила оформить опыт в статью. Может, кому-то из вас она сэкономит время и силы.
У каждого в работе есть любимые задачи. Мне, например, в кайф тестировать API, анализировать поведение UI, искать баги — это всегда интересно. А вот писать тест-кейсы, чек-листы и прочую документацию — утомительно. Это требует концентрации, занимает кучу времени и честно говоря, не радует.
Когда я окончательно устала писать всё вручную, решила попробовать использовать AI. В моём случае это была DeepSeek. Первые попытки были… ну, так себе. Но потом я нащупала систему, с помощью которой AI реально помогает, и теперь она у меня работает почти как конвейер.
Сразу оговорка: не верьте рилсам, где всё делается в один промт. Это магия монтажа. Реальность — это итерации. Делим задачу на части, уточняем, добавляем примеры, учим AI на ходу. Но результат — стоит того.
Для создания алгоритма возьмем не самый сложный экран, где есть много кнопочек. Это поможет настроить AI, показать ему, какой бывает функционал, какие паттерны заложены.
Начинаю с того, что загружаю в DeepSeek скриншот экрана или описываю функциональность, для которой нужен чек-лист. Можно накидать ещё контекста: где этот экран используется, какие есть элементы управления и ожидаемое поведение.
AI быстро генерирует первый вариант чек-листа. Обычно это базовые проверки:
Результат далёк от идеального, но это и не нужно — главное, чтобы был старт. Первый черновик даёт опору.
Вот тут начинается самое интересное. Я перечитываю то, что сгенерировал AI, и вижу, что он:
Я пишу ему фидбек:
И так — по пунктам. Иногда прямо расписываю, чего я жду. После нескольких итераций AI подстраивается и выдаёт то, что уже можно использовать в работе.
Когда сам по себе чек-лист более-менее ок, я прошу AI привести его к нужному формату. Например:
Чтобы AI понял, как надо, я просто загружаю в чат шаблон или PDF с требованиями, и говорю: «делай так». К сожалению, поделиться нашими требованиями я не могу, но уверена, у вас есть собственные для каждого проекта.
Если что-то идёт не так — даю примеры. Прямо пишу:
«Ты сделал: 1. Проверить отображение списка А нужно: UI-LST-001 |Экран Настроек | Элемент “Список” отображается корректно | High | Positive»
Следующий этап — добавляем метаинформацию. AI не всегда сам понимает, какие атрибуты нужны. У нас, например, в каждой проверке должны быть:
Я либо пишу руками, что не хватает, либо показываю: «Вот ты сделал X, а должно быть Y». Часто использую фразу:
«Ты делаешь хорошо, но мне нужно, чтобы ты делал, как на картинке»
Показываю скрин. DeepSeek на это реагирует нормально.
В итоге получаю уже почти финальный чек-лист, который по смыслу и форме соответствует нашим стандартам.
Шаг 5. Экспорт в нужный формат Когда всё устраивает, экспортирую результат в формат, который можно закинуть в систему управления тестами.
Самый удобный — CSV. AI сам генерирует таблицу, где:
Можно, конечно, и в Markdown или JSON — зависит от того, куда дальше идёт документация.
Первый раз у меня ушло где-то 40 минут — от скрина до готового чек-листа. Но теперь, когда AI обучен и диалог сохранён, всё делается в 3–5 раз быстрее.
Важно не закрывать сессию, где вы уже провели итерации — потом можно использовать её как рабочую среду. AI помнит ваш стиль, структуру и требования.
AI редко даёт идеальный результат с первого раза. Каждый шаг — это цикл: прочитать, поправить, уточнить, сверить с ожиданиями. Без этого не обойтись.
Слепо доверять AI не стоит. Он полезный, но сыроватый инструмент. Чтобы поймать косяки, нужно понимать, как выглядит хороший результат. Поэтому AI — для тех, кто уже умеет писать документацию руками.
Шаблоны лучше подгонять под задачу. Один шаблон можно использовать на похожих экранах — но обязательно проверять. Новый проект? Придётся докрутить под его особенности. Всё равно быстрее, чем с нуля.
Юридические риски — тоже важно учитывать. Если работаете под NDA, не сливайте реальные данные в AI-инструменты. Это может считаться разглашением. Лучше перестраховаться и обезличить чувствительную информацию.
Если написание документации для вас тот еще квест — попробуйте. Да, потребуется немного повозиться с настройкой, но потом это превращается в реально удобный рабочий инструмент.
Если уже используете AI в тестировании — делитесь своими приёмами в комментариях. Чем больше практик, тем быстрее индустрия выйдет из состояния «я всё сам руками» в нормальный, взрослый автоматизированный подход.