Ваша компания использует генеративный AI в продуктах, проектах и бизнес-процессах? Смело рассказывайте о своем опыте на страницах проекта Generation AI! Правила отбора
Как автоматизация блога снизила стоимость контента в 10 раз
Zerocoder — крупнейший в России онлайн-университет технологичных профессий в сфере дополнительного образования. Проект появился в 2021 году как community-base инициатива в Telegram для увлеченных no-code разработкой. Монетизация изначально не планировалась, но сообщество быстро росло, к фаундерам стали регулярно обращаться за консультациями. Так родилась идея запустить полноценное онлайн-обучение для активных и увлеченных зерокодингом (или no-code) – разработкой без написания кода.
Контекст и вызов
Сначала материалы о no-code публиковали в Telegram: короткие советы и примеры использования инструментов. Но формат сообщений не позволял глубоко разбирать технические нюансы и кейсы, поэтому команда запустила блог «Я — Зерокодер». Сначала он был площадкой для переводных статей, а позже стал рабочим SEO-каналом, который приводит аудиторию на вебинары и курсы.
Главным ограничением роста оказалось масштабирование контента. Один автор мог подготовить лишь 6 лонгридов в месяц. Чтобы выйти хотя бы на 30 публикаций — по статье в день, — нужно было нанять 6–7 фрилансеров. При средней стоимости в 5000 ₽ за технический материал бюджет на тексты, менеджеров и поддержку сайта составлял уже сотни тысяч рублей в месяц. К этому добавлялись сложности с поиском авторов, их обучением и контролем качества. В итоге процесс оказался дорогим, нестабильным и сильно зависел от ручной работы.
Решение: нейрокопирайтер вместо человека
С начала 2023 года стало ясно: масштабировать блог можно не через расширение штата авторов, а с помощью нейросетей. Команда решила выстроить новый процесс: использовать связку AI и нейрокопирайтера — человека, который отвечает за генерацию текстов, их фактчекинг и доработку под задачи компании.
Этот подход позволил превратить блог из корпоративного инструмента в полноценное медиа о зерокодинге, разработке и применении AI. Если раньше удавалось выпускать до 10 лонгридов в месяц (плюс SEO-материалы), то с новым процессом количество публикаций выросло до 300 статей. Один нейрокопирайтер в связке с нейросетями фактически заменил работу 10 авторов: материалы стали выходить быстрее, при этом сохраняли глубину, были релевантны продуктам компании и подогревали интерес к технологиям и кейсам применения.
Пайплайн: от GPT-4 до Deep Research
1. Настройка нейрокопирайтера
Появление GPT-4 дало первый импульс к появлению нейрокопирайтера. Если версии 3.5 были скорее proof of concept, то GPT-4 впервые показал: при правильной постановке задачи модель может писать тексты, сравнимые по качеству с человеческими.
На старте команда совместно с SEO-специалистами создала подробный промпт-документ: в него вошли структура статьи, желаемый стиль, ключевые требования к логике и плотности, стоп-листы для клише и шаблонов.
На основе этих шаблонов нейрокопирайтер строил структуру будущего материала, после чего создавал по частям. Генерация сразу одним запросом на всю статью давала размытые тексты с потерей логики, а вот поэтапная работа — генерация 2–3 абзацев за раз с передачей контекста — дала устойчивый результат.
Пример промпта для работы над сложными техническими лонгридами и исследованиями:
Перепиши/напиши эту статью по этому промпту, сохранив основной смысл статьи. Бриф-гайд для создания читаемых IT-статей, которые хочется дочитать — и сохранить: «Пиши так, чтобы разработчик, спеша на митап, успел ухватить суть, а вечером вернулся за подробностями».
Дополнительно укажи:
1. Кто ты и для кого пишете 2. Каркас статьи 3. Внутренний ритм разделов 4. Языковые контрольные точки 5. Тон и стиль 6. Визуальные и навигационные ориентиры 7. SEO-минимум 8. Проведи финальную самопроверку 9. Формат ответа: Название, текст
2. Операционная модель
Получилась «полуавтоматизированная» схема: SEO-специалисты присылают пул тем и ключевых слов. А нейрокопирайтер формирует структуру, генерирует текст, делает верстку, иллюстрации, проверяет уникальность.
Стоимость одной такой GenAI-публикации — около 500 ₽ вместо 5000 ₽, как было раньше. Один человек с помощником способен выпускать до 300 статей в месяц.
Такой процесс оказался гораздо эффективнее ручной редакции. Не нужно управлять фрилансерами, контролировать дедлайны и переживать за выгорание авторов. Соответственно, снижается и текучка кадров.
При классическом подходе для координации авторов и развития блога пришлось бы нанимать главного редактора — еще одна весомая статья расходов. В случае с кейсом Zerocoder весь процесс строится на валидации качества через аналитику и цифры.
3. Валидация через поведенческие метрики
Чтобы контент оставался качественным даже после внедрения AI-пайплайна, команда изменила подход к аналитике: отказалась от субъективной оценки живого редактора и ввела математический фильтр.
Статьи, у которых высокий процент отказов, короткое время на странице или низкая конверсия, либо удаляют, либо переписывают.
Это позволяет не только поддерживать общий уровень блога, но и быстро реагировать на неудачные темы — особенно те, что приносят трафик, но не читаются.
Полностью ручные материалы обычно набирали около 2000 просмотров. Публикации в новом формате выходят на планку 2500+ и нередко доходят до 5000 просмотров. Конечно, не все статьи одинаково «залетают», но в среднем динамика оказалась заметно лучше.
4. Новый этап: полная автоматизация с Deep Research
Почти год назад появился инструмент Deep Research от ChatGPT. Он умеет глубже «копать» тему, искать дополнительные источники и делать связные, насыщенные статьи без участия человека. В команде вновь решили ввести изменения.
Теперь процесс выглядит так:
— SEO-специалист добавляет темы и ключи в Google-таблицу — Сервис автоматически формирует промпты — Вызывает Deep Research по API — Получает готовый текст, делает внутреннюю перелинковку по базе из 3500+ статей — Проверяет уникальность и публикует
Это еще не финальная версия — генерация все еще дорогая (500–700 ₽ за статью), но команда уже тестирует альтернативные модели, чтобы снизить издержки: например, GPT-5 с long context.
Переход на Deep Research важен еще и потому, что пользователи научились распознавать «плоские» AI-тексты. Качество стало ключевым фактором ранжирования — не по авторам, а по поведенческим показателям. Поэтому важна не просто генерация, а глубина проработки. Именно ее и закрывает новый инструмент.
Как Zerocoder сравнивает AI-контент с текстами живых авторов
После перехода на генеративный контент команда хотела убедиться, что статьи действительно читают и что они не хуже, чем написанные вручную. Поэтому анализ стали производить в несколько этапов:
1.Сравнение поведенческих метрик
Команда смотрела на объективные цифры: время на странице, процент отказов, глубину переходов.
AI-статьи, созданные по чёткой структуре и промптам, показывали метрики на уровне или выше, чем материалы фрилансеров. Разница в среднем — 1–2 процентных пункта.
2. Проверка «визуального» качества
Чтобы избежать банов и понижений в поиске, статьи дополнительно прогоняли через AI-детекторы (например, модель от Яндекса), проверяли на уникальность и чистоту текста.
Оказалось, что с промптами от Zerocoder тексты GPT набирают 70–80% «естественности» — то есть близки к результату живого автора.
3. Тест Тьюринга на вебинарах
На внутренних вебинарах участникам показывали 4 статьи: две написаны людьми, две сгенерированы GPT. Задача — угадать, где AI, а где человек.
Результаты: в большинстве случаев аудитория ошибалась или делилась почти поровну. Даже те, кто угадывал, не могли сформулировать уверенные критерии. Это подтвердило, что при правильной настройке тексты GPT читаются наравне с тем, которые писали люди.
Вывод: при правильной архитектуре процесса AI-публикации дают такое же качество, но в 10 раз дешевле и быстрее.
В 2025 году нейросети пишут не хуже среднего копирайтера — особенно если выстроить нормальный пайплайн. Странно продолжать делать это вручную, когда можно автоматизировать весь процесс.
Кирилл Пшинник
Cооснователь Zerocoder
Инструменты
ChatGPT-4 с кастомными промптами
Deep Research по API
Google Таблицы — для управления ТЗ
API-интеграции с Главредом, Text.ru, генеративными детекторами
Индекс из 3500+ статей — для автоматической перелинковки
Результаты
Показатель
До
После
Стоимость статьи
5000 ₽
500 ₽
Объем публикаций в месяц
30
300
Кол-во исполнителей
6–7 копирайтеров + редактор
1 человек + ассистент
Поисковый трафик
10–20 тысяч
100 тысяч
Выводы и планы
Автоматизация контента — рабочая стратегия при правильной настройке. Команда Zerocoder уже тестирует полную генерацию через Deep Research API, чтобы полностью убрать человека из процесса. План — выйти на 200–300 статей в день и достичь миллиона визитов в месяц.
Главный вызов — стоимость Deep Research и долгий цикл обратной связи: чтобы оценить статью, нужно накопить 500–2000 просмотров, что может занять месяцы. Сейчас в Zerocoder ведут работу по снижению затрат и получению быстрой обратной связи.
Хотите решить похожую задачу? Мы расскажем, с чего начать!