Март 2026
Анастасия Хорунжина
Product Manager Jay Guard

AI и защита данных для бизнеса: как обезопасить чувствительную информацию

Защита данных для бизнеса в эпоху развития AI, когда модели постоянно обновляются — это большой челлендж для компаний. Сотрудники во всю используют ChatGPT, загружают туда контекст по задачам, не спрашивая работодателя. В модели от зарубежных провайдеров утекает огромное количество чувствительной информации, которая может стоить компании репутации, а то и многомиллионных штрафов.

А регуляторное давление тем временем растет. В марте 2026 года Минцифры опубликовало законопроект о регулировании искусственного интеллекта в России — первый документ, который закрепляет правила разработки и использования AI, включая ответственность за результаты генерации и требования к безопасности моделей. Если закон об AI примут, нормы вступят в силу с 1 сентября 2027 года. Но выстраивать защиту данных при работе с нейросетями стоит уже сейчас.

В статье разберем, какие данные утекают в LLM-модели чаще всего, почему стандартные инструменты защиты их не видят и как выстроить AI и защиту данных для бизнеса так, чтобы сотрудники могли работать с нейросетями, не создавая рисков. В конце — чек-лист по безопасности, с которого можно начать уже сейчас.

Проблема: не хакеры, а привычки сотрудников

По данным LayerX Enterprise AI Security Report, 18% сотрудников регулярно вставляют данные в генеративные AI-инструменты — и больше чем в половине таких случаев речь идет о корпоративной информации. При этом 71,6% этого трафика идет через личные аккаунты, вне корпоративного контроля.

Каждый раз, когда сотрудник открывает ChatGPT или любой другой AI-сервис, он фактически решает, какие данные останутся внутри компании, а какие уйдут на внешние серверы. Поэтому когда компания внедряет искусственный интеллект, конфиденциальность данных приходится продумывать с самого начала.

Что именно обычно утекает в нейросети:
    • Исходный код
    AI-ассистенты уже стали частью повседневной разработки. По данным GitHub, 97% разработчиков используют AI-инструменты при написании кода. При этом сотрудники нередко отправляют в такие сервисы фрагменты корпоративных репозиториев — например, чтобы объяснить код, найти ошибку или предложить рефакторинг. В результате в облачные LLM могут попадать части внутреннего кода компании, включая алгоритмы и архитектурные решения, которые фактически являются ее ноу-хау.
    • Коммерческая тайна
    Сюда входят условия договоров, финансовые отчеты, стратегические планы. Аналитик просит нейросеть обработать квартальный отчет до публикации; юрист загружает клиентский договор, чтобы сделать краткое резюме.
    • Персональные данные
    Это имена, зарплаты, контакты, медицинские данные. По данным Cyberhaven, чувствительные данные — самая частая категория утечек: 319 инцидентов на 100 тысяч сотрудников в неделю. Например, кто-то загружает таблицу кандидатов на вакансию, чтобы нейросеть помогла с оценкой.
Но риск не заканчивается в момент отправки чувствительной информации в нейросети. Данные, которые сотрудник вставил в промт, оседают на серверах LLM-провайдера — и дальше их судьба зависит уже не от политик компании, а от уровня безопасности самого сервиса. А он, как показывает практика, далеко не всегда достаточен. Например, в 2025 году исследователи Wiz обнаружили у DeepSeek открытую базу данных с логами, в которой хранилась история пользовательских чатов — в открытом доступе, без какой-либо аутентификации.

То есть исходный код, коммерческая тайна или персональные данные клиентов, однажды попавшие в переписку с нейросетью, могут оказаться доступны всем, кто умеет искать. Не через взлом, а просто потому что провайдер недостаточно защитил свою инфраструктуру.

IBM в отчете Cost of a Data Breach 2025 подсчитал: средняя глобальная стоимость утечки данных — $4,44 млн. Но если в инцидент вовлечен shadow AI (неконтролируемое использование AI-инструментов), стоимость вырастает в среднем на $670 000 — до $4,63 млн. Поэтому защита персональных данных в ИИ для бизнеса становится не вопросом комплаенса, а вопросом финансовой устойчивости: одна неконтролируемая привычка одного сотрудника может обойтись дороже, чем целый отдел информационной безопасности.

Почему система контроля утечек (DLP) не закрывает риски нейросетей

Традиционные DLP-системы проектировались для мира до нейросетей: они работают с email, файловыми хранилищами, USB-носителями. Они контролируют каналы передачи данных и могут анализировать содержимое трафика — например, проверять файлы и сообщения на наличие шаблонов конфиденциальных данных.

Но работают они по заранее заданным правилам и плохо распознают смысловую утечку информации. Защита данных при использовании ИИ для бизнеса требует другого инструментария — как минимум две категории угроз остаются за пределами видимости DLP:
  • Коммерческая тайна по смыслу
    При использовании LLM сотрудники часто отправляют в запросах фрагменты документов, кода или внутренних обсуждений. Даже если DLP видит сам запрос, она может не определить, что передаваемый текст содержит коммерческую тайну или ноу-хау компании.
  • Специфические атаки на нейросети
    Манипуляции с запросами, которые заставляют нейросеть выдать то, чего она выдавать не должна. Среди них: промпт-инъекции, jailbreak-инъекции, манипуляции с целью сбить с толку агента. OWASP в 2025 году поставил промпт-инъекции на первое место в топ-10 рисков для LLM-приложений, в целом, по меньшей мере четыре позиции списка связаны с утечками данных.

    Пример атаки с манипуляцией запросами: пользователь долго общался с чат-ботом интернет-магазина на базе AI, который должен был отвечать только на базовые вопросы клиентов. Постепенно он уводил разговор в сторону скидок — сначала бот предложил 25%, а затем «согласился» увеличить ее до 80%. После этого пользователь оформил заказ примерно на £8 000 (порядка 800 тысяч рублей) с обещанной скидкой, а компания оказалась в споре о том, обязана ли она выполнить предложение, сделанное ее же AI-ассистентом.

    Та же логика работает с внутренними данными: терпеливый сотрудник или внешний злоумышленник может методично вытащить из корпоративной нейросети то, к чему у него доступа быть не должно.

Как защитить данные при использовании нейросетей: три подхода

Защита данных в генеративном ИИ для бизнеса — это выбор между несколькими подходами. У каждого из них своя логика, стоимость и ограничения.

On-premise LLM или приватный ИИ для бизнеса — не панацея

Когда заходит речь об ИИ и защите данных для бизнеса, первое, что приходит в голову — развернуть LLM на собственных серверах, чтобы данные никуда не уходили. Это снимает проблему трансграничной передачи: все остается внутри периметра компании. Но у подхода есть существенные ограничения.
  • Для мощной модели нужны серьезные вычислительные ресурсы — GPU-кластеры, которые стоят дорого и требуют квалифицированного обслуживания.
  • On-premise не защищает от внутренних угроз. Если в компании работает LLM-решение с доступом к внутренним данным (HR-система с AI-помощником, корпоративный чат-бот с доступом к базе знаний), внутренний пользователь может выманить из него чувствительную информацию.
  • Если LLM-решение обслуживает внешних пользователей, оно уязвимо к целенаправленным атакам. On-premise защищает от трансграничной передачи, но без дополнительных слоев защиты остается уязвимым.

Полный запрет: путь к shadow AI

Запретить сотрудникам использовать AI-инструменты — тоже не решение. После запрета люди просто скачивают документы на личные устройства, где нет корпоративных средств защиты, и работают с AI оттуда. Это и есть shadow AI — неконтролируемое использование, которое несет максимальные риски.

По данным IBM, 63% организаций не имеют политик управления AI, а среди тех, у кого они есть, только 34% проводят регулярные аудиты на предмет неавторизованного использования. Shadow AI фигурировал в 20% всех утечек в 2025 году.

Отдельная история — защита данных при использовании ИИ в малом и среднем бизнесе. У СМБ часто нет ни выделенного ИБ-отдела, ни бюджета на полноценный on-premise. При этом сотрудники пользуются теми же инструментами — ChatGPT, Claude, Gemini — и так же вставляют в них договоры, клиентские базы и финансовые данные. Только последствия утечки для небольшой компании пропорционально тяжелее: $4+ млн средней стоимости инцидента могут просто убить бизнес.

AI-шлюз: анализ и защита запросов к нейросетям

Один из практических способов снизить риски утечки данных при работе с генеративными моделями — использовать защитный слой между сотрудниками и AI-сервисами. Такой слой работает как AI-шлюз: он проверяет промпты, выявляет чувствительные данные и применяет необходимые меры защиты до того, как данные попадут во внешнюю модель.

Один из базовых механизмов — маскирование. Чувствительные данные в промпте (имена, номера договоров, email-адреса и другие идентификаторы) автоматически заменяются на заглушки, и запрос уходит в LLM уже в обезличенном виде. Сотрудник получает ответ и продолжает работу, но персональные данные и конфиденциальная информация не покидают периметр компании.

Подобную архитектуру реализуют специализированные решения для безопасной работы с LLM. Например, Jay Guard — AI-security решение от Just AI. Оно выступает таким промежуточным слоем между корпоративными системами и нейросетями: анализирует запросы к LLM, выявляет чувствительные данные и применяет защитные политики. Решение поддерживает как облачные модели, так и локально развернутые нейросети и входит в реестр отечественного ПО.

Такая архитектура позволяет компаниям внедрять AI-инструменты в рабочие процессы, не создавая неконтролируемых каналов утечки данных.

Чек-лист: как защитить данные бизнеса

Если в компании до сих пор никто не занимался защитой данных при использовании AI — вот минимальный план действий.
  • 0. На всех этапах подключайте ИБ-команду.
    Некоторые компании намеренно не привлекают специалистов по безопасности к внедрению AI, опасаясь, что это затормозит процесс. На практике такой подход часто приводит к появлению дополнительных рисков. Участие ИБ пригодится и для аудита, и для политик, и для выбора решений, и для мониторинга.
  • 1. Проведите аудит: кто, что и куда отправляет из корпоративных данных в AI
    Если в компании уже используется DLP-система, ее можно применить для выявления обращений к внешним AI-сервисам и анализа передаваемых данных. Это поможет понять, какие инструменты используются, через какие каналы происходит взаимодействие, какие данные потенциально затронуты. Если DLP нет, стоит хотя бы настроить базовый мониторинг сетевого трафика.
  • 2. Классифицируйте данные
    Здесь нужно разобраться, что в компании относится к персональным данным, что — к коммерческой тайне и ноу-хау, а что — к публичной информации. Без классификации будет сложно настроить и политики маскирования, и правила блокировки.
  • 3. Выберите стратегию
    Прежде чем внедрять политики и инструменты, компании нужно определить: какие конкретно задачи она хочет автоматизировать через LLM? Какие данные будут затронуты? Исходя из этого — выбрать подход, описанный в статье выше.
  • 4. Внедрите политики использования AI для сотрудников
    Первый шаг — сформулировать и донести до команды правила работы с AI и корпоративными данными: что допустимо отправлять во внешние сервисы, а что нет. После этого ИБ-отдел может начать мониторить исходящий трафик — так будет проще выявлять случаи передачи чувствительных данных.
  • 5. Подключите инструменты контроля: от организационных мер до AI-шлюзов
    Исходя из выбранной стратегии, подберите и внедрите AI-шлюз для маскирования, блокировки и маршрутизации трафика.
  • 6. Мониторьте и адаптироуйтесь: ландшафт угроз меняется, политики нужно обновлять
    Выстраивание системы защиты — непрерывный процесс. Политики стоит регулярно пересматривать, средства защиты — тестировать на актуальных сценариях, а подходы — адаптировать к новым угрозам.

Вывод

Запретить сотрудникам пользоваться AI уже не получится — они и так активно используют нейросети в работе. Игнорировать это тоже рискованно: штрафы за утечку персональных данных достигают сотен миллионов рублей, а законопроект о регулировании искусственного интеллекта в России добавляет к ним административную и уголовную ответственность для операторов и владельцев AI-сервисов. Вопрос использования ИИ и защиты данных для бизнеса становится неразделимым.

Компании чаще выбирают другой подход — не запрещать AI, а внедрять контролируемую среду для работы с нейросетями, где все обращения к моделям проходят через слой безопасности. Такую роль выполняют AI-security решения. Например, Jay Guard от Just AI выступает промежуточным шлюзом между сотрудниками и языковой моделью: он анализирует запросы, выявляет чувствительную информацию и применяет защитные политики — маскирование данных или блокировку запроса. Это позволяет использовать нейросети в рабочих процессах, не создавая неконтролируемых каналов утечки данных.

Если законопроект примут, нормы вступят в силу 1 сентября 2027 года. При этом требования к защите данных действуют уже сейчас — например, в рамках 152-ФЗ. Поэтому выстраивать защиту данных при работе с нейросетями стоит уже сегодня.

Другие материалы