По оценкам Gartner, почти 30% компаний уже столкнулись с инцидентами безопасности при использовании ИИ. И чаще всего виноваты не хакеры, а собственные сотрудники — люди, которые каждый день копируют в публичные LLM служебные документы, коды, базы данных. Неосознанно. Массированно. И без вашего контроля.
Gartner прогнозирует: к 2027 году более 40% всех утечек данных через ИИ будут вызваны неправильным использованием генеративного ИИ (GenAI), особенно при трансграничной передаче данных через публичные модели.
Сценарии утечки данных через неосторожное взаимодействие сотрудников с LLM
Ниже приведем типичные частые утечек через открытые LLM, которые могут привести к серьезным финансовым и репутационным потерям:
- Разработчик вставляет в ChatGPT фрагменты исходного кода для помощи в отладке — вместе с ним туда уходит логика продукта и коммерческая тайна.
- Финансист для автоматизации отчетности загружает в LLM списки клиентов с ФИО, ИНН, реквизитами и суммами оплат.
- Копирайтер отправляет внутренние презентации и отчеты под NDA для создания пресс-релизов и маркетинговых текстов.
- Менеджер по продажам анализирует клиентскую базу через ChatGPT, передавая данные о покупках, среднем чеке, привычках потребителей.
- Юрист просит LLM упростить юридический договор и вставляет в промпт полные тексты соглашений с закрытыми условиями.
- HR-специалист запрашивает помощь в составлении кадрового отчета, вставляя туда персональные данные сотрудников
- Специалист службы поддержки вводит данные клиентов для автоматизации ответов вводит персональные данные клиентов и детали заказов.
Каждый описанный сценарий — это утечка. LLM обучаются на этих данных. Эта информация может попасть в ответы другим пользователям, в обучающие датасеты будущих моделей или даже просто утечь через уязвимости.
Громкие случаи утечки данных
Инциденты утечки данных происходят даже в крупнейших компаниях с развитой системой информационной безопасности. Например, в 2023 году инженеры Samsung передали в ChatGPT конфиденциальную информацию: исходный код программ для производства полупроводников, секретные алгоритмы поиска дефектов чипов и стенограмму закрытого совещания. Технологический гигант Amazon также обнаружил, что кто-то из персонала вставлял внутренний код в запросы к ChatGPT, фактически делясь секретами с внешней моделью.
Почему публичные LLM — это всегда риск
Когда сотрудник вставляет в ChatGPT фрагмент информации, он передает ее:
- В облако, находящееся за пределами вашей юрисдикции.
- На серверы, которые могут находиться в США, Европе или других странах.
- В базу данных, доступ к которой имеет вендор и иногда — третьи лица через уязвимости.
Важно понимать: публичные LLM работают как SaaS-сервисы, где пользователи мало что знают о внутренней политике хранения и использования данных. Даже если LLM обещают не использовать данные для обучения — нет гарантии, что ваши данные не останутся на их серверах.
Запретить LLM или контролировать?
Некоторые компании просто запрещают использование LLM. Но опыт показывает: запрет — не решение. Сотрудники всё равно ищут пути обхода — работают с личных устройств, используют VPN, применяют неизвестные компании чат-боты. Самое действенное решение — это предоставить безопасную альтернативу в виде LLM в контуре компании.
Преимущества LLM-решений в закрытом контуре очевидны:
- Полноценный ИИ-инструмент для сотрудников: Возможность предоставить каждому сотруднику доступ к корпоративному ИИ-помощнику, работающему с внутренними данными, в зависимости от его роли и задач.
- Работа с масштабными корпоративными данными: выбор и обработка по-настоящему больших массивов информации: документы, базы знаний, переписки, инструкции, отчеты — с возможностью гибкой настройки прав доступа к различным коллекциям данных.
- Полная конфиденциальность: данные не выходят за пределы инфраструктуры компании.
- Контроль над доступами: можно настроить политики безопасности, права и ограничения.
- Поддержка регуляторных требований: соответствие ФЗ-152, GDPR, HIPAA и другим стандартам.
- Настройка под задачи бизнеса: модели можно дообучать на внутренних данных без риска утечки.
Готовое решение - Napoleon IT OnPremAI
ИИ — уже не опция, а конкурентное преимущество. Но использовать его нужно осознанно. Либо вы управляете данными своих сотрудников — либо они передают их на чужие серверы.
Napoleon IT OnPremAI — платформа для быстрого развертывания и управления большими языковыми моделями (LLM) и мультимодальными базами знаний RAG в корпоративном контуре вашей компании.
Решение обеспечивает безопасную интеграцию передовых моделей искусственного интеллекта в бизнес-процессы, гарантируя полную конфиденциальность ваших данных. А также объединяет в себе все плюсы и силы больших языковых моделей, обеспечивая безопасную интеграцию LLM в бизнес-процессы, при этом полностью исключая выход корпоративных данных вовне.
Свяжитесь с нами для детального обсуждения вашего проекта.