[
19
.
06
.
2025
]

Как защитить корпоративные данные от утечек через GPT и LLM

Napoleon IT
Разработчик AI-решений для бизнеса
LLM
Искусственный интеллект
Машинное обучение
link
С появлением GPT и других LLM сотрудники начали работать быстрее, автоматизируя рутинные задачи. Но задумывались ли вы, что вместе с ростом продуктивности растут и риски? Незаметно для себя сотрудники могут передавать корпоративную информацию компании в открытые ИИ-сервисы.

По оценкам Gartner, почти 30% компаний уже столкнулись с инцидентами безопасности при использовании ИИ. И чаще всего виноваты не хакеры, а собственные сотрудники — люди, которые каждый день копируют в публичные LLM служебные документы, коды, базы данных. Неосознанно. Массированно. И без вашего контроля.

Gartner прогнозирует: к 2027 году более 40% всех утечек данных через ИИ будут вызваны неправильным использованием генеративного ИИ (GenAI), особенно при трансграничной передаче данных через публичные модели.

Сценарии утечки данных через неосторожное взаимодействие сотрудников с LLM

Ниже приведем типичные частые утечек через открытые LLM, которые могут привести к серьезным финансовым и репутационным потерям:

  • Разработчик вставляет в ChatGPT фрагменты исходного кода для помощи в отладке — вместе с ним туда уходит логика продукта и коммерческая тайна.
  • Финансист для автоматизации отчетности загружает в LLM списки клиентов с ФИО, ИНН, реквизитами и суммами оплат.
  • Копирайтер отправляет внутренние презентации и отчеты под NDA для создания пресс-релизов и маркетинговых текстов.
  • Менеджер по продажам анализирует клиентскую базу через ChatGPT, передавая данные о покупках, среднем чеке, привычках потребителей.
  • Юрист просит LLM упростить юридический договор и вставляет в промпт полные тексты соглашений с закрытыми условиями.
  • HR-специалист запрашивает помощь в составлении кадрового отчета, вставляя туда персональные данные сотрудников
  • Специалист службы поддержки вводит данные клиентов для автоматизации ответов вводит персональные данные клиентов и детали заказов.

Каждый описанный сценарий — это утечка. LLM обучаются на этих данных. Эта информация может попасть в ответы другим пользователям, в обучающие датасеты будущих моделей или даже просто утечь через уязвимости.

Громкие случаи утечки данных 

Инциденты утечки данных происходят даже в крупнейших компаниях с развитой системой информационной безопасности. Например, в 2023 году инженеры Samsung передали в ChatGPT конфиденциальную информацию: исходный код программ для производства полупроводников, секретные алгоритмы поиска дефектов чипов и стенограмму закрытого совещания. Технологический гигант Amazon также обнаружил, что кто-то из персонала вставлял внутренний код в запросы к ChatGPT, фактически делясь секретами с внешней моделью.

Почему публичные LLM — это всегда риск

Когда сотрудник вставляет в ChatGPT фрагмент информации, он передает ее:

  • В облако, находящееся за пределами вашей юрисдикции.
  • На серверы, которые могут находиться в США, Европе или других странах.
  • В базу данных, доступ к которой имеет вендор и иногда — третьи лица через уязвимости.

Важно понимать: публичные LLM работают как SaaS-сервисы, где пользователи мало что знают о внутренней политике хранения и использования данных. Даже если LLM обещают не использовать данные для обучения — нет гарантии, что ваши данные не останутся на их серверах.

Запретить LLM или контролировать?

Некоторые компании просто запрещают использование LLM. Но опыт показывает: запрет — не решение. Сотрудники всё равно ищут пути обхода — работают с личных устройств, используют VPN, применяют неизвестные компании чат-боты. Самое действенное решение — это предоставить безопасную альтернативу в виде LLM в контуре компании.

Преимущества LLM-решений в закрытом контуре очевидны:

  • Полноценный ИИ-инструмент для сотрудников: Возможность предоставить каждому сотруднику доступ к корпоративному ИИ-помощнику, работающему с внутренними данными, в зависимости от его роли и задач.
  • Работа с масштабными корпоративными данными: выбор и обработка по-настоящему больших массивов информации: документы, базы знаний, переписки, инструкции, отчеты — с возможностью гибкой настройки прав доступа к различным коллекциям данных.
  • Полная конфиденциальность: данные не выходят за пределы инфраструктуры компании.
  • Контроль над доступами: можно настроить политики безопасности, права и ограничения.
  • Поддержка регуляторных требований: соответствие ФЗ-152, GDPR, HIPAA и другим стандартам.
  • Настройка под задачи бизнеса: модели можно дообучать на внутренних данных без риска утечки.

Готовое решение - Napoleon IT OnPremAI

ИИ — уже не опция, а конкурентное преимущество. Но использовать его нужно осознанно. Либо вы управляете данными своих сотрудников — либо они передают их на чужие серверы.

Napoleon IT OnPremAI — платформа для быстрого развертывания и управления большими языковыми моделями (LLM) и мультимодальными базами знаний RAG в корпоративном контуре вашей компании. 

Решение обеспечивает безопасную интеграцию передовых моделей искусственного интеллекта в бизнес-процессы, гарантируя полную конфиденциальность ваших данных. А также объединяет в себе все плюсы и силы больших языковых моделей, обеспечивая безопасную интеграцию LLM в бизнес-процессы, при этом полностью исключая выход корпоративных данных вовне.

Свяжитесь с нами для детального обсуждения вашего проекта.

[
предыдущая
]
LLM в ритейле и e-commerce: области применения и преимущества использования
[
следующая
]
RAG или fine-tuning: как выбрать правильный метод для настройки LLM
Мы используем cookies. Продолжая просматривать сайт, вы соглашаетесь с этим. Узнать больше
OK
обсудить проект
обсудить проект