Узнайте сумму кредита в Т‑БизнесеУзнайте сумму кредита в Т‑БизнесеОт 2 минут онлайнОт 2 минут онлайнПодробнее

РассылкиИдеи для бизнесаБизнес с нуляМаркетплейсыБухгалтерияЛайфстайлСправочникШаблоны документов
РассылкиИдеи для бизнесаБизнес с нуляМаркетплейсыБухгалтерияЛайфстайлСправочникШаблоны документов

Сотрудники массово загружают данные организаций в нейросети, в результате чего в открытый доступ попадает конфиденциальная информация, коммерческая тайна, финансовые документы, схемы работы компании. Многие осознают риски, но игнорируют их — важнее быстрее выполнить рабочие задачи, достичь KPI, чем задумываться о возможных последствиях.

Рассказываю, насколько это опасно и как предотвратить утечку данных компании.

Масштаб проблемы

Сегодня нейросети — это обычный рабочий инструмент: сотрудники используют ИИ так же естественно, как поиск в интернете или Excel.

Например:

  • юрист загружает в нейросеть фрагмент договора с именами сторон и суммами;
  • менеджер по продажам просит ИИ проанализировать клиентскую базу;
  • HR‑специалист отправляет резюме кандидатов с персональными данными;
  • финансовый аналитик копирует внутренний отчет в чат, чтобы получить выводы.

Это обычные рабочие действия сотрудников, которые пытаются быстрее выполнить задачи. Но проблема в том, что такие, казалось бы, безобидные запросы отправляются в публичные облачные сервисы — например, ChatGPT или Claude.

Так компания массово передает все свои данные внешним сервисам. Договоры, клиентские базы, финансовые отчеты, стратегии, технические решения попадают в обучающие выборки нейросети, а значит могут оказаться в руках любого, кто пользуется этой же моделью. Более того, может произойти передача персональных данных и трансграничная передача данных.

Также люди делятся своими чатами по ссылке, и эта ссылка может попасть в чужие руки. Аккаунт может быть взломан, так как многие не делают двухфакторную авторизации в ИИ, не воспринимая серьезно то, что там может храниться описание всего бизнеса компании.

Компании узнают о проблеме слишком поздно — когда информация оказывается в открытом доступе. К этому моменту ущерб уже нанесен, а точно определить, какие данные и в каком объеме покинули компанию, становится практически невозможно.

Масштаб проблемы уже заметен. Так, согласно исследованию ИБ‑компании «Солар», в 2025 году объем конфиденциальной информации из российских компаний, попавшей в публичные нейросети, вырос в 30 раз по сравнению с 2024 годом. При этом 46% всех таких утечек проходит через ChatGPT.

Аватар дайджеста

Бесплатная рассылка: как использовать ИИ в бизнесе

Узнайте, как писать эффективные промпты, создавать ИИ‑агентов для решения бизнес‑задач, и проходите мини‑практикумы в популярных сервисах. Всего — семь писем, которые помогут разобраться, как работать с нейросетями

Аватар дайджеста

Последствия для бизнеса

Когда уникальная информация выходит за пределы корпоративной инфраструктуры, компания теряет контроль над ней. Последствия могут проявиться в нескольких плоскостях: юридической, финансовой, репутационной и организационной.

Юридические риски. Если компания работает с конфиденциальной информацией и персональными данными, их утечка через нейросети означает нарушение закона №152‑ФЗ «О персональных данных» или закона №98‑ФЗ «О коммерческой тайне». Это грозит миллионными штрафами и приостановкой деятельности компании.

Более того, если будут раскрыты данные или подробности сделок с партнерами, можно получить претензии и иски с их стороны.

Финансовые риски. Информация, которая стала частью знаний нейросети, может попасть к конкурентам. Так они получат возможность узнать структуру ваших цен, маржу, условия сотрудничества с ключевыми клиентами. В таблице собраны типичные сценарии.

Тип данныхЧто может утечьВозможные последствия
ДоговорСуммы контрактов, условия скидокКонкурент предлагает клиенту более выгодные условия
Клиентская базаКонтакты, история работыКонкурент переманивает клиентов
Стратегия развитияПланы развитияКомпания теряет конкурентные преимущества

Репутационные риски. Еще одно болезненное последствие утечек данных — репутация компании. Даже один громкий инцидент может нанести серьезный удар по доверию клиентов и партнеров. Одна новость в духе «Компания N слила данные клиентов через нейросеть» — и все предыдущие заслуги компании будут забыты.

Вспомним хотя бы скандал летом 2025 года, когда в интернет утекли миллионы личных чатов пользователей ChatGPT. Или более свежий случай: в феврале 2026 года стало известно, что использование китайским чиновником ChatGPT раскрыло глобальную операцию по запугиванию.

Организационные риски. Возникают конфликты внутри компании. С одной стороны — сотрудники, которым нейросети помогают выполнить работу быстрее. С другой — служба информационной безопасности, чья задача — защищать корпоративные данные и предотвращать утечки. Если компания вводит жесткие запреты на использование ИИ, сотрудники начинают искать обходные пути: например, запускают нейросети на мобильном телефоне или на личном ПК. В результате появляется проблема теневого ИИ — сотрудники продолжают пользоваться нейросетями, но компания полностью теряет контроль над процессом.

Гораздо разумнее принять факт: сотрудники будут пользоваться нейросетями, полностью запретить это не получится, да и не нужно. Поэтому главный вопрос для бизнеса — как сделать использование ИИ безопасным для компании.

Т-Бизнес секреты: новости, анонсы событий, советы предпринимателей

Телеграм‑канал: 68 412 читателей

Т‑Бизнес секреты: новости, анонсы событий, советы предпринимателей
Подписаться

Как пользоваться ИИ безопасно: 4 варианта решения проблемы

На практике компании пробуют несколько разных подходов к безопасному использованию ИИ:

  • корпоративные версии популярных сервисов;
  • DLP‑системы с контролем передачи данных;
  • развертывание собственной локальной LLM;
  • инструменты анонимизации и маскирования данных.

Рассмотрим плюсы и ограничения каждого варианта.

Корпоративные версии популярных сервисов. Многие вендоры предлагают специальные тарифы для бизнеса, например существует версия ChatGPT Enterprise. Такие решения предлагают дополнительные функции безопасности: корпоративное управление пользователями, отдельная инфраструктура, более строгие правила обработки данных.

Однако это решение не снимает проблему полностью. Во‑первых, данные все равно покидают периметр организации и отправляются во внешнюю облачную инфраструктуру. Во‑вторых, стоимость корпоративных тарифов может быть значительной, особенно если ИИ активно используют сотни сотрудников. В результате многие компании внедряют такие решения лишь частично, например для отдельных команд.

DLP‑системы с контролем передачи данных. DLP‑система — это программное обеспечение, которое выявляет попытки передачи чувствительной информации и пресекает их. В теории это выглядит надежно: система должна распознать передачу данных в сторонние сервисы, например персональные данные или номера договоров и предотвратить отправку таких данных наружу.

Но на практике возникают сложности:

  1. DLP работает по принципу «запретить»: любая подозрительная операция блокируется. Но это не соответствует реальным потребностям бизнеса.
  2. Система может давать ложные срабатывания. Это мешает обычной работе сотрудников и вызывает раздражение.
  3. DLP‑систему можно обойти с помощью шифрования или использования нестандартных каналов, например если работать вне корпоративной сети.

Развертывание локальной LLM. Некоторые компании разворачивают собственную языковую модель внутри корпоративной инфраструктуры. Кажется, что так данные не будут покидать инфраструктуру компании, но даже тут возможна утечка информации между сотрудниками организации. Также вариант с локальной LLM доступен лишь крупным корпорациям.

Причины довольно простые:

  1. Высокая стоимость инфраструктуры: для работы современных моделей требуется мощный кластер GPU‑серверов, инвестиции в который начинаются от десятков миллионов рублей. Далее оборудование нужно регулярно обновлять и обслуживать, поэтому затраты будут только расти.
  2. Дефицит специалистов: для настройки и поддержки модели нужны ML‑инженеры высокого уровня, это очень редкие и очень дорогие специалисты.
  3. Сложность поддержки: публичные нейросети постоянно обновляются и обучаются на огромных массивах данных. Локальные модели без регулярного дообучения быстро уступают им по качеству. Поэтому многие компании, даже внедрив локальную модель, продолжают использовать публичные сервисы — просто потому, что они удобнее и точнее.

Инструменты анонимизации и маскирования данных. Это принципиально иной подход: вместо того чтобы запрещать использование ИИ, решение автоматически маскирует конфиденциальные данные в запросах сотрудников. Нейросеть получает обезличенный текст и может дать полезный ответ. При этом реальные данные не покидают устройство пользователя.

Пример того, как работает такая система, — в таблице.

Исходный текст сотрудникаЧто попадает в нейросеть
«Подготовь письмо клиенту Иванову Петру Ивановичу по договору №542 на сумму 4 млн рублей»«Подготовь письмо клиенту [ФИО] по договору [номер] на сумму [сумма]»
«Проанализируй отчет компании Альфа за 2025 год»«Проанализируй отчет компании [название] за [год]»

Такой подход реализуют специальные инструменты — например, браузерное расширение MOLL Y/X.

Принцип работы выглядит так:

  1. Сотрудник вводит запрос в нейросеть.
  2. Система анализирует текст запроса и приложенные файлы на устройстве пользователя.
  3. Система заменяет персональные данные на псевдонимы, маскирует коммерческую тайну, обезличивает финансовые показатели.
  4. В нейросеть отправляется обезличенный запрос.
  5. После получения ответа система восстанавливает исходные данные.

В результате сотрудники продолжают пользоваться привычными инструментами — например, ChatGPT или Claude, но уникальные данные остаются внутри компании.

Ближайшие годы станут переломными для регулирования ИИ в России

Использование нейросетей пока практически не регулируется на уровне законодательства: компании ориентируются на общие нормы информационного права. Но ситуация быстро меняется. Чем активнее бизнес внедряет нейросети, тем больше внимания к этой сфере со стороны государства. Поэтому, на мой взгляд, ближайшие один—два года станут переломными для регулирования ИИ в России.

Основные изменения будут связаны с появлением стандартов безопасности для систем ИИ, прежде всего для объектов критической информационной инфраструктуры, где сбой или утечка данных может привести к серьезным последствиям.

Параллельно можно ожидать появления первых судебных прецедентов, связанных с утечками данных через нейросети. Скорее всего, такие дела будут рассматриваться в рамках законодательства о персональных данных, где ответственность компаний уже четко определена.

Для бизнеса это означает простую вещь: использование ИИ становится зоной регулируемой ответственности. Для ряда отраслей наличие механизмов для безопасной работы с ИИ может стать условием прохождения проверок или получения лицензий. Когда‑то похожая история произошла с антивирусами. Сначала их использовали единицы, потом — большинство компаний, а со временем они стали обязательной частью корпоративной инфраструктуры.

Компании, которые научатся использовать ИИ безопасно и при этом не терять скорость работы, будут впереди конкурентов. Те, кто будет просто запрещать ИИ, рискуют столкнуться с обходом правил сотрудниками, утечкой данных и потерей конкурентных преимуществ.

Комментарии проходят модерацию по правилам редакции


Больше по теме
Новости

Подпишитесь на рассылки

Собираем самые полезные материалы, интересные мероприятия и важные новости в коротких письмах. Вы можете подписаться на одну из рассылок или на все сразу.

62K подписчиков

Дважды в неделю

Как вести бизнес в России

Важные новости, бизнес‑кейсы, разборы законов и практические советы для предпринимателей

15K подписчиков

Раз в неделю

Как зарабатывать на маркетплейсах

Новости торговых площадок, инструкции для селлеров и лайфхаки успешных продавцов

20K подписчиков

Раз в две недели

Мероприятия для бизнеса

Анонсы вебинаров, конференций и других событий для предпринимателей

3K подписчиков

Раз в две недели

Рассылка для бухгалтеров

Новости и советы, которые помогут упростить работу и больше зарабатывать