Большое дело делается вместеБольшое дело делается вместеЦиан, М.Видео, Авиасейлс и еще 1,5 млн клиентов выбирают Т‑БизнесЦиан, М.Видео, Авиасейлс и еще 1,5 млн клиентов выбирают Т‑БизнесУзнать больше

Идеи для бизнесаБизнес с нуляМаркетплейсыБухгалтерияЛайфстайлСправочникШаблоны документов
Идеи для бизнесаБизнес с нуляМаркетплейсыБухгалтерияЛайфстайлСправочникШаблоны документов

Летом 2025 года Агентство по кибербезопасности и защите инфраструктуры США (CISA) столкнулось с проверками Министерства внутренней безопасности. Поводом стала работа исполняющего обязанности директора CISA Мадху Готтумуккала, который, как оказалось, загружал служебные документы в ChatGPT. Они не относились к секретным материалам, но содержали чувствительную информацию «только для служебного пользования».

Это не единичный случай. Еще в 2023 году Samsung запретил команде использовать ИИ‑инструменты после того, как инженер компании поделился с ChatGPT частью исходного кода. А, согласно недавнему опросу Cybernews, только в США 44% специалистов отправляют нейросетям информацию о клиентах, финансовую отчетность и другие внутренние документы. В России ситуация похожа: недавнее исследование показало, что в 2025 году пользователи загрузили в сервисы вроде ChatGPT и Google Gemini в 30 раз больше конфиденциальных данных, чем годом ранее.

Основные риски

Казалось бы, в чем проблема? Дело в том, что ChatGPT постоянно учится и использует для этого как открытые источники, так и ответы пользователей. Проще говоря, он может запомнить программный код, название нового продукта, уникальную бизнес‑логику, о которых ему рассказали, а потом непреднамеренно раскрыть эти сведения в ответах другим людям. Это может привести к потере конкурентного преимущества, финансовым убыткам, репутационным рискам и пр.

ИИ‑сервисы также не застрахованы от взломов: по данным IBM, 13% организаций уже сталкивались с кибератаками на модели и приложения, которые приводили к компрометации данных и сбоям в работе. К слову, повлиять на поведение нейросетей удавалось и без специальных навыков: в январе этого года модель Google Gemini поделилась с исследователи из израильской компании по разработке ПО Miggo Security конфиденциальными сведениями из календаря другого пользователя. Для этого им потребовались приглашение на встречу и один промпт.

Вдобавок, разработчики востребованных ИИ‑сервисов, включая ChatGPT, — зарубежные компании, которые хранят диалоги пользователей на собственных серверах. Это усложняет контроль за сохранностью данных для компаний. Вендоры пытаются решить проблему. Так, OpenAI в ноябре разрешила бизнес‑клиентам выбирать, в какой стране будет храниться их информация. Но подобных инициатив пока мало, и они недоступны для ряда стран, включая Россию.

Т-Бизнес Комьюнити: полезные знакомства, мероприятия и чаты для предпринимателей

Сообщество предпринимателей: 40 000 участников

Т‑Бизнес Комьюнити: полезные знакомства, мероприятия и чаты для предпринимателей
Подписаться

Полная блокировка

Очевидное решение — запретить доступ к ИИ‑сервисам с рабочих устройств (и даже с личных, с которых сотрудники чаще всего заходят в нейронки). Для этого отделы IT и информационной безопасности (ИБ) подключают все компьютеры и телефоны к внутренней сети компании — так, что интернет на них работает только через корпоративные роутер и сервер. Далее устанавливаются межсетевые экраны (фаерволы) и контент‑фильтры (прокси), которые блокируют те или иные ресурсы. Человек может ввести ChatGPT в браузере, но, если этот сайт находится в «черном списке», он не загрузится.

Можно также интегрировать инструменты для мониторинга запросов к нейросетям и соединить ИИ‑сервисы с корпоративными DLP‑решениями (Data Loss/Leakage Prevention, предотвращают утечки данных). В таком случае компании, а точнее специалисты по ИБ, смогут отслеживать, какие данные пользователи хотят отправить в нейронку и блокировать подобные действия.

Правда, построить подобную систему могут далеко не все — требуются продвинутые ИБ- и IT‑команды и развитая IT- инфраструктура. А это стоит несколько десятков миллионов рублей. К тому же полное ограничение доступа к ИИ — утопия. Технология ускоряет и упрощает работу сотрудников и, следовательно, повышает общую эффективность компании. По подсчетам McKinsey, программисты, которые используют ИИ‑сервис GitHub Copilot, справляются с задачами вполовину быстрее, чем их коллеги.

А одна организация с 5000 сотрудниками службы поддержки клиентов увеличила количество решаемых проблем в час на 14% и сократила время обработки запросов на 9%, следует из исследования McKinsey. Поэтому даже там, где формально ограничивают использование нейронок, сотрудникам часто идут навстречу. Чаще всего это происходит на уровне топ‑менеджмента. Кейс Готтумуккала это наглядно демонстрирует: он пользовался сервисом как раз в рамках «временного исключения из общих правил».

Сбалансированный подход

Многие компании осознают, что популярность ИИ будет только нарастать и любые ограничения — борьба с ветряными мельницами. Поэтому постепенно смещают фокус с полной блокировки к созданию условий для безопасного использования нейронок. Сделать это несложно: для этого проводят инвентаризацию активов — фиксируют, какую информацию организация собирает и какие сведения особенно важно защитить — скажем, персональные данные клиентов, финансовую отчетность, модели ценообразования, исходный код и т.д.

Далее описывают сценарии применения ИИ: указывают, какие специалисты какие данные и для чего используют. Может оказаться, что чаще всего сотрудники с помощью ИИ готовят отчеты или маркетинговую аналитику. И часть этих задач можно решать без передачи чувствительной информации ботам, например, через обезличивание. Для этого можно заранее писать скрипты, которые меняют Андрея Игоревича Петрова на Ивана Ивановича Иванова, либо натренировать нейронку так, чтобы она делала это сама.

Затем формируется политика использования ИИ. В документе указывают, какие сервисы разрешены в компании, кто может получать к ним доступ и в каком режиме (будет ли у сотрудников корпоративный аккаунт? Могут ли они заходить в сервисы с личных почт?), а также какие данные можно передавать ИИ. Например, можно запретить отправку персональных данных клиентов, но разрешить разработчикам делиться с Cursor фрагментами кода без паролей и ключей API. Подобные практики позволят минимизировать ущерб утечек для бизнеса, которые сегодня обходятся в среднем в $4,5 млн. И рынок сможет заняться снижением вероятности инцидентов.

Комментарии проходят модерацию по правилам редакции


Больше по теме
Как не отдать деньги фиктивным благотворителям: чек‑лист для бизнеса от фандрайзера

Рассказываю, как бизнесу отличить надёжные НКО от фиктивных, какие «красные флаги» стоит проверить перед партнёрством и почему благотворительность перестала быть актом жалости, превратившись в инвестицию в репутацию, лояльность сотрудников и устойчивое развитие компании