Узнайте сумму кредита в Т‑БизнесеУзнайте сумму кредита в Т‑БизнесеОт 2 минут онлайнОт 2 минут онлайнПодробнее

РассылкиИдеи для бизнесаБизнес с нуляМаркетплейсыБухгалтерияЛайфстайлСправочникШаблоны документов
РассылкиИдеи для бизнесаБизнес с нуляМаркетплейсыБухгалтерияЛайфстайлСправочникШаблоны документов

Представьте: вы готовитесь к сложному судебному процессу. Ваш помощник — молодой, невероятно эрудированный стажер. Он с феноменальной скоростью перелопачивает горы документов, находит нужные нормы, ссылается на прецеденты. Но есть одна проблема: иногда он уверенно цитирует законы, которые никто никогда не принимал, и судебные решения, которые не выносились.

Если в США уже есть громкие случаи привлечения адвокатов к ответственности за липовые дела, сгенерированные ChatGPT, то в России первый подобный скандал — вопрос времени.

Я адвокат с двадцатилетним стажем, последние несколько лет занимаюсь LegalTech и проектирую инструменты для юристов. Поэтому проблему галлюцинаций нейросетей вижу изнутри — и как практик, и как разработчик.

Цифра, которая обнадеживает и пугает одновременно: больше 40% российских юридических фирм уже так или иначе используют нейросетевые модели. Однако подходы к этому внедрению кардинально разнятся. Одни компании выстраивают прозрачную архитектуру контроля, позволяющую проверять каждый результат, другие же используют нейросети без должных механизмов верификации, что существенно повышает профессиональные риски.

Почему LLM «сочиняют»? Простое объяснение сложного механизма

Существует распространенное заблуждение, что нейросеть можно сравнить с гигантской энциклопедией. На практике это не совсем так. Большая языковая модель (LLM) представляет собой вероятностную систему, которая обучается на огромных массивах текстов из открытых источников: форумов, социальных сетей, книг, новостных лент. В результате она не столько знает законы, сколько улавливает статистические закономерности — какие слова с наибольшей вероятностью встречаются рядом друг с другом в похожих контекстах.

Когда пользователь задает нейросети правовой вопрос, она не обращается к базам данных вроде систем Госдумы или КонсультантПлюс. Вместо этого модель на основе статистики подбирает наиболее вероятную последовательность слов. Для нее не имеет значения, существует ли в реальности статья 123.456 Гражданского кодекса, — важен сам факт, что сочетание «согласно статье» с последующими цифрами выглядит лингвистически правдоподобно.

Налоговый адвокат Людмила Ганичева однажды сказала фразу, которая точнее всего описывает ситуацию:

Нейросеть — это гиперэрудированный, но иногда бредящий стажер

Доверить такому финальный ответ без проверки — чистое безумие.

Т-Бизнес секреты: новости, анонсы событий, советы предпринимателей

Телеграм‑канал: 68 412 читателей

Т‑Бизнес секреты: новости, анонсы событий, советы предпринимателей
Подписаться

Почему бизнес боится внедрять ИИ в право? Три главных страха

Размышляя о том, почему бизнес с такой осторожностью подходит к внедрению искусственного интеллекта в юридическую сферу, можно выделить несколько ключевых опасений, которые возникают у руководителей и собственников.

Первое и, пожалуй, самое весомое — это вопрос ответственности. В конечном счете она всегда остается на юристе или на компании в целом. Если модель допускает ошибку, платить за последствия придется человеку. Пожалуй, самый показательный пример был в США, когда адвокатов штрафовали за использование сфабрикованных ChatGPT судебных дел.

Второй страх связан с сохранностью данных. Передавая клиентские договоры и другие конфиденциальные документы в публичные сервисы вроде ChatGPT, компания практически гарантированно нарушает адвокатскую тайну и требования 152‑ФЗ. Такие данные уходят на серверы третьих стран, и контроль над ними фактически теряется.

Наконец, существует и третий, часто недооцененный фактор — непрозрачность самой технологии. Многие руководители предпочитают просто запретить использование ИИ, потому что не чувствуют себя уверенно в этой теме. Но запрет приводит к обратному эффекту: сотрудники начинают применять нейросети втихую, без каких‑либо правил и контроля. Такой «партизанский» подход создает риски, которые оказываются даже выше, чем при легальном и регламентированном внедрении.

RAG, эмбеддинги и другие термины, которые спасают репутацию

Главный технологический прием, позволяющий обуздать фантазию языковых моделей, скрывается за аббревиатурой RAG (Retrieval‑Augmented Generation). Название кажется заумным, однако принцип элегантен и прозрачен.

Вместо того чтобы полагаться на «память» LLM, которая нередко становится источником выдумок, системе открывают доступ к верифицированному массиву данных — только актуальные законы, реальные судебные решения и авторитетные комментарии. Модель находит в этом массиве релевантные фрагменты и строит свой ответ исключительно на их основе.

Технически это выглядит так: вся информация из базы предварительно преобразуется в эмбеддинги — особые числовые векторы, кодирующие суть каждого отрывка.

Определение

Она ищет там нужные фрагменты и только потом, опираясь на них, формулирует ответ.

Как это выглядит технически? Все тексты из базы превращаются в эмбеддинги — специальные цифровые векторы, которые отражают смысл фрагмента.

Определение

Принцип работы поиска ответа строится на преобразовании пользовательского запроса в вектор — так система находит фрагменты информации, максимально соответствующие смыслу вопроса. Чем меньше расстояние между координатами в многомерном пространстве, тем выше точность ответа.

Ключевое достоинство RAG‑подхода — прозрачность, ведь любой вывод можно проследить вплоть до исходного документа, на который он опирается.

Аватар дайджеста

Бесплатная рассылка: как использовать ИИ в бизнесе

Узнайте, как писать эффективные промпты, создавать ИИ‑агентов для решения бизнес‑задач, и проходите мини‑практикумы в популярных сервисах. Всего — семь писем, которые помогут разобраться, как работать с нейросетями

Аватар дайджеста

Три эшелона защиты: как выстроить надежную систему

Безопасное применение ИИ на практике предполагает многоуровневую архитектуру. Именно такой принцип заложен, например, в платформе Камертон.Вердикт, специально адаптированной для работы с юридически значимой информацией. Рассмотрим как это работает.

Строгие фильтры. Автоматически отсекаются ответы с рискованными паттернами — скажем, ссылками на несуществующие нормативные акты или излишне категоричными формулировками там, где необходима осторожность. Такая фильтрация исключает около половины типичных ошибок.

Человек в контуре критических решений. Рутинные запросы обрабатываются ИИ автономно. Однако как только диалог касается изменений в договоре, крупных сумм или чувствительных данных, в процесс вступает живой юрист. Подобная гибридная схема сокращает объем рутинной работы на десятки процентов, при этом сложные вопросы остаются под полным контролем эксперта.

Доверенный ИИ с опорой на первоисточники. Модель функционирует исключительно в рамках закрытой базы знаний и не может генерировать ответ, не подкрепленный конкретным источником. Каждый результат сопровождается метаданными: версией модели, датой, прямой ссылкой на документ. Благодаря этому в случае неоднозначности всегда понятно, какой именно фрагмент базы лёг в основу заключения. Такой подход называется Evidence‑First — приоритет доказательности, и именно он реализован в Камертон.Вердикт.

Определение

Вся система выстроена так, что любой вывод снабжен ссылкой на исходный материал, что позволяет юристу мгновенно верифицировать факты и принимать обоснованные решения.

Конфиденциальность: почему нельзя загружать договоры в публичные ChatGPT

Это отдельная и очень болезненная тема. Загружать клиентские иски и контракты в публичные сервисы — значит выкладывать их в открытый доступ. Нарушение адвокатской тайны и 152‑ФЗ гарантировано.

Что делать? Гибридная архитектура:

  1. Все, что касается чувствительных данных, должно обрабатываться на локальных моделях внутри контура компании. Это могут быть достаточно компактные open‑source LLM, дообученные на юридических текстах.
  2. Для менее чувствительных задач можно использовать облачные модели, но с обязательной предварительной анонимизацией данных (удаление имен, названий компаний, сумм и других идентификаторов).

Как легализовать ИИ в компании и не потерять контроль

Самый опасный сценарий, когда руководство запрещает, а сотрудники все равно используют. «Партизанский» ИИ без правил и методологии создает колоссальные риски.

Оптимальный подход — обеспечить полную открытость и четкие рамки при работе с искусственным интеллектом:

  1. Встроить ассистента в существующие процессы. Не создавать отдельный чат, а интегрировать ИИ в систему согласования договоров или таск‑трекер, где юристы работают каждый день.
  2. Оформлять выводы в привычной для пользователя форме. Например, в виде пометок к тексту либо сформированного по шаблону отчёта, а не в формате простой генерации нейросети.
  3. Обязательно фиксировать каждый шаг в логах. Логирование — не бюрократия, это система раннего оповещения и доказательная база на случай конфликта. Когда каждый запрос фиксируется с привязкой к конкретному юристу, версии документа и фрагментам базы знаний, вы получаете полную картину: какие риски система подсвечивает чаще, где ошибается, какие промпты приводят к наилучшим результатам. В спорной ситуации с клиентом или регуляторами такой лог становится железным аргументом.
  4. Использовать «золотой список» ошибок. Соберите десяток самых болезненных ситуаций за последний год: где контрагент пытался навязать кабальные условия, где суды расходились в толковании норм, где ваши же юристы чуть не пропустили критический риск. Превратите эти кейсы в тестовые задания и регулярно прогоняйте через ИИ‑систему, сравнивая ее ответы с эталонными заключениями экспертов. Это позволяет не только держать модель в тонусе, но и подсветить слепые зоны в собственных шаблонах.

Принципы безопасной работы с ИИ

Любой результат, полученный с помощью ИИ, должен опираться на первоисточник, который можно открыть и проверить. Если нет ссылки на конкретную норму или судебный акт — нет и оснований доверять ответу.

При этом универсальные модели удобны для общих вопросов, но в юридической практике надежнее решения, заточенные под работу с закрытыми отраслевыми базами и архитектурой RAG: они дают предсказуемо более высокую точность.

Не менее важно помнить, что загрузка клиентских данных в публичные сервисы — это не просто риск утечки, это прямое нарушение законодательства и профессиональной этики, поэтому чувствительная информация должна оставаться в контуре компании.

И наконец, нейросети являются инструментом ускорения, но не заменой экспертизы; финальное слово, особенно в нестандартных ситуациях, при пробелах в праве или коллизиях должно оставаться за юристом.

Главный вывод

То, что раньше воспринималось как забавная особенность работы нейросетей, сегодня стало серьезным вызовом. В мировой практике уже есть случаи, когда подобные сбои оборачивались судебными разбирательствами и наносили ущерб деловой репутации. Но это вовсе не значит, что от искусственного интеллекта стоит отказаться. Продуманная архитектура — с использованием RAG, локальных моделей и встроенного человеческого контроля — позволяет превратить большие языковые модели из источника рисков в по‑настоящему надёжного и эффективного помощника.

Спасибо, что дочитали до конца! А какие инструменты на базе ИИ используете в своей практике вы?

Комментарии проходят модерацию по правилам редакции


Больше по теме
Новости

Подпишитесь на рассылки

Собираем самые полезные материалы, интересные мероприятия и важные новости в коротких письмах. Вы можете подписаться на одну из рассылок или на все сразу.

62K подписчиков

Дважды в неделю

Как вести бизнес в России

Важные новости, бизнес‑кейсы, разборы законов и практические советы для предпринимателей

15K подписчиков

Раз в неделю

Как зарабатывать на маркетплейсах

Новости торговых площадок, инструкции для селлеров и лайфхаки успешных продавцов

20K подписчиков

Раз в две недели

Мероприятия для бизнеса

Анонсы вебинаров, конференций и других событий для предпринимателей

3K подписчиков

Раз в две недели

Рассылка для бухгалтеров

Новости и советы, которые помогут упростить работу и больше зарабатывать