Когда ИИ врет - платит юрист: сколько стоит не проверить фейковое дело?

Когда ИИ врет - платит юрист: сколько стоит не проверить фейковое дело?

С начала 2023 года в 12 странах было официально зарегистрировано как минимум 129 дел, в которых юристы использовали поддельные ссылки на несуществующие прецеденты или цитаты - все они были сгенерированы инструментами искусственного интеллекта.

Эта статистика охватывает лишь случаи, по которым вынесены дисциплинарные меры или решения суда. В реальности, как признают аналитики, это лишь верхушка айсберга.

Большинство выявленных нарушений произошло в США, но они также зафиксированы в Великобритании, Южной Африке, Израиле, Австралии и Испании. Показательно изменение профиля виновных: если в 2023 году 70% фальсификаций происходили по вине pro se-участников (самозащита), то уже в 2025 году профессиональные юристы виновны в 13 из 23 инцидентов.

Санкции вполне реальные

За два с половиной года суды назначили не менее 5 штрафов свыше $10 000, четыре из которых - в 2025 году. Самым показательным стал случай, где представители известных юридических компаний были оштрафованы на $31 000 за ссылки на поддельные дела, сгенерированные ИИ, из-за отсутствия двойной проверки.

В другом деле суд штата Юта установил, что юридический клерк использовал ChatGPT для составления иска. В документе содержалось несколько "галлюцинаций" ИИ, включая дело Royer vs Nelson, которого не существует. После расследования сотрудник был уволен, а компания внедрила новую ИИ-политику, а суд объявил, что такие "ошибки" - это уже системная угроза правосудию.

Судьи научились выявлять ИИ-галлюцинации. И у них, похоже, нулевая терпимость.

Только за последние полгода дисциплинарные дела начали массово вноситься в базы данных. Самый частый "подозреваемый" - ChatGPT, который в своих ответах может уверенно ссылаться на то, чего никогда не существовало.

Риски? Репутация, деньги, лицензия

Юристы часто не понимают, где заканчиваются возможности ИИ и начинаются профессиональные обязанности.

ИИ - это как автомобиль, позволяет тебе быстрее и комфортнее добраться от точки А до точки Б, но если ты будешь управлять им закрытыми глазами, сам знаешь что случится.

К слову, в России уже тоже появляются прецеденты использования ИИ в судебной практике, но об этом в следующей статье.

Что же делать, чтобы не попасть в просак?

В предыдущих материалах я уже отмечали: чтобы не попасть в такую ситуацию, используйте узкопрофильных ИИ-юристов.

Необходима формализация: внутрифирменные политики, аудит ИИ-результатов, стандарты проверки, санкции за нарушения.

Массовое появление ИИ-генерированного контента в судебных делах - не эксцесс, а новая реальность юридической практики. Пока система лишь учится реагировать, ответственность за профессиональную точность всё чаще ложится на юристов. Без верификации, специализированной экспертизы и стандартов - доверие к праву под угрозой.

А вы бы проверили - или отправили иск сразу? Где проходит грань между автоматизацией и халатностью?

Опубликовано: 4 июня 2025 г.