Новости Сослался на фейковое дело — получил уголовку. Адвокатов больше не прощают за баловство с ChatGPT

NewsMaker

I'm just a script
Премиум
19,427
40
8 Ноя 2022
Да, оправдание «ИИ меня подставил» не сработает...


2gcr3z6qdd81m2ot1nqrt83dud0tzmp1.jpg


<article> В Лондоне вынесено прецедентное решение: юристы, ссылающиеся на несуществующие судебные дела, могут быть привлечены к ответственности за неуважение к суду, а в крайних случаях — даже по уголовной статье. Такое постановление вынес Лондонский суд, рассмотрев два дела, в которых адвокаты использовали генеративный искусственный интеллект для подготовки процессуальных документов.

Как выяснилось, в обоих случаях в письменных аргументах фигурировали ссылки на якобы существующие прецеденты, которых на самом деле не было. Судья Для просмотра ссылки Войди или Зарегистрируйся указала, что подобные действия представляют угрозу для всей системы правосудия и подрывают общественное доверие к суду. Она подчеркнула, что технологические новшества не освобождают юристов от профессиональной ответственности.

Особое внимание в постановлении уделено роли юридического сообщества. По мнению судьи, юристы, занимающие руководящие должности, обязаны внедрять эффективные меры контроля за использованием ИИ в своей практике. Для просмотра ссылки Войди или Зарегистрируйся должны быть не формальностью, а частью повседневной работы. Речь идёт не только об ответственности конкретных исполнителей, но и о коллективной дисциплине.

Суд напомнил: намеренное предоставление ложной информации, особенно если она влияет на ход дела, может быть квалифицировано как попытка вмешательства в отправление правосудия — уголовное преступление по нормам общего права. Даже если адвокат действует без злого умысла, простая небрежность в обращении с ИИ-данными уже нарушает профессиональный долг — не вводить суд в заблуждение.

Хотя регуляторы уже публиковали рекомендации по использованию нейросетей в юридической практике, судья Шарп считает, что этого недостаточно. Публичные инструкции, по её мнению, не заменяют системного контроля. Необходимы реальные инструменты обучения и санкционирования, чтобы избежать повторения подобных инцидентов.

С момента, когда ChatGPT и другие нейросети получили массовое распространение, суды по всему миру сталкиваются с новой проблемой: автоматическая генерация убедительных, но ложных аргументов. Поскольку модели ИИ обучаются на огромных массивах текстов и формируют ответы на основе статистической вероятности, они могут Для просмотра ссылки Войди или Зарегистрируйся — то есть создавать несуществующие факты с полной уверенностью в их правдоподобности.

Так называемые «галлюцинации» нейросетей уже стали причиной нескольких скандальных разбирательств. Самый известный случай произошёл в США: два нью-йоркских адвоката были Для просмотра ссылки Войди или Зарегистрируйся каждый после того, как представили суду шесть фиктивных судебных решений. Все ссылки были сгенерированы ChatGPT, а сами юристы не проверили их достоверность.

Разбирательство проходило в рамках дела о причинении вреда здоровью. Судья обратил внимание на странные формулировки в представленных документах и затребовал подтверждение. После дополнительной проверки выяснилось, что приведённые прецеденты никогда не существовали. При этом их структура и стиль были настолько Для просмотра ссылки Войди или Зарегистрируйся , что ошибки не заподозрил ни один из участников процесса.

В отсутствие универсального механизма проверки ссылок юристы по-прежнему сами несут ответственность за достоверность используемой информации. Искусственный интеллект не обладает способностью к верификации — он лишь воспроизводит структуру ранее встречавшихся текстов. Это делает его потенциально опасным в тех сферах, где точность имеет критическое значение.

Теперь же у судей есть основания требовать от адвокатов строгой верификации всех источников, вне зависимости от того, вручную ли они составляют документ или используют нейросеть.

Значимость постановления также заключается в его предостерегающем характере. Оно задаёт рамки допустимого для всей правовой системы и даёт понять: новая технология не отменяет старых обязанностей. Любой, кто работает в суде, должен помнить — автоматизация не освобождает от ответственности.

Таким образом, ИИ в юридической сфере становится не просто инструментом, а фактором риска. Если раньше ошибки адвокатов были делом человеческой невнимательности, теперь к ним добавляется необходимость Для просмотра ссылки Войди или Зарегистрируйся . И пока такие алгоритмы не научатся проверять факты, вся тяжесть последствий будет ложиться на плечи людей.

</article>
 
Источник новости
www.securitylab.ru

Похожие темы