ChatGPT обманул опытнейшего адвоката, придумав прецеденты, которых в реальности не было. Теперь адвокату грозит наказание
Адвокат из США применял ChatGPT при подготовке судебного иска. Чат-бот оказался плохим помощником с «богатой фантазией». Юриста с тридцатилетним стажем, который, по собственному признанию, не знал, что разработка OpenAI склонна сообщать недостоверную информацию, вероятно, ждет наказание.Плохой помощник юриста
Американский юрист Стивен Шварц (Steven Schwartz) использовал популярного диалогового чат-бота ChatGPT для подготовки документов по иску к компании Avianca, пишет New York Times. Попытка упростить свой труд с помощью алгоритмов искусственного интеллекта обернулась для адвоката катастрофой – разработка OpenAI снабжала его недостоверной информацией, о чем опытный юрист даже не догадывался. Теперь ему грозит наказание.
Сотрудник юридической фирмы Levidow, Levidow & Oberman Шварц , посвятивший последние 30 лет своей жизни адвокатской практике в Нью-Йорке, представлял интересы Роберто Маты (Roberto Mata) в судебном процессе против колумбийской авиакомпании Avianca.
Мата, по его собственному заявлению, в ходе полета получил травму по вине сотрудника компании-перевозчика в 2019 г. – бортпроводник ударил его в колено металлической тележкой, которая используется для обслуживания пассажиров в полете. Это побудило мужчину обратиться в суд с иском к Avianca при поддержке Levidow, Levidow & Oberman.
Дело, которого нет
Юристы Avianca решили в корне задушить разбирательство и попросили федерального судью Кевина Кастеля (Kevin Castel) отказать в рассмотрении дела на основании истечения срока исковой давности. Однако адвокаты пострадавшего пассажира сослались на прецедент – привели в пример сразу несколько похожих дел, рассмотрение которых в прошлом завершилось в пользу истца.
В частности, в переданных Шварцем в суд документах значились такие дела как «Мартинес против Delta Air Lines», «Зикерман против Korean Air Lines» и «Варгезе против China Southern Airlines». Как выяснилось впоследствии, автор документов решил не тратить свое время на поиски по базам юридической информации вроде LexisNexis или Westlaw, а прибегнул к помощи диалогового чат-бота ChatGPT компании OpenAI. Тщательно перепроверять полученные от бота данные опытнейший юрист Шварц не стал, а сразу же внес ее в документы, которые затем были переданы в суд.
Неладное участники разбирательства заподозрили, когда ни представители ответчика, ни сам судья не сумели отыскать тексты решений по упомянутым в документах делам.
Беспрецедентная ситуация
Судья потребовал от Шварца объяснений, которые тот и представил в письменной форме. Из него следовало, что причина, по которой суд не преуспел в поиске дел, упомянутых адвокатом в документах, представители истца, оказалось предельно простой – в действительности они никогда не существовали, и ChatGPT их просто «выдумал», пытаясь поддержать позицию истца.
Адвокат выразил сожаление по поводу своего решения положиться на ИИ-сервис. Он заявил, что никогда до этого случая не использовал ChatGPT и поэтому был не в курсе того, что текст, генерируемый ботом, может содержать ложные сведения.
По словам Шварца, он пытался проверить подлинность выданных ботом данных – причем с помощью все того же бота: адвокат поинтересовался у ChatGPT, являются ли дела, на которые тот ссылается, реально существующими. Ответ диалогового бота был максимально емким и кратким: «Да».
Судья Кастель охарактеризовал ситуацию в которой юридические документы изобилуют «ложными судебными постановлениями, ссылками и цитатами» как беспрецедентную.
Суд назначил дисциплинарные слушание на 8 июня 2023 г., в ходе которого будут обсуждаться потенциальные санкции в отношении Шварца и его коллеги по юридической фирме Питера Лодуки (Peter LoDuca).
Что такое ChatGPT
ChatGPT – чат-бот с искусственным интеллектом на базе языковой модели GPT. Он работает с ноября 2022 г. и принадлежит американской компании OpenAI, в которую инвестирует корпорация Microsoft.
На текущем этапе развития ChatGPT умеет подавать информацию в простой и понятной форме, формулировать лаконичные ответы на заданные пользователем вопросы, касающиеся самого широкого круга тем.
В декабре 2022 г. CNews писал о том, что в Google не на шутку испугались ChatGPT, посчитав, что тот в перспективе мог бы лишить компанию значительной доли рекламной выручки.
Позднее выяснилось, что бот готов помочь написать дипломную работу, которая удовлетворит аттестационную комиссию российского вуза и вообще обрел немалую популярность среди студентов учебных заведений по всему миру.
Кроме того, нейросеть способна обнаруживать программные уязвимости, предлагать варианты их устранения и даже самостоятельно писать код, хоть и далеко не безупречно. Применение ChatGPT нашли и злоумышленники, использующие инструмент для создания вредоносного ПО и реализации фишинговых схем.