Разделы

Бизнес Законодательство Цифровизация ИТ в госсекторе Электроника

Под следствие попал судья, приговоры которому писал ChatGPT

В Бразилии началось расследование по делу судьи, принявшего решение на основании выдуманной искусственным интеллектом судебной практики. ChatGPT дает такие развернутые рекомендации и так уверенно, что ему верят опытные судьи и адвокаты.

Судья под следствием

В Бразилии Национальный Совет Юстиции (CNJ) начал расследование по делу федеральный судьи, который использовал искусственный интеллект и принял решения на основании ложной судебной практики, пишет бразильский новостной портал G1.

Судья Джефферсон Феррейра Родригес (Jefferson Ferreira Rodrigues) сформулировал с помощью ChatGPT судебное постановление, содержащее ложную информацию, и прислал его в CNJ.

Решение о начале расследования принял национальный инспектор юстиции, министр Луис Фелипе Саломао (Luís Felipe Salomão). Он решил исследовать прецедент.

CNJ столкнулся с первым случаем использования ИИ при формулировании приговоров и оказался вынужден задуматься о регулировании использования таких технологий в судебной системе.

Хотел как лучше

Родригес опубликовал постановление, содержащее целые выдержки, сформулированные с помощью приложения искусственного интеллекта ChatGPT Использованные ИИ выдержки оказались ложными, в них приводились несуществующие и невероятные сведения.

ChatGPT обманул бразильского судью, дело которого теперь расследует Национальный Совет Юстиции

В частности, ChatGPT ссылался на резолюции Верховного суда, которых просто не существует. Эти резолюции он использовал в качестве основы для решения, вынесенного в постановлении.

ChatGPT подводит юстицию

ChatGPT – чат-бот с искусственным интеллектом на базе языковой модели GPT. Он работает с ноября 2022 г. и принадлежит американской компании OpenAI, в которую инвестирует корпорация Microsoft.

В мае 2023 г. CNews писал о еще одной его жертве в сфере юстиции. Американский юрист Стивен Шварц (Steven Schwartz) использовал ChatGPT для подготовки документов по иску. Это обернулась для адвоката катастрофой — разработка OpenAI снабжала его недостоверной информацией, о чем опытный юрист даже не догадывался. Тщательно перепроверять полученные от бота данные он не стал, а сразу же внес ее в документы, которые затем были переданы в суд.

Одной из главных причин, по которой пользователи доверяют ответам ChatGPT, является их развернутость, считают ученые Университета Пердью (штат Индиана, США), авторы специального исследования.

От санкций выиграли вендоры и проиграли интеграторы
CNews Analytics

Позитивный эмоциональный окрас генерируемого ботом текста и его вежливость — два других, не менее важных фактора, оказывающих влияние на выбор пользователя.

Наконец, та уверенность, с которой ChatGPT преподносит информацию, порой неверную, вызывает у пользователей доверие и в результате склоняет к выбору неправильного ответа.

Анна Любавина