Аудиторская корпорация из «большой четверки» вернула правительству страны деньги, потому что ее отчет оказался с глюками от нейронки
Аудиторская компания Deloitte выплатит ущерб правительству Австралии из-за отчета, составленного с помощью технологий искусственного интеллекта, в котором нашли ссылки на несуществующих людей и выдуманные цитаты. Изначально контракт был заключен в 2025 г. на $290 тыс., фирма должна вернуть окончательную оплату австралийскому правительству.
Некачественная работа
Крупная аудиторская Deloitte заплатит Австралии из-за сделанного с помощью технологий искусственного интеллекта (ИИ) отчета с различными ошибками и галлюцинациями от нейронной сети, пишет Australian Financial Review (AFR).
В 2025 г. представители международной аудиторской и консалтинговой корпорации Deloitte в Австралии вернут средства за отчет, созданный по заказу австралийского правительства для министерства труда и социальной защиты. Отчет стоил $290 тыс. и касался фреймворка, который правительство использует для автоматизации штрафных санкций в электронной ИТ-системе социального обеспечения.
Deloitte — это международная сеть фирм, предоставляющих аудиторские, консультационные, налоговые и юридические услуги, и одна из крупнейших компаний в большой четверке аудиторов. Deloitte, PwC, EY и KPMG — четыре крупнейшие в мире сети профессиональных услуг. Deloitte в 2025 г. работает с государственными и частными клиентами из различных отраслей, проверяя финансовую отчетность компаний и давая независимое заключение о ее достоверности.
Выдуманная цитата из ключевого дела о незаконных автоматических возвратах уже выплаченных пособий — Deanna Amato v Commonwealth. GPT-4o написал имя судьи с ошибкой т.е. cудья Дави (Davis) вместо Дженнифер Дэвис (Jennifer Davies) и сочинил цитату якобы из параграфов 25 и 26 решения: «Бремя доказывания лежит на лице, принимающем решение. Законные права человека не могут быть урезаны на основе предположения, не подкрепленного доказательствами». По мнению экспертов AFR, очень вероятно, что сотрудники Deloitte попросили GPT придумать обоснование, что ИИ-система и сделала для них.
Галлюцинации ИИ — это ошибки, при которых ИИ выдает вымышленную, недостоверную или просто абсурдную информацию так, как будто она является правдой. Причина в том, что ИИ не совсем знает информацию в привычном смысле, так как ее знают люди — он скорее предсказывает наиболее вероятное продолжение текста, опираясь на массив данных. Если в данных стоит ошибка 2х2=5, то модель может указать 2х2+1=5, особенно если в начальных требованиях стоит обосновать получаемые результаты.
Много ошибок
После публикации отчета представитель Сиднейского университета Крис Радж (Chris Raj) заметил ссылки на множество несуществующих документов и исследований. В их числе оказались и выдуманные цитаты из работ реальной ученой — профессора Лизы Кроуфорд (Lisa Crawford), — которая выразила сильное недовольство случившимся.
Отчет Deloitte скорректировали, отметив, что в него внесли незначительные правки по источникам и ссылкам. Кроме того, на 53 странице из 273 страничного документа возникло упоминание о генеративной ИИ-модели Azure OpenAI GPT-4o, которая входила в рабочий процесс и содействовала обработке данных и якобы ее использовали для устранения пробелов в прослеживаемости и документации. В итоге из 141 источника сохранилось 127 — исчезли отсылки к вымышленным исследованиям и цитаты из них и ряд других галлюцинаций от нейронной сети.
Дело успешно завершено
В Deloitte сообщили, что намерены вернуть средства, но в каком объеме, не уточняется. Крис Радж отметил, что, принимая во внимание произошедшее, такому отчету вряд ли можно доверять даже с учетом внесенных корректировок в октябре 2025 г. «Деньги берут за стоимость, которая складывается из затрат на производство, труд людей, а также за счет спроса и предложения. Руководители же Deloitte даже не наняли редактора или специалиста в этой области, за что тогда взяли $290 тыс. не понятно», — удивляться Радж.
Сенатор-лейборист Дебора О'Нил (Deborah O'Neill), участвовавшая в расследовании консалтинговых фирм, заявила: «У Deloitte проблемы с человеческим интеллектом. Это было бы смешно, если бы не было так печально. Частичный возврат выглядит как частичное извинение за работу ниже стандарта. Возможно, вместо большой консалтинговой фирмы покупателям лучше оформить подписку на ChatGPT».
Представители министерства труда и социальной защиты Австралии настаивают, что суть независимого обзора сохранена, изменений в рекомендациях в октябре 2025 г. почти нет. Сотрудники департамента отказались отвечать на вопросы AFR о том, считают ли они ошибки следствием использования ИИ-технологий. Представитель сообщил Business Insider, что Deloitte подтвердила, что некоторые сноски и ссылки были неверными в обзоре, и согласилась выплатить окончательную оплату по контракту.
Примеры хакеров с использованием галлюцинаций
Как информировал своих читателей CNews, исследователи Vulcan Cyber в 2023 г. рассказали о новой технике распространения вредоносных пакетов, которую они назвали галлюцинацией ИИ-пакетов. Эта техника связана с тем, что ChatGPT и другие генеративные ИТ-платформы иногда отвечают на запросы пользователей галлюцинациями в виде источников, ссылок, блогов и статистики.

Большие языковые модели, такие как ChatGPT, могут генерировать такие галлюцинации — URL, ссылки и даже целые библиотеки кода и функции, которых на самом деле не существует. По словам исследователей, нейронные сети даже генерирует сомнительные исправления для сommon vulnerabilities and exposures (CVE) и может предлагать ссылки на несуществующие библиотеки кода.
Директор по исследованиям в области информационной безопасности (ИБ) Tanium Мелисса Бишопинг (Melissa Bischoping) предупреждала о том, что компаниям никогда не следует загружать и исполнять код, который они не понимают и не проверяли — например, репозитории GitHub с открытым исходным кодом.