Создатель ChatGPT: Переписка с нейросетью может быть использована против вас в суде
Генеральный директор OpenAI заявил, что переписка пользователей с ChatGPT может быть использована в суде в случае расследования преступления. В июле 2025 г. отсутствуют юридические гарантии, которые бы защищали такие разговоры — в отличие от конфиденциальности, положенной при общении с юристами, врачами или психотерапевтами. Как отметил глава компании-разработчика чат-бота, если дело дойдет до судебного разбирательства, то представители OpenAI будут обязана передать переписку пользователей в качестве доказательств.
Конфиденциальность в ChatGPT
Генеральный директор OpenAI Сэм Альтман (Sam Altman) предупредил пользователей ChatGPT, которые делятся всем с чат-ботом: информация и данные могут быть использована в качестве доказательств в суде в случае совершения преступления, пишет The Guardian.
Сэм Альтман объяснил, что такие разговоры не обладают теми же юридическими гарантиями, которые могут быть при общении с настоящими терапевтами, врачами или юристами. «Если вы обсуждаете с ChatGPT свои самые личные вещи, а потом начинается судебный процесс, нас могут обязать предоставить эти данные, и я считаю, что это очень неправильно», — сообщил глава ИТ-компании.
Генеральный директор OpenAI указал, что необходимы новые законы о конфиденциальности истории чатов, отметив, что этот вопрос следует решать в срочном порядке. При этом он уточнил, что пока они не придумали, как это должно работать, когда разговариваете с ChatGPT. «Год назад никому не приходилось об этом думать, а теперь, как мне кажется, это огромная проблема вроде: Как мы собираемся регулировать законы в этой области?» — начал рассуждать по этой теме Сэм Альтман.
По информации The Guardian, в отличие от мессенджеров со сквозным шифрованием в июле 2025 г., таких как WhatsApp* (принадлежит Meta, которая признана в России экстремистской и запрещена) или Signal, OpenAI может просматривать чаты в ChatGPT. Ведь это делается для улучшения работы технологий искусственного интеллекта (ИИ) или контроля нарушений. В то же время чаты, удаленные пользователями бесплатных, Plus- и Pro-аккаунтов, стираются в течение лишь 30 дней, если только закон не обязывает сохранять их по юридическим или вопросам безопасности.
В 2025 г. если против пользователя чат-бота подадут иск, OpenAI могут обязать предоставить переписку с ChatGPT в качестве доказательства, что Сэм Альтман назвал крайне нелепой ситуацией.
Разработчики чат-ботов не защищены
В 2025 г. Федеральный суд США постановил, что защита, предусмотренная Первой поправкой к Конституции США, не распространяется на компанию в сфере ИТ-технологий Character.AI и не оградит ее от судебного иска, связанного с самоубийством подростка в Орландо, штат Флорида. Первая поправка гарантирует свободу слова.
Судья Энн Конвей (Anne Conway) отклонила несколько ходатайств ответчиков Character Technologies и ее основателей Дэниела де Фрейтаса (Daniel de Freitas) и Ноама Шазира (Noama Shazira), которые добивались прекращения производства по иску матери Сьюэлла Сетцера (Sewella Setzer). Подросток покончил с собой в 2024 г. после нескольких месяцев общения с чат-ботами Character.AI, имитирующими вымышленных персонажей франшизы «Игра престолов».
Судья Энн Конвей сообщила о том, что ответы ИИ-сервисов нельзя рассматривать как юридически значимую речь. Судья предположила, что большая языковая модель (LLM) в основе ИИ отличается от контента, защищенного Первой поправкой, включая книги, фильмы и видеоигры. По словам судьи, Character.AI имеет возможность защищать право пользователей получать ответы от чат-бота, но не может претендовать на аналогичную защиту для сгенерированных текстов.

Энн Конвей отклонила также и иск Меган Гарсия (Megan Garcia), матери подростка, утверждавшей, что ответчики умышленно нанесли эмоциональный вред Сьюэллу Сетцеру. Представители Гарсия доказали, что Google может нести ответственность за использование чат-ботов Character.AI, а также за содействие и подстрекательство к действиям этой ИТ-компании. Google подписала лицензионное соглашение с Character Technologies на сумму $2,7 млрд.
Представитель Character.AI заявили, что ИТ-компания намерена отстаивать свою позицию по сути дела. Со слов представителей, что внедрила ИИ-функции, направленные на обеспечение безопасности пользователей при сохранении увлекательного взаимодействия. Речь идет о специальной модели для пользователей младше 18 лет, фильтрации персонажей, уведомлениях о времени использования и других мерах. Разработчики также внедрили механизмы для выявления и предотвращения диалогов о самоповреждении. Эти меры включают всплывающие уведомления, перенаправляющие пользователей на национальную линию помощи по вопросам суицида и других кризисных ситуаций.
*WhatsApp (принадлежит Meta, которая признана в России экстремистской и запрещена).