Эксперт по кибербезопасности: ИИ-ассистенты могут впустить хакеров в частную жизнь пользователей
Эксперт по кибербезопасности компании AppSec Solutions Юрий Шабалин провел эксперимент и обнаружил в ИИ-агентах уязвимость, которая может буквально открыть злоумышленникам дверь к данным пользователя. Об этом CNews сообщили представители App.Sec Solutions.
Эксперт по кибербезопасности с помощью популярного сервиса создал личного ИИ-ассистента, обучил его и делегировал ему рутинные задачи: принимать и обрабатывать голосовые сообщения, создавать встречи, отправлять электронные письма и напоминать о дедлайнах и прочие рутинные задачи, которыми заниматься не хотелось. Настроить было несложно, подробная инструкция была обнаружена на популярном видеохостинге. Странности эксперт заметил уже при просмотре туториала.
«По ходу работы я обнаружил важный нюанс, который легко упустить из виду, если не рассматривать процесс через призму информационной безопасности. А в туториалах заложена базовая ошибка, и если ИИ-ассистент сделан на основе инструкций с «Ютуба», в нем уже сразу есть уязвимость. Я не пожалел своего времени, и нашел 10 наиболее популярных роликов на русском языке, которые рассказывают, как создать своего персонального ИИ-ассистента на платформе n8n. Суммарное количество просмотров этих роликов на момент написания статьи составляет 607,5 тыс. просмотров. И ни в одном из этих видео не упоминается про настройку ограничения», — сказал директор по продукту «Стингрей» компании AppSec Solutions Юрий Шабалин.
Айрат Сибгатуллин, Directum: No-code — это обязательный компонент современной системы КЭДО

Уязвимость, которую обнаружил специалист, содержится в конфигурации узла Telegram Trigger. В ней содержатся так называемые «дополнительные поля», в которые необходимо задать ограничивающие параметры (Restrict to Chat IDs и Restrict to User IDs – прим. авт), если они не заполнены правильно, ИИ-бот будет получать сообщения и давать ответы любому пользователю без идентификации, а значит – и злоумышленникам тоже. Найти таких ассистентов несложно, достаточно в поиске в Telegram попробовать поперебирать различные комбинации имен таких агентов (AIAssistant, PersonalAssistant, n8nAssistant и подобные) и попробовать им написать. Ну и конечно, те люди, у кого появляются подобные агенты спешат ими похвастаться, что тоже можно использовать.
Таким образом, к личному ассистенту пользователя может подключиться кто угодно и задать любые чувствительные вопросы. А учитывая, что у большинства таких агентов есть доступ к почте, а пароль от многих сервисов сбрасывается именно через письмо, это потенциально открывает безграничные возможности для злоумышленников.