«Цель — не задушить»: российские власти готовят стандарт безопасной разработки для ИИ
ФСТЭК планирует к концу 2025 г. представить проект стандарта по безопасной разработке систем искусственного интеллекта. От выбранного ведомством подхода к регулированию будет зависеть влияние документа на развитие этой технологии в России.
Дополнение к стандарту безопасной разработки ПО
Федеральная служба по техническому и экспортному контролю (ФСТЭК) работает над созданием проекта стандарта по безопасной разработке систем искусственного интеллекта (ИИ), пишут «Ведомости», ссылаясь на заявление первого заместителя директора ФСТЭК Виталия Лютикова.
«Я думаю, что до конца года у нас появится документ, который мы представим для обсуждения экспертному сообществу», — заявил Лютиков.
Стандарт, по словам чиновника, будет касаться уязвимостей и угроз, которые специфичны для ИИ, и станет дополнением к стандарту по безопасной разработке программного обеспечения (ПО).
Почему нужен еще один стандарт
В 117-м приказе ФСТЭК, который вступает в силу с 1 марта 2026 г. и устанавливает новые требования к защите информации в государственных информационных системах, есть достаточно большой раздел, посвященный вопросам безопасности ИИ, сказал консультант по безопасности Positive Technologies Алексей Лукацкий.
«Однако такая непростая тема не может обойтись только одной страницей внутри приказа, который только постулирует само требование по защите ИИ, но не рассказывает, как это сделать», — считает эксперт.
С этим согласен директор департамента расследований T.Hunter Игорь Бедеров, так как ИИ-системы, по его словам, имеют фундаментальные отличия, которые не учитываются в традиционных моделях угроз.
Необходимость наличия стандарта, который будет описывать конкретные меры, предназначенные для компаний, внедряющих ИИ в свои проекты (как собирать датасеты, как их хранить, как их размечать безопасным образом, как обеспечивать их целостность и конфиденциальность), назрела, полагает Лукацкий.
В мае 2025 г. CNews приводил данные «Информзащиты», согласно которым 67% компаний, внедряющих ИИ-инструменты в бизнес-процессы, не проводят предварительную оценку их защищенности и влияния на безопасность информационной инфраструктуры. Они приоретизируют скорость внедрения, из-за чего обеспечение защищенности использования ИИ происходит только тогда, когда он уже внедрен в систему.
Два варианта развития событий
Возможных исходов принятия таких требований, судя по мировому опыту, может быть два: новая регуляторика никак не ограничит либо сильно затормозит развитие технологии, отметил директор по продуктам Servicepipe Михаил Хлебунов.

«Новый стандарт — это шаг к системному подходу. Россия пытается занять золотую середину между жестким регулированием ЕС и вольным подходом США. Цель — не задушить ИИ, но задать рамки для безопасного развития и внедрения во всех секторах экономики», — пояснил заместитель директора НОЦ ФНС России и МГТУ им. Н. Э. Баумана Алексей Ершов.
Разработанный Минцифры проект концепции развития регулирования отношений в сфере технологий искусственного интеллекта (ИИ) до 2030 г. определяет нынешний подход к вопросам регулирования ИИ в России как гибридный. Это значит, что большинство нормативных правовых актов носит стимулирующий характер, но есть точечные ограничения и механизмы саморегулирования.
Основой будущего регулирования должен стать человекоориентированный подход, доверенность технологий, принцип технологического суверенитета, уважение автономии и свободы воли человека, запрет на причинение вреда человеку и недопущение антропоморфизации («очеловечения») технологий, говорится в концепции.