Разделы

Европарламент одобрил жесткий общеевропейский закон об искусственном интеллекте

Закон поэтапно вводит серьёзные ограничения для применения ИИ в разных сферах жизни. Некоторые технологии прямо запрещены, хотя остаются и лазейки, и исключения.

Риски к минимуму

Европарламент большинством голосов одобрил ранее широко анонсированный законопроект об искусственном интеллекте (ИИ). Ставший законом документ довольно жёстко ограничивает возможности применения ИИ с целью минимизировать риски от его использования. В частности, запрещается присвоение так называемого «социального рейтинга», ограничивается применение технологий распознавания лиц. Закон предписывает также, что сгенерированные ИИ изображения, видеоролики или аудиозаписи реально существующих людей, мест или событий должны быть помечены как искусственно созданные.

Законопроект разрабатывался с 2021 г. Его авторы определили четыре категории рисков, которые может представлять ИИ: от минимальной к «неприемлемой». Технологии, попавшие в последнюю категорию, будут прямо и недвусмысленно запрещены к реализации.

К таковым отнесены решения, которые угрожают правам граждан, в том числе биометрическая классификация по «чувствительным» характеристикам; сплошной и массовый скрейпинг (сбор) изображения лиц из интернета или записей камер наблюдения ради создания баз данных для распознавания лиц. Также запрещены решения, направленные на распознавание эмоций на рабочих местах и в школах, социальный рейтинг, прогнозирование вероятности совершения лицом правонарушений исключительно на основе его профайлинга или оценки характеристик. Таким образом, Европа признаёт неприемлемым и законодательно запрещает реализацию программ «социального рейтинга» вроде той, которая была навязана китайскому обществу его властями.

В ЕС принят первый в мире закон, регулирующий ИИ

Впрочем, для ряда запретов сделаны и исключения. Правоохранительные органы наделяются правом использовать биометрические идентификационные системы в узко ограниченном количестве случаев. Ограничения касаются и времени использования таких систем, и географического охвата, кроме того, для каждого случая применения потребуется получение судебного ордера или специального распоряжения. В публикации Европарламента приводятся такие примеры как, например, поиск пропавшего без вести лица или предотвращение террористической атаки. Использование таких систем после критического инцидента (когда было выписано разрешение на их использование), потребует отдельного судебного ордера и только в рамках конкретного дела.

Что касается высокорисковых реализаций, которые могут наносить «серьезный вред здоровью, безопасности, фундаментальным правам, окружающей среде, демократии и верховенству закона», то для них предписаны строгие правила документирования, оценки и минимизации рисков, прозрачности и точности и, главное, наличия надзора со стороны людей.

К числу высокорисковых ИИ-систем отнесены те, что связаны с критической инфраструктурой, образованием, профессиональной подготовкой, ключевыми социальными услугами (здравоохранение, банковские услуги), а также определённые системы, используемые правоохранительными органами, миграционного и пограничного контроля, правосудия и демократических процессов - в частности, способных влиять на выборы.

Граждан закон наделяет правом подавать жалобы на работу искусственного интеллекта и получать объяснения о том, почему были приняты те или иные решения, если на них повлияли высокорисковые системы искусственного интеллекта и при этом были затронуты права самих граждан.

Закон также предусматривает особый надзор за системами ИИ общего назначения - то есть, наиболее продвинутыми моделями, требования к их прозрачности, обучению и минимизации системных рисков, которые они могут представлять.

Наконец, закон предполагает создание на уровне отдельных государств безопасных сред разработки и тестирования ИИ-решений в реальных условиях, и обеспечение доступа к ним со стороны малого и среднего бизнеса и стартапов.

Не все ответы не на все вопросы

«Закон об искусственном интеллекте в ЕС даёт или, по крайней мере, стремится дать ответы на ключевые опасения, вызванные стремительным развитием искусственного интеллекта», - считает Анастасия Мельникова, директор по информационной безопасности компании SEQ.

8 задач, чтобы перезапустить инженерную школу в России
импортонезависимость

По ее словам, список этих опасений едва ли можно назвать исчерпывающим, а вероятнее всего, потребуется дополнительное законодательство, которое будет нацелено на социальную защиту, например, работников, попавших под сокращение из-за ИИ, а таким уже счёт идёт на десятки тысяч в разных странах мира, однако наибольшей проблемой Акта ЕС об искусственном интеллекте остаётся его региональность.

«Даже если США, Канада, Австралия и какое-то количество латиноамериканских стран перенимут основные положения и ценности этого закона, на планете останется огромное количество других наций и режимов, где власти вряд ли захотят отказываться от автоматического распознавания лиц, «социального рейтинга» и других спорных, с точки зрения Всеобщей декларации прав человека, способов применения ИИ», - пояснила Анастасия Мельникова.

Подводя итог, она сказала, что разработчики ИИ-решений, которые сочтут ограничения ЕС слишком дискомфортными, могут попросту сменить юрисдикцию и начать работать уже не на европейскую экономику.

Нарушившим закон компаниям, зарегистрированным в ЕС, грозит штраф до €35 млн или до 7% глобального годового оборота.

Дмитрий Балдин, «РусГидро»: Вынужденный переход на open source приводит к увеличению поверхности кибератак
безопасность

Принятый закон ещё должен будет пройти лингво-юридическую проверку и одобрен Советом Европы.

По окончанию процедуры он вступит в силу в течение 20 дней после публикации; при этом часть его положений будет считаться вступившей в полную силу только через два года; основные запреты (например, на технологии распознавания лиц) вступают в силу через полгода после публикации, а, например, правила, касающиеся надзора над общими системами ИИ вступают в силу через год. Прописанные в законе обязанности для производителей высокорисковых систем станут непререкаемыми только через три года после вступления закона в окончательную силу.

Роман Георгиев