Разделы

Техника

Британские эксперты: изображения, созданные искусственным интеллектом, «несут угрозу демократии»

Фейковое фото британского премьера Риши Сунака, наливающего пиво «не в тот стакан», вызвало бурное негодование у Консервативной партии. И хотя не ясно, редактировали ли исходное фото с помощью ИИ, вновь развернулась дискуссия о борьбе с дипфейками и маркировке произведённых с помощью ИИ изображений.

Угроза демократическим процессам

Британские эксперты по искусственному интеллекту заявили, что изображения политиков, сгенерированные или отредактированные с помощью генеративных ИИ вроде Midjourney или Stable Diffusion, «несут угрозу демократическим процессам».

Заявление связано с недавней публикацией отредактированной фотографии, на которой премьер-министр Великобритании Риши Сунак (Rishi Sunak) на фестивале пива в Лондоне из-за стойки бара протягивает посетителю дешёвый стакан, недолитый крепким пивом Black Dub. Рядом с ним стоит женщина и косится на Сунака с насмешливым выражением лица.

Очень скоро выяснилось, что фотография была значительно отредактирована: в действительности стакан был фирменным, пиво долито до краев, а выражение лица у женщины, стоявшей рядом, было совершенно нейтральным.

Однако отредактированное изображение сначала запостил в своих соцсетях член Парламента от партии лейбористов Карл Тёрнер (Karl Turner), а затем и другие члены партии.

Оригинал фото Риши Сунака (слева) и фейк, несущий угрозу демократии. Фото Guardian

Консерваторы, в свою очередь, взорвались негодованием. Вице-премьер Оливер Дауден (Oliver Dowden) назвал изображение неприемлемым и призвал членов лейбористской партии поудалять эту псевдофотографию, поскольку она «вводит в заблуждение».

Будущее, которое мало кому понравится

Эксперты предупреждают, что нынешняя ситуация - это индикатор того, что может случиться в ходе предвыборной гонки в следующем году, и что хотя не до конца ясно, применялся ли в случае с фотографией с премьер-министром, подобные программы позволили быстрее и проще производить фейковые (и при этом убедительные) тексты, фото и аудио.

Профессор информатики Университета Саутгемптона Уэнди Холл (Wendy Hall) заявила, что использование цифровых технологий в целом и ИИ в частности - это угроза демократическим процессам, и следует принять срочные меры к минимизации рисков ввиду скорых выборов в США в Великобритании.

Швета Сингх (Shweta Singh), доцент кафедры информационных систем и управления в Университете Уорвика, в свою очередь, заявила о необходимости установить ряд этических принципов, которые позволят людям понимать, что в новостях они видят заслуживающую доверия информацию, а не фейки.

Ей вторит профессор Фейтен Госн (Faten Ghosn), глава кафедры государственного управления в Университете Эссекса, отметившая, что обязанность политиков - информировать избирателей об использовании отредактированных изображений. То есть, попросту говоря, маркировать изменённые с помощью цифровых технологий изображения, чтобы не возникало иллюзий, будто они настоящие.

Законопроект, базирующийся на той же идее уже выдвинут в США.

Как с помощью ad-hoc инструмента снизить расходы на внедрение аналитики
Импортонезависимость

Политики-лейбористы решили, кажется, настаивать на том, что ничего страшного не происходит.

«Главный вопрос: как может кто-либо знать, что фото - дипфейк? Я не стал бы критиковать Карла Тёрнера за публикацию фото, которая выглядит вполне реальным», - написал Даррен Джонс (Darren Jones), глава парламентского комитета по бизнесу и торговле.

А в ответ на критику со стороны министра науки Мишель Донелан (Michelle Donelan), он осведомился, что делает её ведомство для выявления дипфейков ввиду близящихся выборов.

Системный подход

Между тем, министерство науки в начале года опубликовало доклад, в котором изложены основные принципы контроля над разработкой новых технологий (а не частных запретов конкретных продуктов).

После его выхода сам премьер Сунак поменял риторику с прославления ИИ как источника новых возможностей на предупреждения о том, что развитие ИИ необходимо снабдить «перилами».

Между тем, самые могущественные корпорации, занимающиеся разработкой ИИ, уже согласились на создание целого ряда новых ограничений для ИИ. В частности, по итогам встречи с президентом США Джо Байденом (Joe Biden), представители Amazon, Google, Meta, Microsoft и OpenAI приняли решение автоматически маркировать водяными знаками любой визуальный и аудиоконтент, созданный с помощью их разработок.

Александр Бабкин, Газпромбанк: Сейчас иностранные ИБ-решения в Газпромбанке замещены на 65%
безопасность

«Маркировка ИИ-контента - идея правильная, однако сработает ли она в полной мере, это ещё вопрос, - говорит Дмитрий Гвоздев, генеральный директор компании «Информационные технологии будущего». - Во-первых, водяные знаки очень трудно удалить, но сравнительно легко добавить. И, соответственно, любой правдивый компромат, всплывший во время верхней фазы политического сезона, можно будет закамуфлировать под дипфейк. А, как известно, разоблачение подделок и опровержение лжи требует во много раз больше времени и сил, чем их создание. Во-вторых, даже если самые передовые разработчики генеративного ИИ примут необходимые ограничения, то совсем не факт, что это сделают все остальные. Мы уже наблюдали отчётливо вредоносные ИИ, применяемые для фишинга, - у кого-то нашлись возможности обучить языковую модель преступной деятельности, безо всяких ограничений, которыми снабжают свои разработки OpenAI и другие. Полагаю, это только начало. Не удивлюсь, если применение «чёрного ИИ» войдёт в обиход у чёрных пиарщиков и недобросовестных политических консультантов. С технической точки зрения это всего лишь вопрос вычислительных мощностей».

Эксперт добавил, что широкое использование дипфейков в итоге может полностью дискредитировать фото и видеоконтент в нынешнем виде. Но это также может подстегнуть развитие новых видов носителей информации - более высокотехнологичных и защищённых от попыток подделать содержащуюся в них информацию.

Роман Георгиев