Разделы

Безопасность ИТ в госсекторе Техника

ИИ надо обуздать. Всего через два года он «сможет убить множество людей»

В Великобритании выступают за создание международного надзорного ведомства по образцу МАГАТЭ и лицензирование деятельности, связанной с ИИ.

Два года и...

Уже через два года ИИ сможет «убить множество людей», заявил советник премьер-министра Великобритании по вопросам технологий Мэтт Клиффорд (Matt Clifford). По его мнению, краткосрочные риски уже выглядят «пугающими», поскольку ИИ уже способен создавать кибер- и биологическое оружие, способное вызвать множество смертей.

Угрозу Клиффорд назвал экзистенциальной. И хотя позднее он признал, что двухлетний срок — это некоторое преувеличение, советник, тем не менее, отметил, что развитие ИИ идет обгоняющими темпами.

На вопрос журналистов, считает ли он возможным сценарий, при котором человечество будет сметено с лица Земли искусственным интеллектом, Клиффорд ответил, что такая вероятность отличается от нуля.

«Говоря о биооружии или кибератаках, чрезвычайно серьезные угрозы, которые могут стоить жизни множеству людей, пусть и не всем сразу, легко могут возникнуть на том этапе, где модели ИИ будут находиться в своем развитии в пределах двух лет, — отметил Клиффорд. — Главное, на мой взгляд, на чем надо сосредоточиться, так это на том, как обеспечить контроль над этими моделями. Потому сейчас мы не знаем, как это сделать».

Фото: ru.freepik
Великобритания опасается, что необузданный ИИ «убьет множество людей»

Его заявление как минимум отчасти связано с планами британского премьера Риши Сунака (Rishi Sunak) в США, где он планирует обсудить с американским президентом создание в Великобритании агентства по контролю над разработками ИИ, аналогичного по принципам работы МАГАТЭ (Международное агентство по атомной энергии, входит в систему ООН), а также создать централизованное исследовательское учреждение по образцу ЦЕРН (европейская организация по ядерным исследованиям), которое будет заниматься развитием ИИ.

Письмо глубокой озабоченности

Кроме того, недавно десятки ведущих экспертов в области ИИ, включая некоторых пионеров этой отрасли, подписали открытое письмо, в котором говорится, что на риски, проистекающие из развития технологий следует реагировать так же, как на возможность новой пандемии или ядерного военного конфликта.

Среди подписантов отметились представители лаборатории Google DeepMind и «крестный отец ИИ» Джеффри Хинтон (Geoffrey Hinton), который недавно покинул свой пост, заявив, что ИИ будет означать конец человечества, если с ним не так обращаться.

Александр Бабкин, Газпромбанк: Сейчас иностранные ИБ-решения в Газпромбанке замещены на 65%
безопасность

Клиффорд, в свою очередь, говорит, что если ИИ обуздать нужным образом, то он станет «силой добра», которая позволит лечить болезни, сделать экономику более продуктивной и добиться ее декарбонизации. Но для этого необходимы единые правила игры.

Другие представители британского политического истеблишмента также выступают за жесткое лицензирование любой деятельности, связанной с разработками ИИ.

«По существу обуздывать надо не ИИ, а его разработки, которые на фоне общего хайпа и яростной конкуренции действительно могут привести к драматичным последствиям, — говорит Алексей Водясов, технический директор компании SEQ. — Беда в том, что контроль появляется только после катастрофы. Международное агентство по атомной энергии было создано уже после того, как ядерное оружие было разработано и применено. И сейчас существует опасность, что реализация инициатив по контролю над разработками ИИ состоится только после того, как его деструктивный потенциал станет явным и очевидным для всех. То есть, после крупного инцидента. Хотелось бы верить, конечно, что будет по-другому».

Роман Георгиев