Разделы

Безопасность Новости поставщиков

«Лаборатория Касперского» представила свои принципы этичного использования ИИ в кибербезопасности

В рамках глобальной инициативы по информационной открытости «Лаборатория Касперского» представила этические принципы разработки и использования систем на основе машинного обучения. В новом документе компания объясняет, как она обеспечивает надежность систем, основанных на ML-алгоритмах, и призывает других участников отрасли присоединиться к диалогу и выработать общие этические принципы. Об этом CNews сообщили представители «Лаборатории Касперского».

«Лаборатория Касперского» использует алгоритмы машинного обучения в своих решениях уже около 20 лет. Сочетание их с человеческим опытом позволяет компании ежедневно обнаруживать и противодействовать множеству новых угроз, причем ML играет важную роль в автоматизации процесса обнаружения угроз и выявления аномалий, а также повышает точность распознавания вредоносных программ. Чтобы способствовать развитию инноваций, «Лаборатория Касперского» сформулировала этические принципы разработки и использования систем машинного обучения и открыто делится ими с представителями отрасли, чтобы придать импульс многостороннему диалогу, цель которого — выработать единые практики использования таких технологий в кибербезопасности для улучшения жизни людей.

По мнению «Лаборатории Касперского», при разработке и использовании AI/ML должны учитываться следующие шесть принципов: прозрачность; безопасность; человеческий контроль; конфиденциальность; приверженность целям кибербезопасности; открытость к диалогу.

Принцип прозрачности означает убеждение «Лаборатории Касперского» в том, что компании должны информировать своих клиентов об использовании технологий машинного обучения в своих продуктах и услугах. Компания соблюдает этот принцип, разрабатывая максимально, насколько это возможно, интерпретируемые системы ML и предоставляя заинтересованным сторонам информацию о том, как работают решения компании и каким образом в них используются технологии машинного обучения.

Принцип безопасности находит отражение в спектре мер, которые реализует «Лаборатория Касперского» для обеспечения качества своих систем машинного обучения. Среди них — аудит безопасности, специфичный для ML/AI, меры по минимизации зависимости от сторонних наборов данных в процессе обучения ИИ-решений, а также фокус на облачные технологии машинного обучения с необходимыми мерами защиты вместо моделей, устанавливаемых на машины клиентов.

Принцип человеческого контроля объясняется необходимостью проверять работу AI/ML-систем при анализе сложных угроз. Для обеспечения эффективной защиты «Лаборатория Касперского» стремится оставить человеческий контроль важнейшим элементом всех своих AI/ML-систем.

Как с помощью ad-hoc инструмента снизить расходы на внедрение аналитики
Импортонезависимость

Поскольку большие данные играют важную роль в процессе обучения таких систем, компании, работающие с алгоритмами машинного обучения, должны учитывать право на цифровую приватность. «Лаборатория Касперского» применяет ряд технических и организационных мер для защиты данных и систем, чтобы обеспечить цифровую приватность пользователей.

Пятый этический принцип отражает стремление «Лаборатории Касперского» использовать AI/ML-инструменты исключительно в целях кибербезопасности. Сосредоточившись исключительно на защитных технологиях, компания следует своей миссии строить более безопасный мир и демонстрирует свою приверженность защите пользователей и их данных.

Шестой принцип касается открытости «Лаборатории Касперского» к диалогу со всеми заинтересованными сторонами с целью обмена передовым опытом в области этичного использования алгоритмов машинного обучения. Компания готова обсуждать эти темы, поскольку считает, что только сотрудничество позволяет преодолевать препятствия, стимулировать инновации и открывать новые горизонты.

«Машинное обучение может быть очень полезным для индустрии кибербезопасности, еще больше повысить киберустойчивость общества. Однако, как и любая технология, находящаяся на ранней стадии своего развития, она несет определенные риски. Мы рассказываем о своих этических принципах в области работы с технологиями машинного обучения и призываем к открытому диалогу в отрасли для выработки четких рекомендаций, как сделать разработку таких решений этичной», — сказал Антон Иванов, директор по исследованиям и разработке «Лаборатории Касперского».