Разделы

ПО ИТ в банках Искусственный интеллект axenix

Исследователи Центрального университета нашли новый способ защиты прав на модели компьютерного зрения

Группа исследователей из Научной лаборатории ИИ, анализа данных и моделирования им. профессора А. Н. Горбаня, созданной на базе Центрального университета, разработала способ защиты моделей компьютерного зрения (нейросети для интерпретации визуальных данных) от несанкционированного использования — не прибегая к переобучению. Метод позволяет как подтвердить авторские права на модель, так и сделать ее неработоспособной без специального «ключа». Решение может стать важным шагом в коммерциализации моделей компьютерного зрения, особенно в сегментах мобильных приложений и финтехе. Об этом CNews сообщили представители Центрального университета.

Актуальность и практическая значимость

Компании все чаще разрабатывают собственные модели компьютерного зрения для внедрения в продукты: от смартфонов до бытовой техники. Как только модель устанавливается на устройство, ее можно скопировать для последующей перепродажи или использования в конкурирующем решении. В отличие от программного обеспечения, нейросети для анализа изображений сложно защитить: модели представляют собой набор чисел (весов), которые можно легко воспроизвести.

Сегодня для защиты моделей компьютерного зрения используют два подхода: водяные знаки для доказательства авторства и ключи для обеспечения работоспособности. Оба метода требуют интеграции еще на этапе обучения — это дорого, времязатратно и не подходит для готовых моделей.

Суть изобретения

Исследователи Центрального университета с соавторами предложили заменить всего один нейрон в уже обученной модели компьютерного зрения на «нейрон-детектор». Это элемент, который не реагирует на обычные изображения, но активизируется, если на картинке есть специальный «раздражитель», то есть секретный ключ (например, небольшой узор 4 × 4 пикселя). Срабатывание нейрона-детектора подтверждает авторство модели.

Если в обученную нейросеть для анализа изображений добавить по этому же принципу «нейроны-нарушители», модель будет работать штатно только при наличии ключа. Без него нейроны намеренно вносят помехи и препятствуют работе модели. Метод похож на лицензионный ключ, уникальный для каждого пользователя, но он уже заранее заложен в «ядро» нейросети, то есть не требует генерации на этапе обучения. Это изобретение поможет решить проблему пиратства и масштабировать защитные механизмы для моделей компьютерного зрения.

Уникальность метода

Математическая гарантия. Авторы доказали, что при встроенном нейроне-детекторе вероятность его случайной активизации ничтожно мала. Например, при выборке из 10 тыс. изображений вероятность ложного срабатывания менее 0,01%. Математическая обоснованность позволяет использовать метод в промышленных масштабах и регулируемых отраслях.

Павел Каштанов, «Синтеллект»: С ростом доверия компаний к ИИ мы видим все больше областей его применения в проектах СЭД
Цифровизация

Метод не требует переобучения. Интеграция нейронов происходит однократно в уже готовой сети. Такой механизм не требует дополнительного обучения модели и вычислений. Раньше защитить модель компьютерного зрения без участия в ее обучении было невозможно.

Возможность массового распространения. Метод подходит для любых моделей компьютерного зрения. Это делает его пригодным для массового распространения и последующей сертификации продуктов. Такая адаптивность дает возможность использовать механизм в чувствительных отраслях, таких как медицина и финтех.

Потенциал масштабирования на другие языковые модели. В будущем метод смогут применять не только к моделям компьютерного зрения, но и к большим языковым моделям, системам принятия решений. В эпоху, когда нейросети легко скопировать, как это было раньше с программным обеспечением, разработка исследователей Центрального университета может стать основой для нового рынка лицензирования искусственного интеллекта.

Глеб Рыжаков, старший научный сотрудник лаборатории ИИ, анализа данных и моделирования им. А. Н. Горбаня в Центральном университете: «Сегодня модели искусственного интеллекта, особенно в компьютерном зрении, представляют собой результат масштабных инвестиций, как финансовых, так и интеллектуальных. Однако, в отличие от традиционных цифровых объектов, защитить модели компьютерного зрения от кражи и несанкционированного присвоения крайне сложно. Существующие методы, как правило, требуют интеграции защитных механизмов на этапе обучения, что делает их сложными в реализации на практике и почти неприменимыми для уже готовых, предобученных моделей. Наша исследовательская лаборатория разработала революционное решение, позволяющее встроить защиту в модель без необходимости ее переобучения. Простота, масштабируемость и теоретически обоснованная надежность такого подхода создают основу для противодействия воровству в сфере ИИ — а это актуальная проблема для разработчиков и исследователей по всему миру».