Разделы

Безопасность Цифровизация Техника Искусственный интеллект

«Отец интернета» призвал прекратить инвестиции в искусственный интеллект

Винт Сёрф призвал инвесторов не забрасывать деньгами чат-боты на базе искусственного интеллекта, такие как ChatGPT и Google Bard. По его мнению, технология слишком сырая, и с ней связано множество проблем этического характера.

Не спешите, не круто

Винт Сёрф (Vint Cerf), «отец интернета», который с середины 2000-х работает в Google, призвал инвесторов не набрасываться на «разговорные» ИИ, такие как ChatGPT или собственная разработка Google — Bard. По мнению Сёрфа, технология слишком сырая, чтобы ожидать быстрого возвращения инвестиций, плюс существуют многочисленные этические проблемы.

Выступая на конференции в Маунтин-Вью, Сёрф отметил, что и ChatGPT, и Bard не всегда работают так, как хотелось бы их создателям. И инвестировать в них просто потому, что «это круто», — затея, может, и соблазнительная, но непродуктивная.

«Если вы думаете, мол, все, я могу продать это инвесторам, потому что все про это говорят и готовы принести мешок денег, то лучше так не делать, — отметил Сёрф. — Призадумайтесь. Правда в том, что мы не всегда понимаем, что может произойти с этими технологиями, и, если говорить честно, проблема в людях. Именно потому мы, люди, не поменялись ни за последние 400 лет, ни, тем более, за 4000. Люди будут стремиться к тому, что принесет пользу им, а не вам. Об этом надо помнить и более разборчиво относиться к технологиям».

serf_750.jpg
Фото: wikimedia.org
«Отец интернета» выступил против инвестиций в чат-боты

Винт Сёрф — соразработчик базового для Всемирной сети протокола передачи данных TCP/IP, является сотрудником Google с 2005 г. Его должность — Chief Internet Evangelist (ведущий «евангелист» интернета). Интересно, что ставя под сомнение применимость чат-ботов на основе ИИ, он некоторым образом идет против интересов собственной компании. Но с его статусом он может себе это позволить.

ИИ — не то, чем кажется

Сёрф рассказал, что попросил одну из таких систем добавлять эмоджи к концу каждого предложения. Система эту просьбу не выполнила. Когда Сёрф обратил ее внимание на это, она принесла извинения, но ничего не поменяла в своем поведении. «Мы еще очень далеки от осознанности или самоосознания ИИ», — заявил эксперт, отметив, что между тем, что технология обещает и что делает, есть разница, но отличить правильный ответ от красноречиво сформулированного получается не всегда.

В частности, исследователь попросил чат-бота написать его, Сёрфа, собственную биографию. Бот выдал текст с массой неточностей, но настаивал на том, что все основано на фактах.

Как обеспечить управление ИКТ-активами в масштабе фестиваля
Телеком

«Что касается технической стороны, то, полагаю, разработчиков вроде меня стоит обязать найти способы укротить эти технологии, так, чтобы вероятность нанесения вреда с их стороны была сведена к минимуму, — добавил Сёрф. — И, конечно же, многое зависит от приложения: одно дело — средненько написанное сочинение, и другое — когда совет, который дала машина... может иметь медицинские последствия. Очень важно понять, как минимизировать наихудшие сценарии».

«И ChatGPT, и Bing уже ловили на том, что они дают неверные или заведомо ошибочные ответы на задаваемые им вопросы, — отмечает Алексей Водясов, технический директор компании SEQ. — В последние дни и вовсе разразился скандал: ИИ Bing начал давать совсем неуместные ответы и даже оскорблять пользователей. Основная проблема с ИИ заключается в эффекте “чёрного ящика”: никто из людей не может точно сказать, что на практике происходит внутри него. В противном случае самые распространенные проблемы ИИ, такие как проявления предвзятости, ошибочные ответы и т.д., уже давно были бы решены. Сёрф прав в том, что это очень сырые технологии, однако их, к сожалению, уже вовсю применяют на практике. Каковы будут последствия в дальней перспективе? Наиболее вероятные ответы вызывают тревогу».

Роман Георгиев