Маск призвал замедлить прогресс ИИ и робототехники
Предприниматель и глава нескольких технологических компаний в декабре 2025 г. выразил обеспокоенность стремительным развитием искусственного интеллекта и робототехники, заявив о необходимости замедлить этот процесс. По его мнению, текущие темпы прогресса создают серьезные риски в области безопасности, этики и контроля, поскольку человечество может не успеть разработать эффективные механизмы регулирования.
Личная просьба
Главный исполнительный директор Tesla и глава нескольких других технологических компаний Илон Маск (Elon Musk) в декабре 2025 г. призвал разработчиков в сфере технологий искусственного интеллекта (ИИ) немедленно остановиться или хотя бы замедлить прогресс, пишет OfficeChai. По его словам, текущие темпы прогресса вызывают серьезные опасения по части безопасности, этики и контроля.
По мнению Илона Маска, ИИ-технологии развиваются настолько быстро, что человечество рискует не успеть выработать должные механизмы регулирования и защиты до того, как ИИ-технологии станут слишком мощными и автономными.
Илон Маск подчеркнул, что уровень внимания к вопросам безопасности должен быть полностью соизмерим с темпами и масштабами технологического развития. Он выразил серьезные сомнения в том, что действующие механизмы государственного регулирования и институционального контроля способны эффективно сдерживать риски, связанные с ИИ и робототехникой, при сохранении текущих темпов прогресса. Особое внимание Маск уделил тому, что отсутствие четких правовых и этических рамок в развитии автономных ИТ-систем и сверхмощных ИИ-моделей может привести к значительным непредвиденным последствиям для общества, экономики и глобальной стабильности в целом. По его мнению, для минимизации этих рисков необходимо в срочном порядке разработать и внедрить комплексные меры регулирования, адекватные скорости и глубине происходящих технологических изменений.
Маск отмечает, что одна из ключевых задач в дальнейшем развитии ИИ заключается в том, чтобы технология оставалась лишь ИТ-инструментом на службе человечества, а не превращались в потенциальную угрозу. По его убеждению, достижение этой цели требует от индустрии и регуляторов уделять вопросам этики, безопасности и долгосрочной устойчивости столько же (если не больше) внимания, сколько в 2025 г. уделяется повышению производительности и расширению возможностей ИИ-моделей. В число приоритетных направлений входят: разработка и внедрение стандартов прозрачности алгоритмов и процессов обучения; создание эффективных механизмов независимой оценки рисков на всех стадиях жизненного цикла ИТ-систем с ИИ; формирование международно согласованных норм и правил, которые позволят своевременно выявлять и сдерживать бесконтрольное и потенциально опасное внедрение наиболее мощных технологий.
Изобретатель и инвестор Илон Маск убежден, что только сбалансированный подход, сочетающий стремление к технологическому прорыву с жесткими мерами предосторожности, способен обеспечить безопасное и ответственное развитие ИИ-технологий в интересах всего общества.
Контроля нет уже сейчас
Основатель SpaceX Илон Маск также обратил внимание на то, что ряд современных разработок в области машинного обучения (ML) и автономных ИТ-систем уже приближается к уровню сложности, при котором общество может столкнуться с серьезными трудностями в их полном понимании и безопасном контроле. По его мнению, подобная ситуация делает крайне важным заблаговременное, тщательное обсуждение потенциальных рисков и последствий. Особое значение приобретает междисциплинарный подход, объединяющий экспертов в области технологий, права, этики, философии и социальной инженерии для всесторонней оценки влияния таких ИТ-систем.
Маск подчеркнул и то, что прежде чем подобные ИИ-технологии будут внедрены в критически важные сферы жизнедеятельности общества (энергетика, транспорт, здравоохранение, оборона, финансовая инфраструктура и др.), необходимо сформировать консенсус относительно приемлемых границ их применения и механизмов обеспечения безопасности.
Научная неопределенность
Заявления Илона Маска являются частью гораздо более широкой и интенсивной дискуссии, которая в 2025 г. разворачивается в научном, технологическом и экспертном сообществе.
Ведущие специалисты и компании сходятся во мнении, что стремительное ускорение разработки ИИ должно неизбежно сопровождаться параллельным и соразмерным усилением внимания к следующим ключевым направлениям: разработка и внедрение эффективных механизмов государственного и международного регулирования; обеспечение высокого уровня прозрачности алгоритмов, процессов обучения и принимаемых решений; всесторонняя идентификация, количественная оценка и управление рисками, связанными с использованием ИИ, особенно в критически важных сферах.
По информации OfficeChai, только при условии одновременного и сбалансированного продвижения по всем этим направлениям возможно достижение устойчивого и социально ответственного развития ИИ-технологий даже в ближайшем будущем.
Дальнейшее развитие ИИ лишь навредит людям
В 2025 г. активисты подписали открытое письмо, призывающее ввести запрет на разработку сверхразумного ИИ. Более 1 тыс. знаменитостей и общественных деятелей — от Генри Чарльз (Henry Charles) и Меган Маркл (Meghan Markle) до Стива Бэннона (Steve Bannon) — подписали открытое письмо, призывающее ввести запрет на разработку сверхразумного ИИ т.е. artificial superintelligence (ASI), о чем писал CNews.
Активисты обеспокоены тем, что в 2025 г. не существует эффективных мер безопасности для этого. Они призывают дождаться момента, когда наука и самая широкая общественность поддержат подобные технологии.
«Многие ведущие ИТ-компании в области ИИ ставят перед собой цель создать в ближайшее десятилетие сверхинтеллект, способный значительно превзойти всех людей практически по всем когнитивным задачам, — говорится в тексте заявления. — Это вызывает опасения, начиная от экономического устаревания и лишения человека полномочий, утраты свободы, гражданских прав, достоинства и контроля, заканчивая рисками для национальной безопасности и даже потенциальным вымиранием человечества».
Кроме того, свои подписи под заявлением поставили основатель Virgin Group Ричард Брэнсон (Richard Branson), соучредитель Apple Стив Возняк (Steve Wozniak) и Skype Яан Таллинн (Jaan Tallinn), режиссер и писатель Стивен Фрай (Stephen Fry), советник папы римского по ИИ-вопросам Паоло Бенанти (Paolo Benanti), адмирал Военно-морских сил (ВМС) США в отставке Майк Маллен (Mike Mullen), бывший президент Ирландии Мэри Робинсон (Mary Robinson). Также письмо подписали лауреаты Нобелевской премии: программист Джеффри Хинтон (Geoffrey Hinton), экономист Дарон Аджемоглу (Daron Acemoglu), астрофизик Национального управления по аэронавтике и исследованию космического пространства (НАСА) Джон Мазер (John Mather), физик Франк Вильчек (Frank Wilczek).
«Мы призываем к запрету на развитие сверхразума, который не должен быть снят до тех пор, пока не будет широкого научного консенсуса, что это будет сделано безопасно и контролируемо, и сильной общественной поддержки», — заявили подписанты.





