Стив Возняк и два великих пионера ИИ собрали 800 подписей, призывая к «тайм-ауту» в разработке суперинтеллекта

Социальная тревога по поводу быстрого развития искусственного интеллекта (ИИ) превратилась из чисто технической дискуссии в глобальную проблему. И в знак подтверждения этого более 800 деятелей науки, политики, религии и культуры, в том числе пионеры искусственного интеллекта Джеффри Хинтон и Йошуа Бенжио, соучредитель Apple Стив Возняк, бывший стратег Дональда Трампа Стив Бэннон, или принц Гарри и Меган Маркл, подписали соглашение о сотрудничестве в области искусственного интеллекта. открытое письмо с призывом остановить развитие «суперинтеллекта», на данный момент гипотетической формы ИИ, способной превзойти человека во всех когнитивных задачах.
Документ объединяет голоса практически со всех уголков идеологического спектра: от консерваторов, таких как Стив Бэннон (бывший глава администрации Дональда Трампа) и Гленн Бек, до прогрессистов, таких как Сьюзан Райс (бывший посол США в ООН во времена Обамы), или религиозных деятелей, таких как монах Беннон (бывший глава администрации Дональда Трампа). и советник Папы Римского по вопросам искусственного интеллекта Паоло Бенанти. Также к ним присоединились пять нобелевских лауреатов, бизнесмен Ричард Брэнсон или актер Стивен Фрай.
Инициатива, выдвинутая Институтом будущего жизни (FLI), не требует символической паузы: она требует полного запрета на разработку сверхразумных систем, который не будет снят до тех пор, пока не будет достигнут «широкий научный консенсус» в отношении их безопасности и не получит ощутимой общественной поддержки.
Разрыв между обществом и крупными технологическими компаниями
Письмо совпадает с публикацией отчета (https://futureoflife.org/recent-news/americans-want-regulation-or-prohibition-of-superhuman-ai/) Института будущего жизни, в котором показано массовое недовольство американцев скоростью развития ИИ и делается вывод о том, что существует «явное несоответствие между заявленной миссией ведущих компаний, занимающихся искусственным интеллектом, и желаниями общественности».
Физик Энтони Агирре, исполнительный директор FLI, заявил в интервью NBC, что проблема не только техническая, но и демократическая:
«Этот путь был выбран компаниями и экономической системой, которая их движет, но вряд ли кто-либо когда-либо спрашивал остальную часть человечества, хотим ли мы этого».
Таким образом, в то время как такие корпорации, как OpenAI, Google, Meta и xAI, борются за достижение так называемого AGI (или «общего ИИ»), общественность призывает к осторожности, прозрачности и контролю. Согласно опросу, проведенному в период с 29 сентября по 5 октября 2025 г.,
- 64% взрослых считают, что суперинтеллект не должен развиваться, пока он не станет безопасным и контролируемым.
- 69% американцев считают, что правительство делает недостаточно для регулирования ИИ.
- Более половины не доверяют технологическим компаниям в ответственной разработке технологий.
- 73% требуют строгого регулирования.
- он поддерживает статус-квотолько5% ускоренного и неконтролируемого продвижения вперед.
Компании ускоряются, эксперты призывают к торможению
Между тем, технологическая гонка не подает никаких признаков остановки. Meta объявила о создании группы, занимающейся созданием «суперинтеллекта» под названием Meta Superintelligence Labs, и OpenAI продолжает разрабатывать все более мощные модели. Его генеральный директор Сэм Альтман недавно заявил, что надеется достичь уровня суперинтеллекта к 2030 году и что,
«ради потенциальных выгод стоит рискнуть».
Даже такие деятели, которые когда-то предупреждали об опасностях, как Элон Маск, теперь возглавляют компании, оказавшиеся в этой гонке. В этом году Маск признал, что существует «только 20% вероятность уничтожения», если ИИ превзойдет человека, в то время как его компания xAI продолжает двигаться в этом направлении.
В то время как вышеупомянутый Джеффри Хинтон (лауреат премии Тьюринга в 2019 году: https://www.xataka.com/inteligencia-artificial/premio-turing-para-tres-principales-responsables-actual-auge-inteligencia-artificial, вместе с Бенджио и Леканом) предупреждает, что «всего за несколько лет современные системы искусственного интеллекта могут превзойти большинство людей в большинстве когнитивных задач», что требует разработки систем, «неспособных к развитию». причинения вреда людям в результате несоосности или злонамеренного использования».
Еще один ветеран науки, поддерживающий текст, — Стюарт Рассел, профессор Калифорнийского университета. По его словам, предложение
«он призывает не к постоянному запрету, а к адекватным мерам безопасности для технологии, которая, по мнению ее собственных создателей, может привести к вымиранию человечества».
Исторический поворотный момент
Для многих аналитиков это письмо может стать поворотным моментом в глобальных дебатах об управлении искусственным интеллектом. Он не только объединил традиционно враждующие сектора, но и отражает коллективную озабоченность по поводу того, в каком направлении движется технология, которая обещает столько же, сколько и угрожает.
По словам Йошуа Бенджио, «мы должны быть уверены, что общественность будет иметь гораздо более сильное право голоса в решениях, которые определят наше коллективное будущее».
А пока остается вопрос, который задает Энтони Агирре, популяризатор науки и соучредитель FLI:
«Действительно ли нам нужны системы, заменяющие людей? Или мы предпочитаем, пока еще можем, определить границы создаваемого нами интеллекта?»
Редактор: AndreyEx