Логотип

Стив Возняк и два великих пионера ИИ собрали 800 подписей, призывая к «тайм-ауту» в разработке суперинтеллекта

Стив Возняк и два великих пионера ИИ собрали 800 подписей, призывая к "тайм-ауту" в разработке суперинтеллекта

Социальная тревога по поводу быстрого развития искусственного интеллекта (ИИ) превратилась из чисто технической дискуссии в глобальную проблему. И в знак подтверждения этого более 800 деятелей науки, политики, религии и культуры, в том числе пионеры искусственного интеллекта Джеффри Хинтон и Йошуа Бенжио, соучредитель Apple Стив Возняк, бывший стратег Дональда Трампа Стив Бэннон, или принц Гарри и Меган Маркл, подписали соглашение о сотрудничестве в области искусственного интеллекта. открытое письмо с призывом остановить развитие «суперинтеллекта», на данный момент гипотетической формы ИИ, способной превзойти человека во всех когнитивных задачах.

Документ объединяет голоса практически со всех уголков идеологического спектра: от консерваторов, таких как Стив Бэннон (бывший глава администрации Дональда Трампа) и Гленн Бек, до прогрессистов, таких как Сьюзан Райс (бывший посол США в ООН во времена Обамы), или религиозных деятелей, таких как монах Беннон (бывший глава администрации Дональда Трампа). и советник Папы Римского по вопросам искусственного интеллекта Паоло Бенанти. Также к ним присоединились пять нобелевских лауреатов, бизнесмен Ричард Брэнсон или актер Стивен Фрай.

Инициатива, выдвинутая Институтом будущего жизни (FLI), не требует символической паузы: она требует полного запрета на разработку сверхразумных систем, который не будет снят до тех пор, пока не будет достигнут «широкий научный консенсус» в отношении их безопасности и не получит ощутимой общественной поддержки.

Читать  xAI объявляет о выпуске модели Grok 2.5 с открытым исходным кодом

 

Разрыв между обществом и крупными технологическими компаниями

Письмо совпадает с публикацией отчета (https://futureoflife.org/recent-news/americans-want-regulation-or-prohibition-of-superhuman-ai/) Института будущего жизни, в котором показано массовое недовольство американцев скоростью развития ИИ и делается вывод о том, что существует «явное несоответствие между заявленной миссией ведущих компаний, занимающихся искусственным интеллектом, и желаниями общественности».

Физик Энтони Агирре, исполнительный директор FLI, заявил в интервью NBC, что проблема не только техническая, но и демократическая:

«Этот путь был выбран компаниями и экономической системой, которая их движет, но вряд ли кто-либо когда-либо спрашивал остальную часть человечества, хотим ли мы этого».

 

Таким образом, в то время как такие корпорации, как OpenAI, Google, Meta и xAI, борются за достижение так называемого AGI (или «общего ИИ»), общественность призывает к осторожности, прозрачности и контролю. Согласно опросу, проведенному в период с 29 сентября по 5 октября 2025 г.,

  • 64% взрослых считают, что суперинтеллект не должен развиваться, пока он не станет безопасным и контролируемым.
  • 69% американцев считают, что правительство делает недостаточно для регулирования ИИ.
  • Более половины не доверяют технологическим компаниям в ответственной разработке технологий.
  • 73% требуют строгого регулирования.
  • он поддерживает статус-квотолько5% ускоренного и неконтролируемого продвижения вперед.

 

Компании ускоряются, эксперты призывают к торможению

Между тем, технологическая гонка не подает никаких признаков остановки. Meta объявила о создании группы, занимающейся созданием «суперинтеллекта» под названием Meta Superintelligence Labs, и OpenAI продолжает разрабатывать все более мощные модели. Его генеральный директор Сэм Альтман недавно заявил, что надеется достичь уровня суперинтеллекта к 2030 году и что,

«ради потенциальных выгод стоит рискнуть».

Даже такие деятели, которые когда-то предупреждали об опасностях, как Элон Маск, теперь возглавляют компании, оказавшиеся в этой гонке. В этом году Маск признал, что существует «только 20% вероятность уничтожения», если ИИ превзойдет человека, в то время как его компания xAI продолжает двигаться в этом направлении.

Читать  Photoshop и Premiere Elements 2026: большой скачок к искусственному интеллекту

В то время как вышеупомянутый Джеффри Хинтон (лауреат премии Тьюринга в 2019 году: https://www.xataka.com/inteligencia-artificial/premio-turing-para-tres-principales-responsables-actual-auge-inteligencia-artificial, вместе с Бенджио и Леканом) предупреждает, что «всего за несколько лет современные системы искусственного интеллекта могут превзойти большинство людей в большинстве когнитивных задач», что требует разработки систем, «неспособных к развитию». причинения вреда людям в результате несоосности или злонамеренного использования».

Еще один ветеран науки, поддерживающий текст, — Стюарт Рассел, профессор Калифорнийского университета. По его словам, предложение

«он призывает не к постоянному запрету, а к адекватным мерам безопасности для технологии, которая, по мнению ее собственных создателей, может привести к вымиранию человечества».

 

Исторический поворотный момент

Для многих аналитиков это письмо может стать поворотным моментом в глобальных дебатах об управлении искусственным интеллектом. Он не только объединил традиционно враждующие сектора, но и отражает коллективную озабоченность по поводу того, в каком направлении движется технология, которая обещает столько же, сколько и угрожает.

По словам Йошуа Бенджио, «мы должны быть уверены, что общественность будет иметь гораздо более сильное право голоса в решениях, которые определят наше коллективное будущее».

А пока остается вопрос, который задает Энтони Агирре, популяризатор науки и соучредитель FLI:

«Действительно ли нам нужны системы, заменяющие людей? Или мы предпочитаем, пока еще можем, определить границы создаваемого нами интеллекта?»

Редактор: AndreyEx

Рейтинг: 5 (1 голос)
Если статья понравилась, то поделитесь ей в социальных сетях:
0 0 голоса
Рейтинг статьи
Подписаться
Уведомить о
guest

0 комментариев
Старые
Новые Популярные
Межтекстовые Отзывы
Посмотреть все комментарии

Это может быть вам интересно


Загрузка...

Спасибо!

Теперь редакторы в курсе.

Прокрутить страницу до начала