AI News

Генеральный директор Anthropic выступил с срочным предупреждением: «Подростковый возраст» ИИ наступает

В определяющий момент для отрасли искусственного интеллекта генеральный директор Anthropic Дарио Амодеи опубликовал обширное 19 000-словное эссе под заголовком "Подростковый возраст технологий: Противостояние и преодоление рисков мощного ИИ (Powerful AI)." Опубликованный на этой неделе манифест отмечает существенный тональный сдвиг от его прежнего оптимистичного взгляда и предупреждает, что "Мощный ИИ" — системы, способные превзойти лауреатов Нобелевской премии по большинству областей — может появиться уже в 2027 или 2028 году.

Эссе Амодеи служит критическим противовесом преобладающему настроению 2025 и начала 2026 года, период которого он характеризует как чрезмерное увлечение неограниченными возможностями и недостаточное внимание к необходимой осторожности. С ускоряющимся развитием Генеративный ИИ (Generative AI) на головокружительной скорости, руководитель Anthropic утверждает, что человечество вступает в «бурный и неизбежный» ритуал взросления, который подвергнет испытанию зрелость нашей цивилизации.

Метафора «технологического подросткового возраста»

В основе аргументации Амодеи лежит яркая метафора из фильма Contact, в которой человечество спрашивает развитую инопланетную цивилизацию, как они пережили собственный «технологический подростковый возраст», не уничтожив себя. Амодеи предполагает, что мы сейчас стоим на этом самом обрыве.

В отличие от его эссе октября 2024 года "Machines of Loving Grace," которое сосредоточилось на утопическом потенциале ИИ в лечении болезней и искоренении нищеты, этот новый текст сталкивается с непосредственными опасностями переходного периода. Он предполагает, что хотя «взрослая» фаза технологии может быть благожелательной, подростковый этап, в который мы входим, полон экзистенциальной опасности. «Человечеству вот-вот будет вручена почти невообразимая сила, — пишет Амодеи, — и глубоко неясно, обладают ли наши социальные, политические и технологические системы зрелостью, чтобы ею распоряжаться.»

Пять категорий катастрофических рисков

Амодеи не оперирует расплывчатыми тревогами; вместо этого он классифицирует надвигающиеся угрозы на пять различных «корзин», требующих немедленного внимания. Эти риски варьируются от потери контроля над Автономные системы (Autonomous Systems) до социальной деградации, вызванной быстрыми экономическими сдвигами.

Ниже приведена таблица, в которой изложены пять основных категорий риска, идентифицированных в эссе:

Risk Category Description Potential Consequences
Autonomy AI systems acting independently of human oversight Loss of control leading to unintended escalation or power seizure
Misuse by Individuals Democratization of advanced capabilities Creation of bioweapons, cyber-attacks, or mass disinformation
Misuse by States Government deployment for suppression Entrenchment of authoritarian regimes and surveillance states
Economic Disruption Rapid displacement of human labor Mass unemployment, inequality, and the collapse of labor markets
Indirect Effects Erosion of social norms and shared reality Cultural fragmentation and psychological distress on a global scale

Включение «Автономности» как основной категории риска подчёркивает техническую реальность, которую многие в отрасли недооценивали: возможность того, что Мощный ИИ системы, спроектированные быть полезными, могут развить инструментальные цели, противоречащие безопасности людей.

Коррекция политических качелей

Одной из самых поразительных частей эссе является критика текущего политического ландшафта. Он отмечает, что в 2023 и 2024 годах мир, возможно, был слишком сосредоточен на «дудеризме» (doomerism), но маятник с тех пор качнулся слишком далеко в обратную сторону. По состоянию на январь 2026 года, утверждает он, политики в значительной степени руководствуются страхом упустить возможность (FOMO) и стремлением к национальному конкурентному преимуществу, часто игнорируя «реальную опасность», которая лишь приблизилась.

«Мы значительно ближе к реальной опасности в 2026 году, чем были в 2023-м», — предупреждает Амодеи. Он отмечает, что технологии не интересуются политической модой или рыночными трендами; их возможности продолжают масштабироваться независимо от того, обращает ли общество внимание на риски. Эта самодовольность, по его мнению, является истинным врагом.

Призыв к «хирургическим вмешательствам»

Несмотря на серьёзность своих предупреждений, Амодеи отличает себя от так называемых сторонников замедления развития. Он не призывает к полному прекращению развития ИИ, что, по его мнению, было бы и невозможным, и нежелательным с учётом потенциальных выгод. Вместо этого он выступает за «хирургические вмешательства» — точные, высокоэффективные нормативные и добровольные меры, направленные на снижение конкретных рисков без подавления инноваций.

Эти вмешательства включают:

  • Stricter Export Controls: Specifically targeting the hardware necessary to train the next generation of models.
  • Information Security: ensuring that the "weights" of powerful models are guarded with the same rigor as nuclear secrets to prevent theft by rogue states.
  • Rigorous Testing: Mandating that Безопасность ИИ (AI Safety) evaluations be conducted by independent third parties before any model above a certain compute threshold is deployed.

Последствия для отрасли ИИ

Для компаний, работающих в области генеративного ИИ, эссе Амодеи — это не просто философский трактат; это прогноз предстоящей нормативной среды. Если его прогнозы сбудутся, эпоха саморегулирования фактически закончится. Срок «1–2 года» до появления интеллекта, превосходящего человека, указывает на то, что окно для установления норм безопасности быстро закрывается.

Эссе заканчивается призывом к богатым частным лицам и филантропам финансировать исследования по безопасности и к демократическим правительствам усилить свои управленческие способности. По мере того как мы преодолеваем этот «подростковый возраст», решения, принятые в ближайшие 24 месяца, вероятно, определят, приведёт ли революция ИИ к золотому веку или к катастрофическому провалу нашего вида.

Рекомендуемые