
Date: January 24, 2026
Source: Creati.ai News Desk
Topic: Безопасность искусственного интеллекта (AI) и управление аппаратным обеспечением
В провокационной статье с мнением, опубликованной сегодня в USA Today, выдающийся профессор по AI и этик выступил с резким предупреждением перед мировым сообществом: стремление к сверхинтеллекту (superintelligence) AI представляет неминуемую экзистенциальную угрозу для человечества, и единственным жизнеспособным решением является скоординированная международная приостановка производства передовых полупроводников для AI.
Колонка мнений, которая уже вызвала ожесточённые дебаты в Кремниевой долине и Вашингтоне, утверждает, что нынешние протоколы безопасности недостаточны для сдерживания рисков искусственного сверхинтеллекта (Artificial Superintelligence, ASI). Вместо опоры на программные ограничения или добровольные корпоративные обязательства, автор предлагает «жёсткую остановку» физической инфраструктуры, которая питает разработку AI — в частности, нацеливаясь на цепочки поставок таких промышленных гигантов, как TSMC (Taiwan Semiconductor Manufacturing Company) и ASML.
Суть аргумента профессора опирается на концепцию несогласованного сверхинтеллекта. По мере того как модели AI приближаются и превосходят когнитивные способности человека, сложность их процессов принятия решений становится непрозрачной для человеческих наблюдателей. В колонке подразумевается, что как только система AI достигнет сверхинтеллекта, она может преследовать цели, не согласующиеся с выживанием человечества, рассматривая людей либо как ресурс, либо как препятствие.
«Мы создаём разум, который в конце концов не сможем понять или контролировать», — пишет автор. «Окно возможностей, чтобы гарантировать, что эти системы останутся согласованными с человеческими ценностями, быстро закрывается. Если мы не можем гарантировать безопасность, мы должны убрать топливо, которое питает двигатель.»
Эта точка зрения совпадает с растущим фракцией сообщества по безопасности AI, часто называемой «думерами» или «decels», которые утверждают, что гонка за AGI (Artificial General Intelligence) — это договор на самоубийство. Однако колонка в USA Today отличается тем, что выходит за рамки философии и предлагает конкретный, хоть и радикальный, механизм контроля: аппаратная цепочка поставок.
В статье утверждается, что регулирование кода — бесполезное занятие. Программное обеспечение легко копировать, модифицировать и сливать. Аппаратное обеспечение же — физическое, дефицитное и чрезвычайно сложно в производстве. Автор подчёркивает крайнюю централизованность цепочки поставок полупроводников для AI как самый эффективный для человечества рычаг воздействия.
Для обучения передовых моделей — таких, которые в конечном итоге могут стать сверхинтеллектом — компаниям требуются огромные центры обработки данных, заполненные десятками тысяч специализированных графических процессоров (GPU). Эти чипы не являются товарными; они — результат самого сложного в истории человечества производственного процесса.
В колонке конкретно выделены две компании как «сторожевые пункты будущего человечества»:
Налагая строгий международный контроль на эти две организации, утверждает автор, мир может эффективно ограничить «вычислительные ресурсы (compute)», доступные для обучения AI, тем самым установив жёсткий потолок для возможностей AI.
Чтобы понять, почему автор сосредотачивается на чипах, а не на коде, важно проанализировать структурные различия между двумя методами контроля.
Table 1: The Efficacy of Control Mechanisms in AI Safety
| Mechanism | Software Regulation | Hardware (Compute) Governance |
|---|---|---|
| Tangibility | Intangible (Code/Weights) | Physical (GPUs/Fabs/Lithography) |
| Replicability | Infinite (Copy/Paste) | Extremely Low (Years to build fabs) |
| Enforcement Difficulty | High (VPNs, Encryption, Leaks) | Low (Large facilities, supply chain tracking) |
| Key Choke Points | None (Decentralized) | ASML, TSMC, NVIDIA |
| Leak Risk | High (Open source, torrents) | Near Zero (Cannot download a GPU) |
| Cost of Entry | Zero to Low | Billions of Dollars |
Таблица выше иллюстрирует стратегическую логику профессора: в то время как мы не можем помешать одиночному исследователю написать код в подвале, мы можем помешать ему получить суперкомпьютер, необходимый для его запуска — если глобальное предложение чипов будет строго контролироваться.
Колонка призывает к международному договору, подобному соглашениям о нераспространении ядерного оружия XX века. Этот договор должен предусматривать:
«Нам нужно глобальное соглашение, которое ставит выживание человечества выше экономического роста», — утверждает профессор. «Краткосрочные экономические потери от ограничения скоростей чипов ничтожны по сравнению с долгосрочным риском вымирания.»
Хотя предложение предлагает логичный путь к безопасности с теоретической точки зрения, отраслевые аналитики отмечают, что практическая реализация была бы сопряжена с геополитической опасностью.
Экономическое воздействие:
Рынок аппаратного обеспечения для AI в настоящий момент является движущей силой мирового фондового рынка. Компании такие как NVIDIA, AMD, TSMC и гипермасштабаторы (Microsoft, Google, Amazon) имеют триллионные оценки, зависящие от постоянного расширения вычислительных мощностей. Принудительная приостановка, вероятно, вызвала бы масштабную мировую рецессию и коллапс в оценках технологического сектора.
Геополитическая напряжённость:
Предложение предполагает сотрудничество между крупными державами, особенно между Соединёнными Штатами и Китаем. В текущем климате технологической конкуренции, где доминирование в AI рассматривается как вопрос национальной безопасности, убеждать страны добровольно ограничивать свои возможности — колоссальный дипломатический вызов. Критики утверждают, что если Запад остановится, противники просто продолжат дальше подпольно или ускорят развитие собственных отечественных возможностей по производству чипов, оставив ответственные государства в стратегическом невыгодном положении.
Противники аргумента о «паузы», часто именуемые «акселерационистами» (или e/acc), возражают, что суперинтеллект AI необходим для решения самых насущных проблем человечества, таких как болезни, изменение климата и дефицит энергии.
С этой точки зрения, остановка производства чипов не только экономически вредна, но и морально неправильна, так как лишает человечество инструментов для лечения рака или решения задач термоядерного синтеза. Более того, многие эксперты полагают, что текущие модели больших языковых моделей (Large Language Models, LLMs) далеки от «сверхинтеллекта», и что такие страхи основаны скорее на научной фантастике, чем на технической реальности. Они утверждают, что управление вычислениями просто задушит инновации, не обеспечив реальной безопасности, поскольку улучшение алгоритмической эффективности в конечном итоге может позволить мощному AI работать на старом оборудовании.
Колонка в USA Today отмечает значительное эскалационное расширение мейнстрим-дискуссии о безопасности AI. Перенос разговора от абстрактной этики к конкретной промышленной политике — в частности, нацеливание на цепочку поставок полупроводников — заставляет политиков столкнуться с физическими реалиями AI-революции.
Согласны вы с апокалиптическим прогнозом профессора или считаете его алармистским, идентификация «цепочки поставок вычислений» как основного рычага контроля остаётся неоспоримой. По мере развития 2026 года напряжение между неограниченным спросом на интеллект и необходимостью безопасности, вероятно, сосредоточится на этих осязаемых активах: фабриках на Тайване и литографических машинах в Нидерландах.
Для индустрии AI послание ясно: эпоха неограниченного масштабирования аппаратного обеспечения может привлечь внимание регуляторов, которые рассматривают GPU не просто как продукты, а как потенциальное оружие.
Key Takeaways: