
Известный автор научной фантастики, активист и журналист Cory Doctorow вынес резкое предупреждение относительно нынешнего состояния индустрии искусственного интеллекта (artificial intelligence, AI), охарактеризовав её как финансовый пузырь, обречённый на драматический крах. Однако среди предсказываемого обрушения — банкротств стартапов и закрытия дата‑центров — Доктороу прогнозирует устойчивое будущее для моделей с открытым исходным кодом (open-source AI models), которые предоставляют практичные утилитарные инструменты для создателей и разработчиков.
В всестороннем анализе, опубликованном на этой неделе, Доктороу утверждает, что нынешняя истерия вокруг генеративного ИИ (generative AI) движется скорее не технологической полезностью, а финансовыми императивами «акций роста» (growth stocks) и монополистических технологических гигантов. Хотя ближайшие перспективы для крупных капиталовложений в отрасль выглядят мрачными, долгосрочный прогноз предполагает сдвиг в сторону децентрализованных, локально управляемых инструментов ИИ, которые служат пользователям, а не подчиняют их себе.
Критика Доктороу начинается с финансовых структур, лежащих в основе Силиконовой долины. Он высказывает предположение, что нынешний бум ИИ — прямое следствие парадокса «акций роста» (growth stocks). Крупные технологические монополии, уже захватившие доминирующие доли рынков в таких секторах, как поиск, реклама и мобильные платформы, сталкиваются с кризисом роста. Чтобы поддерживать высокие коэффициенты цена/прибыль (PE), которые требуют инвесторы, эти компании вынуждены постоянно выдумывать и раздувать новые «истории роста».
По мнению Доктороу, ИИ — последняя в ряду таких нарративов, следуя по стопам метавселенной, NFT и криптовалют. Сотни миллиардов долларов, втекающие в инфраструктуру ИИ, не обязательно отражают немедленную прибыльность технологии; они используются чтобы убедить рынок, что эти зрелые компании всё ещё способны на экспоненциальный рост.
Опасность, как описано в анализе, заключается в том, что такие спекулятивные инвестиции создают пузырь, который математически невозможно поддерживать. Когда рынок в конечном итоге скорректируется — осознав, что технология не способна заменить труд в обещанных масштабах — стоимость этих компаний рухнет, что приведёт к широкомасштабной коррекции в отрасли.
Центральная тема в аргументах Доктороу — различие между двумя типами взаимодействия человека и машины: «Кентавр» (Centaur) и «Обратный кентавр» (Reverse Centaur). Эта схема помогает объяснить, почему текущие корпоративные развертывания ИИ часто кажутся эксплуататорскими, а не наделяющими полномочиями.
Table 1: «Кентавр» (Centaur) vs. «Обратный кентавр» (Reverse Centaur)
| Понятие | Определение | Пример сценария |
|---|---|---|
| Кентавр | Человек, которому помогает машина, чтобы повысить возможности и эффективность. Человек сохраняет контроль над результатом. |
Писатель, использующий автозаполнение для ускорения набора текста или программист, использующий ИИ для выполнения повторяющегося синтаксиса. |
| Обратный кентавр | Человек, выступающий как биологический придаток машины. Машина задаёт темп и параметры работы. |
Курьер, контролируемый камерами с ИИ для отслеживания движения глаз и показателей эффективности. |
Доктороу предупреждает, что текущая корпоративная стратегия сосредоточена на создании «обратных кентавров». Цель не в том, чтобы сделать работников сильнее, а в том, чтобы деградировать навыки труда до такой степени, чтобы высокооплачиваемых специалистов (например, радиологов или старших разработчиков) можно было заменить или заставить смириться с понижением зарплаты. В этой модели человека оставляют в цепочке в основном как «ёмкость для ответственности» — того, кого можно обвинить, когда автоматизированная система неизбежно совершит катастрофическую ошибку.
Несмотря на агрессивные маркетинговые заявления о том, что ИИ заменит огромные пласты рабочей силы, Доктороу утверждает, что технология по своей сути не способна сделать это эффективно в её нынешнем виде. Он приводит область радиологии как яркий пример. Хотя ИИ может выявлять паттерны на рентгеновских снимках, бизнес-модель, двигающая его внедрение, нацелена не на точность или исходы для пациентов, а на сокращение расходов.
Риск состоит в замещении экспертного человеческого суждения автоматизированной системой, которая статистически впечатляет, но склонна к галлюцинациям (hallucinations). В разработке программного обеспечения это проявляется как сгенерированный ИИ код, который кажется рабочим, но содержит тонкие, опасные ошибки — например, «галлюцинированные» библиотеки кода, которых не существует, или, ещё хуже, которые были заявлены злоумышленниками с целью компрометации систем.
Анализ предполагает, что чтобы ИИ действительно стал ценен для корпораций в том виде, как этого ожидают инвесторы, он должен заменить высокооплачиваемый труд. Однако именно в этих ролях стоимость ошибки максимальна и где человеческий надзор наиболее критичен. Это расхождение между обещанием замены труда и реальностью технических ограничений является одним из главных факторов, нагнетающих пузырь.
Одним из наиболее значимых юридических фронтов для ИИ является вопрос авторского права. Доктороу предлагает контрарную позицию против растущих призывов к новым законам об авторском праве, которые защищали бы данные для обучения ИИ. Он утверждает, что расширение авторских прав, запрещающее обучение на публичных данных, сыграет против интересов широкой публики, только укрепив власть крупных медиа‑монополий, которые уже контролируют права на огромные каталоги контента.
Вместо этого Доктороу поддерживает текущую позицию Бюро авторского права США, которое последовательно решало, что произведения, созданные исключительно ИИ, не могут быть защищены авторским правом, так как им не хватает человеческого авторства. Этот юридический принцип имеет глубокие последствия:
Держая выводы ИИ в общественном достоянии, правовая система снижает стимулы корпораций полностью автоматизировать творческие процессы, так как они потеряют права интеллектуальной собственности, лежащие в основе их бизнес‑моделей.
Хотя прогноз о крахе рынка мрачен, перспектива Доктороу не полностью пессимистична. Он проводит параллель с дотком‑пузырём и телеком‑мошенничеством начала 2000-х. Хотя компании вроде WorldCom рухнули из‑за мошенничества и неэффективного управления, проложенная ими волоконно‑оптическая инфраструктура осталась под землёй и в конечном итоге стала основой современного интернета.
Аналогично, по прогнозу Доктороу, когда пузырь ИИ лопнет, «асбест» токсичных финансовых активов и бесполезного хайпа будет снят, оставив ценные остатки.
Что выживет после краха:
Доктороу представляет будущее, в котором «Большой ИИ» (Big AI) — массивные фундаментальные модели, работающие в централизованных, энергоёмких дата‑центрах — отступает. На их место придёт распространение «Малого ИИ» (Small AI): локальных плагинов и инструментов, выполняющих конкретные полезные задачи без наблюдения и подписных сборов.
Эти выжившие инструменты, вероятно, будут выполнять утилитарные задачи, такие как:
Эти приложения, свободные от давления необходимости приносить триллионные доходы, будут работать как подлинные утилиты — «плагины», повышающие продуктивность без требования перестраивать всю экономику или подчинять рабочую силу.
Взгляд, представленный Доктороу, ставит под сомнение неизбежность нынешнего нарратива об ИИ. Отделяя технологию от финансовой спекуляции, он освещает путь вперёд, который отдаёт предпочтение устойчивости с открытым исходным кодом вместо корпоративной монополии. Для сообщества ИИ послание ясно: пузырь может лопнуть, но инструменты, которые действительно наделяют пользователей властью, выживут, если они будут построены на основе открытости и человеческого контроля.
Пока отрасль борется с этими прогнозами, фокус разработчиков и творцов вполне может сместиться от погони за следующей огромной оценкой в сторону создания устойчивых, локальных и ориентированных на человека инструментов, которые определят постпузырную ландшафт.