AI News

Генеральный директор OpenAI прогнозирует появление сверхинтеллекта к 2028 году на саммите AI Impact Summit

В определяющий момент на саммите AI Impact Summit 2026 в Нью-Дели генеральный директор OpenAI Сэм Олтмен (Sam Altman) выступил с поразительным прогнозом, который вызвал резонанс в мировом технологическом сообществе. Обращаясь к аудитории, состоящей из политиков, лидеров отрасли и исследователей, Олтмен предположил, что ранние формы сверхинтеллекта (Superintelligence) могут появиться в ближайшие несколько лет, особо выделив 2028 год как потенциальную веху, когда совокупный вычислительный интеллект мира может превзойти возможности человека.

Саммит, прошедший в Бхарат Мандапам, стал важнейшей платформой для глобального дискурса об ИИ, ознаменовав собой первый случай, когда встреча такого высокого уровня по вопросам управления ИИ была организована в странах Глобального Юга (Global South). Комментарии Олтмена подчеркивают стремительное ускорение разработок в области ИИ, которое опережает даже самые смелые исторические прогнозы.

Перемещение интеллектуального капитала в центры обработки данных

Одним из самых глубоких показателей, представленных Олтменом, стала меняющаяся география интеллекта. «К концу 2028 года большая часть интеллектуального потенциала мира может находиться внутри центров обработки данных, а не за их пределами», — заявил Олтмен. Эта визуализация представляет ближайшее будущее не просто как технологическое обновление, а как фундаментальный сдвиг в том, где сосредоточены когнитивные вычислительные мощности планеты.

Он подчеркнул, что этот переход обусловлен экспоненциальным масштабированием вычислительной инфраструктуры. Путь от систем, с трудом справляющихся со школьной математикой, до систем, способных выводить новые результаты в теоретической физике, был пройден менее чем за десятилетие. Олтмен охарактеризовал это как «вызов поколения», сравнив быстрое наращивание инфраструктуры ИИ с возведением лесов предыдущих промышленных революций, но с гораздо более крутой вертикальной траекторией.

Различные сроки: Олтмен против Хассабиса

Хотя на саммите сложился широкий консенсус относительно преобразующей силы ИИ, в сроках и оценках рисков, представленных ведущими фигурами, наблюдались нюансированные различия. Генеральный директор Google DeepMind Демис Хассабис (Demis Hassabis), также выступавший на саммите, предложил чуть более консервативный, но столь же неотложный график.

Сравнение ключевых прогнозов на саммите AI Impact Summit 2026

Лидер Прогнозные сроки Ключевая область внимания
Сэм Олтмен (OpenAI) Сверхинтеллект к 2028 году Мощности центров обработки данных, превосходящие человеческий интеллект
Демис Хассабис (DeepMind) Искусственный общий интеллект (Artificial General Intelligence, AGI) в течение 5–8 лет Научные открытия и «пороговые моменты»
Консенсус До 2030 года Срочная необходимость в защитных ограждениях и управлении

Хассабис предупредил, что, хотя мы находимся в «пороговом моменте», нынешним системам все еще не хватает последовательности и возможностей долгосрочного планирования, присущих человеческому познанию. Тем не менее, он предостерег, что появление общего искусственного интеллекта (AGI) уже «на горизонте», вероятно, к концу десятилетия.

Предупреждения о критических рисках: биобезопасность и «злоумышленники»

Оптимизм по поводу научных прорывов, таких как потенциал ИИ в лечении болезней или решении задач физики термоядерного синтеза, уравновешивался резкими предупреждениями относительно безопасности. Демис Хассабис был особенно категоричен в вопросе о характере двойного назначения передовых систем ИИ.

Хассабис выделил две непосредственные области, требующие срочного внимания:

  • Биобезопасность (Biosecurity): Потенциал моделей ИИ помогать в создании новых патогенов или биологического оружия.
  • Кибербезопасность (Cybersecurity): Риск использования систем ИИ для эксплуатации цифровых уязвимостей в масштабах и со скоростью, от которых люди не смогут защититься.

«Нам нужно очень скоро начать беспокоиться о таких вещах, как био- и киберриски в ИИ», — призвал Хассабис, отметив, что «злоумышленники» — от отдельных лиц до целых государств — могут перепрофилировать эти мощные инструменты для вредоносных целей. Он выступил за строгий подход «научного метода» к безопасности ИИ, при котором защитные барьеры строятся и тестируются с такой же точностью, как и сами модели.

Три столпа демократического будущего ИИ

В своем выступлении Олтмен изложил структуру из трех частей, предназначенную для руководства ответственным развитием сверхинтеллекта. Он утверждал, что без этих столпов преимущества ИИ не будут распределены справедливо.

  1. Демократизация ИИ (Democratization of AI): Олтмен отверг концепцию «эффективного тоталитаризма» как компромисса ради безопасности. Он настаивал на том, что единственный путь вперед — это путь, который расширяет человеческую свободу действий и свободу, обеспечивая широкий доступ к инструментам ИИ, а не концентрируя власть в руках немногих лабораторий или правительств.
  2. Устойчивость через общественную оборону (Resilience Through Society-Wide Defense): Признавая, что ни одна лаборатория не может обеспечить безопасность будущего, Олтмен призвал к «общесистемному подходу» к обороне. Это предполагает создание систем, способных противостоять злоупотреблениям, гарантируя, что оборонительные возможности ИИ всегда будут превосходить наступательные.
  3. Совместная эволюция с обществом (Co-evolution with Society): Он подчеркнул, что развитие ИИ не может происходить в вакууме. «Большинство важных открытий случаются на стыке технологии и общества», — отметил Олтмен. Он выступил за стратегию итеративного развертывания, позволяющую обществу адаптироваться к технологии и формировать ее в режиме реального времени, а не получать готовый, ошеломляющий продукт.

Стратегическая роль Индии в ландшафте ИИ

Повторяющейся темой на протяжении всего саммита была уникальная позиция Индии, позволяющая ей влиять на траекторию глобального ИИ. Учитывая, что один из 100 миллионов человек в Индии уже еженедельно использует ChatGPT, и треть из них — студенты, страна быстро становится испытательным полигоном для массового внедрения ИИ.

Ключевые факторы, позиционирующие Индию как державу в области ИИ:

  • Демографический масштаб: Огромное молодое население, являющееся «цифровым поколению».
  • Темпы внедрения: Индия в настоящее время является самым быстрорастущим рынком для Codex, инструмента программирования от OpenAI.
  • Лидерство в управлении: Как крупнейшая демократия в мире, Индия рассматривается как критический противовес авторитарным моделям управления ИИ.

«Индия имеет все возможности для лидерства в области ИИ — не только для того, чтобы создавать его, но и для того, чтобы формировать его и решать, как будет выглядеть наше будущее», — заметил Олтмен. Эту мысль поддержал премьер-министр Нарендра Моди, представив концепцию «разрабатывай в Индии, разрабатывай для мира», сделав акцент на этичном и инклюзивном ИИ.

Экономические потрясения и «стандарт GPU»

Касаясь экономических опасений, которые часто сопровождают достижения в области ИИ, Олтмен был откровенен в отношении предстоящих потрясений. Он отметил, что во многих конкретных задачах «будет очень трудно переработать GPU», что сигнализирует о фундаментальных изменениях на рынке труда. Тем не менее, он сохранил оптимистичный взгляд на адаптивность человека, предположив, что технологии всегда вытесняют рабочие места, одновременно создавая «новые и лучшие занятия».

Консенсус саммита ясен: эра теоретических дискуссий о сверхинтеллекте заканчивается. Технология переходит в осязаемую реальность с высокими ставками. Поскольку такие лидеры, как Олтмен и Хассабис, предсказывают ключевые прорывы еще до конца десятилетия, фокус полностью сместился на готовность, управление и обеспечение того, чтобы интеллект, находящийся в центрах обработки данных, служил человечеству, находящемуся за их пределами.

Рекомендуемые