AI News

OpenAI CEO prevê Superinteligência (Superintelligence) até 2028 no AI Impact Summit

Em um momento decisivo no AI Impact Summit 2026 em Nova Déli, o CEO da OpenAI, Sam Altman, fez uma previsão surpreendente que gerou repercussões em toda a comunidade tecnológica global. Falando para um público de formuladores de políticas, líderes da indústria e pesquisadores, Altman sugeriu que formas iniciais de superinteligência (superintelligence) poderiam surgir nos próximos anos, visando especificamente 2028 como um marco potencial onde a inteligência computacional agregada do mundo poderá ultrapassar a capacidade humana.

O encontro, realizado no Bharat Mandapam, tornou-se uma plataforma fundamental para o discurso global sobre IA, marcando a primeira vez que uma reunião de governança de IA de alto nível foi sediada no Sul Global (Global South). Os comentários de Altman ressaltam uma aceleração rápida no desenvolvimento de IA que está superando até mesmo as previsões históricas mais agressivas.

A Mudança do Capital Intelectual para Data Centers

Uma das métricas mais profundas que Altman introduziu foi a mudança na geografia da inteligência. "Até o final de 2028, mais da capacidade intelectual do mundo poderá residir dentro de data centers do que fora deles", afirmou Altman. Essa visualização molda o futuro iminente não apenas como uma atualização tecnológica, mas como uma mudança fundamental no local onde o poder de processamento cognitivo do planeta está situado.

Ele enfatizou que essa transição é impulsionada pela escala exponencial da infraestrutura de computação (compute infrastructure). A progressão de sistemas que lutavam com matemática do ensino médio para aqueles capazes de derivar novos resultados de física teórica ocorreu em menos de uma década. Altman definiu isso como um "desafio geracional", comparando a rápida construção da infraestrutura de IA ao andaime de revoluções industriais anteriores, mas com uma trajetória vertical muito mais acentuada.

Cronogramas Divergentes: Altman vs. Hassabis

Embora o encontro tenha apresentado um amplo consenso sobre o poder transformador da IA, houve diferenças sutis nos cronogramas e avaliações de risco fornecidos por figuras proeminentes. O CEO da Google DeepMind, Demis Hassabis, que também discursou no encontro, ofereceu um cronograma um pouco mais conservador, mas igualmente urgente.

Comparação das Principais Previsões no AI Impact Summit 2026

Líder Cronograma de Previsão Principal Área de Foco
Sam Altman (OpenAI) Superinteligência até 2028 Capacidade de data centers superando a inteligência humana
Demis Hassabis (DeepMind) IA Geral (AGI) dentro de 5 a 8 anos Descoberta científica e "momentos de limiar"
Consenso Antes de 2030 Necessidade urgente de proteções (guardrails) de segurança e governança

Hassabis alertou que, embora estejamos em um "momento de limiar", os sistemas atuais ainda carecem da consistência e das capacidades de planejamento de longo prazo da cognição humana. No entanto, ele alertou que a chegada da Inteligência Artificial Geral (Artificial General Intelligence - AGI) está "no horizonte", provavelmente até o final da década.

Avisos de Risco Críticos: Biossegurança e "Agentes Mal-intencionados"

O otimismo em torno de avanços científicos — como o potencial da IA para curar doenças ou resolver a física da fusão — foi equilibrado por avisos contundentes em relação à segurança. Demis Hassabis foi particularmente enfático sobre a natureza de uso duplo dos sistemas avançados de IA.

Hassabis destacou duas áreas imediatas de preocupação que exigem atenção urgente:

  • Biossegurança (Biosecurity): O potencial para modelos de IA auxiliarem na criação de novos patógenos ou armas biológicas.
  • Cibersegurança (Cybersecurity): O risco de sistemas de IA serem usados para explorar vulnerabilidades digitais em uma escala e velocidade que os humanos não conseguem defender.

"Precisamos nos preocupar com coisas como riscos biológicos e cibernéticos na IA muito em breve", instou Hassabis, observando que "agentes mal-intencionados" (bad actors) — que variam de indivíduos isolados a Estados-nação — poderiam reaproveitar essas ferramentas poderosas para fins prejudiciais. Ele defendeu uma abordagem de "método científico" (scientific method) para a segurança da IA, onde as proteções (guardrails) são construídas e testadas com a mesma precisão que os próprios modelos.

Três Pilares para um Futuro de IA Democrático

Em seu discurso, Altman delineou uma estrutura de três partes projetada para guiar o desenvolvimento responsável da superinteligência. Ele argumentou que, sem esses pilares, os benefícios da IA não seriam distribuídos de forma equitativa.

  1. Democratização da IA (Democratization of AI): Altman rejeitou a noção de "totalitarismo eficaz" como uma compensação pela segurança. Ele insistiu que o único caminho a seguir é aquele que aumenta a agência e a liberdade humana, garantindo amplo acesso às ferramentas de IA em vez de concentrar o poder nas mãos de alguns laboratórios ou governos.
  2. Resiliência por meio de defesa em toda a sociedade (Resilience Through Society-Wide Defense): Reconhecendo que nenhum laboratório sozinho pode garantir o futuro, Altman pediu uma "abordagem em toda a sociedade" para a defesa. Isso envolve a criação de sistemas que possam resistir ao uso indevido, garantindo que as capacidades defensivas de IA sempre superem as ofensivas.
  3. Coevolução com a sociedade (Co-evolution with Society): Ele enfatizou que o desenvolvimento da IA não pode acontecer no vácuo. "A maioria das descobertas importantes acontece quando a tecnologia e a sociedade se encontram", observou Altman. Ele defendeu uma estratégia de implantação iterativa, permitindo que a sociedade se adapte e molde a tecnologia em tempo real, em vez de ser apresentada a um produto acabado e avassalador.

O Papel Estratégico da Índia no Cenário da IA

Um tema recorrente durante o encontro foi a posição única da Índia para influenciar a trajetória da IA global. Com uma em cada 100 milhões de pessoas na Índia já usando o ChatGPT semanalmente, e um terço desse grupo sendo estudantes, o país está se tornando rapidamente um campo de testes para a adoção em massa da IA.

Fatores-chave que posicionam a Índia como uma potência de IA:

  • Escala Demográfica: Uma vasta população jovem que é digitalmente nativa.
  • Taxas de Adoção: A Índia é atualmente o mercado que mais cresce para o Codex, a ferramenta de codificação da OpenAI.
  • Liderança em Governança: Como a maior democracia do mundo, a Índia é vista como um contrapeso crítico aos modelos autoritários de governança de IA.

"A Índia está bem posicionada para liderar na IA — não apenas para construí-la, mas para moldá-la e decidir como será o nosso futuro", comentou Altman. Esse sentimento foi ecoado pelo Primeiro-Ministro Narendra Modi, que apresentou uma visão de "desenvolver na Índia, desenvolver para o mundo", enfatizando uma IA ética e inclusiva.

Disrupção Econômica e o "Padrão GPU"

Ao abordar as ansiedades econômicas que frequentemente acompanham os avanços da IA, Altman foi sincero sobre as disrupções futuras. Ele observou que, em muitas tarefas específicas, "será muito difícil superar uma GPU (Graphics Processing Unit)", sinalizando uma mudança fundamental no mercado de trabalho. No entanto, ele manteve uma perspectiva otimista sobre a adaptabilidade humana, sugerindo que a tecnologia sempre desloca empregos enquanto cria simultaneamente "coisas novas e melhores para fazer".

O consenso do encontro é claro: a era das discussões teóricas sobre a superinteligência está terminando. A tecnologia está transitando para uma realidade tangível e de alto risco. Com líderes como Altman e Hassabis prevendo avanços fundamentais antes do fim da década, o foco mudou inteiramente para a preparação, governança e garantia de que a inteligência residente nos data centers sirva à humanidade fora deles.

Em Destaque