
Em um momento decisivo no AI Impact Summit 2026 em Nova Déli, o CEO da OpenAI, Sam Altman, fez uma previsão surpreendente que gerou repercussões em toda a comunidade tecnológica global. Falando para um público de formuladores de políticas, líderes da indústria e pesquisadores, Altman sugeriu que formas iniciais de superinteligência (superintelligence) poderiam surgir nos próximos anos, visando especificamente 2028 como um marco potencial onde a inteligência computacional agregada do mundo poderá ultrapassar a capacidade humana.
O encontro, realizado no Bharat Mandapam, tornou-se uma plataforma fundamental para o discurso global sobre IA, marcando a primeira vez que uma reunião de governança de IA de alto nível foi sediada no Sul Global (Global South). Os comentários de Altman ressaltam uma aceleração rápida no desenvolvimento de IA que está superando até mesmo as previsões históricas mais agressivas.
Uma das métricas mais profundas que Altman introduziu foi a mudança na geografia da inteligência. "Até o final de 2028, mais da capacidade intelectual do mundo poderá residir dentro de data centers do que fora deles", afirmou Altman. Essa visualização molda o futuro iminente não apenas como uma atualização tecnológica, mas como uma mudança fundamental no local onde o poder de processamento cognitivo do planeta está situado.
Ele enfatizou que essa transição é impulsionada pela escala exponencial da infraestrutura de computação (compute infrastructure). A progressão de sistemas que lutavam com matemática do ensino médio para aqueles capazes de derivar novos resultados de física teórica ocorreu em menos de uma década. Altman definiu isso como um "desafio geracional", comparando a rápida construção da infraestrutura de IA ao andaime de revoluções industriais anteriores, mas com uma trajetória vertical muito mais acentuada.
Embora o encontro tenha apresentado um amplo consenso sobre o poder transformador da IA, houve diferenças sutis nos cronogramas e avaliações de risco fornecidos por figuras proeminentes. O CEO da Google DeepMind, Demis Hassabis, que também discursou no encontro, ofereceu um cronograma um pouco mais conservador, mas igualmente urgente.
Comparação das Principais Previsões no AI Impact Summit 2026
| Líder | Cronograma de Previsão | Principal Área de Foco |
|---|---|---|
| Sam Altman (OpenAI) | Superinteligência até 2028 | Capacidade de data centers superando a inteligência humana |
| Demis Hassabis (DeepMind) | IA Geral (AGI) dentro de 5 a 8 anos | Descoberta científica e "momentos de limiar" |
| Consenso | Antes de 2030 | Necessidade urgente de proteções (guardrails) de segurança e governança |
Hassabis alertou que, embora estejamos em um "momento de limiar", os sistemas atuais ainda carecem da consistência e das capacidades de planejamento de longo prazo da cognição humana. No entanto, ele alertou que a chegada da Inteligência Artificial Geral (Artificial General Intelligence - AGI) está "no horizonte", provavelmente até o final da década.
O otimismo em torno de avanços científicos — como o potencial da IA para curar doenças ou resolver a física da fusão — foi equilibrado por avisos contundentes em relação à segurança. Demis Hassabis foi particularmente enfático sobre a natureza de uso duplo dos sistemas avançados de IA.
Hassabis destacou duas áreas imediatas de preocupação que exigem atenção urgente:
"Precisamos nos preocupar com coisas como riscos biológicos e cibernéticos na IA muito em breve", instou Hassabis, observando que "agentes mal-intencionados" (bad actors) — que variam de indivíduos isolados a Estados-nação — poderiam reaproveitar essas ferramentas poderosas para fins prejudiciais. Ele defendeu uma abordagem de "método científico" (scientific method) para a segurança da IA, onde as proteções (guardrails) são construídas e testadas com a mesma precisão que os próprios modelos.
Em seu discurso, Altman delineou uma estrutura de três partes projetada para guiar o desenvolvimento responsável da superinteligência. Ele argumentou que, sem esses pilares, os benefícios da IA não seriam distribuídos de forma equitativa.
Um tema recorrente durante o encontro foi a posição única da Índia para influenciar a trajetória da IA global. Com uma em cada 100 milhões de pessoas na Índia já usando o ChatGPT semanalmente, e um terço desse grupo sendo estudantes, o país está se tornando rapidamente um campo de testes para a adoção em massa da IA.
Fatores-chave que posicionam a Índia como uma potência de IA:
"A Índia está bem posicionada para liderar na IA — não apenas para construí-la, mas para moldá-la e decidir como será o nosso futuro", comentou Altman. Esse sentimento foi ecoado pelo Primeiro-Ministro Narendra Modi, que apresentou uma visão de "desenvolver na Índia, desenvolver para o mundo", enfatizando uma IA ética e inclusiva.
Ao abordar as ansiedades econômicas que frequentemente acompanham os avanços da IA, Altman foi sincero sobre as disrupções futuras. Ele observou que, em muitas tarefas específicas, "será muito difícil superar uma GPU (Graphics Processing Unit)", sinalizando uma mudança fundamental no mercado de trabalho. No entanto, ele manteve uma perspectiva otimista sobre a adaptabilidade humana, sugerindo que a tecnologia sempre desloca empregos enquanto cria simultaneamente "coisas novas e melhores para fazer".
O consenso do encontro é claro: a era das discussões teóricas sobre a superinteligência está terminando. A tecnologia está transitando para uma realidade tangível e de alto risco. Com líderes como Altman e Hassabis prevendo avanços fundamentais antes do fim da década, o foco mudou inteiramente para a preparação, governança e garantia de que a inteligência residente nos data centers sirva à humanidade fora deles.