AI News

Davos 2026: A Grande Divisão da Inteligência Artificial Geral (AGI — Artificial General Intelligence) — O "Closed Loop" de Amodei vs. Modelos do Mundo (World Models) de LeCun

Davos, Suíça — Os picos nevados de Davos há muito servem de cenário para as discussões econômicas mais consequentes do mundo, mas no Fórum Econômico Mundial 2026 a temperatura dentro do Centro de Congressos estava significativamente mais alta do que o ar congelante lá fora. Em um momento definidor para a indústria da inteligência artificial, três de suas figuras mais proeminentes — Demis Hassabis, da DeepMind; Dario Amodei, da Anthropic; e Yann LeCun, da Meta — apresentaram roteiros radicalmente divergentes para o futuro da Inteligência Artificial Geral (AGI — Artificial General Intelligence), revelando uma fratura ideológica e técnica em aprofundamento nos níveis mais altos da pesquisa em IA.

A sessão, apelidada coloquialmente de "O Dia Depois da AGI" pelos participantes, foi além das platitudes teóricas dos anos anteriores. Em vez disso, revelou um conflito nítido entre aqueles que acreditam que a AGI é uma inevitabilidade iminente impulsionada pelas leis de escala e aqueles que defendem que a arquitetura dominante atual — os Modelos de Linguagem de Grande Escala (LLMs — Large Language Models) — é um beco sem saída fundamental no caminho para a verdadeira inteligência.

O Caso Aceleracionista: Amodei e o "Closed Loop"

Dario Amodei, CEO da Anthropic, abriu o debate com o cronograma mais agressivo, declarando efetivamente que a era da engenharia de software conduzida por humanos está chegando ao fim. Amodei, cuja empresa tem estado na vanguarda da segurança e da dirigibilidade em IA, surpreendeu muitos ao sugerir que o "loop fechado" de autoevolução da IA já foi ativado.

"Não estamos mais operando em um quadro teórico onde humanos iteram manualmente na arquitetura dos modelos", disse Amodei ao auditório lotado. "Entramos em uma fase em que os modelos estão escrevendo seu próprio código. Tenho engenheiros na Anthropic que, francamente, dizem que não escrevem mais código; eles supervisionam o modelo enquanto ele escreve o código. Uma vez que você fecha esse loop — onde a IA constrói IA melhor — a linha do tempo se comprime drasticamente."

Amodei previu que a Inteligência Artificial Geral (AGI) poderia chegar já em 2027 ou 2028. Seu argumento pivotou na observação de que, embora restrições físicas (como fabricação de chips e infraestrutura de energia) permaneçam, o gargalo intelectual do desenho de algoritmos está se dissolvendo.

As implicações socioeconômicas do prognóstico de Amodei foram sóbrias. Ele reforçou seu alerta de que até 50% das tarefas de colarinho branco de nível inicial, particularmente em análise de dados e codificação, poderiam ser deslocadas nos próximos 12 a 24 meses. "O deslocamento de cargos juniores não é um risco futuro; é uma realidade operacional que estamos vendo hoje no Silicon Valley", observou, instando os formuladores de políticas a se prepararem para um choque no mercado de trabalho que se move mais rápido do que os ciclos legislativos.

O Realista Científico: Hassabis sobre a Lacuna Físico-Digital

Sir Demis Hassabis, CEO da Google DeepMind, ofereceu uma contra-narrativa que, embora otimista, introduziu ressalvas significativas quanto à definição de inteligência. Reconhecendo o rápido progresso no "reino digital" de codificação e matemática, Hassabis argumentou que o salto para o "reino físico" da descoberta científica continua sendo um obstáculo formidável que os Modelos de Linguagem de Grande Escala (Modelos de Linguagem de Grande Escala) sozinhos não conseguem transpor.

"Há uma diferença profunda entre resolver um problema de matemática onde as regras são axiomáticas e inventar uma nova hipótese em biologia onde as regras são confusas, incompletas e físicas", argumentou Hassabis. Ele manteve um cronograma mais conservador, estimando 50% de chance de atingir a AGI dentro de cinco a dez anos — colocando a chegada mais perto de 2030 do que de 2027, como sugerido por Amodei.

Hassabis enfatizou que a estratégia da DeepMind foca em IA com prioridade na Ciência ("Science First" AI). Ele apontou para avanços recentes em que sucessores do AlphaFold começaram a modelar não apenas estruturas proteicas, mas interações biológicas complexas que levam à descoberta de medicamentos. No entanto, ele advertiu contra confundir competência linguística com criatividade científica. "Surgir com a pergunta em primeiro lugar — esse é o estopim da inteligência geral. Estamos vendo máquinas que conseguem executar respostas com brilho, mas ainda não vimos uma máquina que consiga formular um novo paradigma científico."

Para Hassabis, o caminho para a AGI requer integrar as capacidades de raciocínio dos Modelos de Linguagem de Grande Escala com sistemas fundamentados em simulação e busca — uma abordagem híbrida que vai além da previsão do próximo token para planejamento real e resolução de problemas no espaço físico.

O Desafio do Cético: A Guerra de LeCun aos Modelos Auto-Regressivos

Se Amodei representou o acelerador e Hassabis o volante, Yann LeCun, Cientista Chefe de IA da Meta, posicionou-se como o freio no trem do hype. LeCun fez uma crítica contundente à dependência da indústria em Modelos de Linguagem de Grande Escala, reiterando sua posição controversa de que "os LLMs não levarão à AGI."

O argumento de LeCun centra-se na eficiência de dados e na modelagem do mundo. Ele apresentou uma análise comparativa da aprendizagem humana versus o treinamento de máquinas que desmontou a ideia de que mais dados textuais equivalem a mais inteligência. "Uma criança de quatro anos viu talvez 16.000 horas de dados visuais e entende física, causalidade e permanência de objetos melhor do que nossos maiores modelos", afirmou LeCun. "Em contraste, um Modelo de Linguagem de Grande Escala que foi alimentado com o equivalente a 400.000 anos de material de leitura humano ainda alucina fatos básicos porque não tem ancoragem na realidade."

LeCun defendeu sua Arquitetura Preditiva de Embedding Conjunta (JEPA — Joint Embedding Predictive Architecture) como a alternativa necessária. Ele sustentou que, para a IA atingir níveis humanos, é preciso afastar-se da geração de texto auto-regressiva (prever a próxima palavra) e caminhar em direção a Modelos do Mundo (World Models) que possam prever o estado do mundo em representações abstratas.

"O texto é uma projeção de baixa largura de banda de um mundo de alta largura de banda", afirmou LeCun. "Ao treinar modelos principalmente em texto, estamos tentando reconstruir o elefante olhando para sua sombra. Você não pode construir uma máquina que planeja ou raciocina no mundo físico apenas prevendo o próximo token em uma frase. É uma impossibilidade matemática."

Análise Comparativa das Perspectivas de Liderança

Para entender a escala da divergência em Davos, é essencial olhar para as previsões específicas e as apostas técnicas feitas por esses três líderes. A tabela a seguir resume suas posições conflitantes.

Table: The Davos 2026 AI Leadership Divide

Leader Organization Projected AGI Timeline Primary Technical Bottleneck Key Quote/Stance
Dario Amodei Anthropic (CEO) 2027-2028 (1-2 Years) Poder computacional e infraestrutura de energia; o gargalo de software já está se rompendo. "O 'closed loop' da autoevolução da IA começou. Engenheiros não escrevem código; eles gerenciam modelos que o fazem."
Demis Hassabis Google DeepMind (CEO) 2030-2032 (5-10 Years) Transferir o raciocínio de axiomas digitais (matemática/código) para ciências físicas confusas. "Os reinos digitais estão desmoronando rápido, mas a criatividade científica e a geração de hipóteses continuam elusivas."
Yann LeCun Meta (Chief AI Scientist) >2035 (Skeptical of current path) A arquitetura fundamental dos LLMs; falta de Modelos do Mundo e de ancoragem. "Os LLMs são uma saída. Uma criança aprende física pela visão; modelos não podem aprendê-la apenas por texto."

O Impacto Econômico e Industrial

O debate em Davos vai muito além de um desacordo acadêmico; ele dita como trilhões de dólares em capital estão sendo alocados atualmente. Se Amodei estiver certo, a economia global estará a meros meses de uma "singularidade de software" onde o custo da inteligência cai para quase zero, exigindo discussões imediatas sobre Renda Básica Universal (UBI — Universal Basic Income) e uma reestruturação corporativa radical. O foco da Anthropic na adoção empresarial sugere que eles estão apostando tudo nessa capacidade disruptiva imediata.

Por outro lado, se LeCun estiver certo, a bolha atual de IA — alimentada pela suposição de que escalar parâmetros equivale a escalar a inteligência — corre o risco de estourar. Empresas que estão investindo bilhões em clusters de GPU para treinar Modelos de Linguagem de Grande Escala podem encontrar retornos decrescentes, forçando um pivô para arquiteturas radicalmente diferentes que a Meta está explorando. Isso validaria a abordagem mais fragmentada e experimental da comunidade de código aberto em detrimento do escalonamento monolítico de modelos de organizações como OpenAI e Anthropic.

Hassabis oferece um caminho intermediário que talvez seja o mais palatável para a elite de Davos: uma evolução constante e de alto risco em que a IA desbloqueia avanços "pós-escassez" em energia (fusão) e biologia (longevidade) antes de substituir completamente a cognição humana. Sua visão alinha-se à profunda integração da Google da IA na infraestrutura, sugerindo um futuro onde a IA é uma ferramenta para abundância científica em vez de apenas um substituto para o trabalho de colarinho branco.

Conclusão: O Consenso Fraturado

Quando os delegados deixaram o Centro de Congressos, o consenso que um dia uniu a comunidade de IA — de que "escala é tudo que você precisa" — parecia visivelmente fraturado. O debate de Davos 2026 destacou que, embora o destino (AGI) permaneça compartilhado, o veículo e o mapa estão ferozmente contestados.

Para o público da Creati.ai, a lição é clara: os próximos 12 meses serão o campo de provas. Se os modelos da Anthropic começarem a escrever software superior de forma autônoma, a linha do tempo de Amodei será corroborada. Se o progresso estagnar e as alucinações persistirem, o apelo de LeCun por uma nova arquitetura se tornará mais alto. Não estamos mais esperando que o futuro da IA seja escrito; estamos assistindo ao seu debate em tempo real, com o destino da economia global pendendo na balança.

Em Destaque