
No India AI Impact Summit em Nova Deli esta semana, o CEO da Google DeepMind, Demis Hassabis, proferiu uma palestra definidora que equilibrou o otimismo tecnológico com uma cautela geopolítica urgente. Falando para uma assembleia global de formuladores de políticas, líderes da indústria e pesquisadores, Hassabis ofereceu um de seus cronogramas mais concretos até agora para a chegada da Inteligência Artificial Geral (Artificial General Intelligence - AGI), prevendo seu surgimento nos próximos "5 a 10 anos". No entanto, essa previsão foi acompanhada por um alerta contundente: a janela para estabelecer estruturas robustas de segurança internacional está se fechando à medida que os sistemas de IA transitam de ferramentas passivas para agentes autônomos.
O summit, ocorrendo em meio a um período de rápida aceleração nas capacidades de IA generativa (Generative AI), serviu de pano de fundo para Hassabis delinear o "momento de limiar" que a indústria enfrenta agora. Ao mesmo tempo em que celebrava o potencial para uma nova "era de ouro da descoberta científica", ele enfatizou que a natureza de uso dual (dual-use) da IA avançada — capaz de trazer tanto benefícios imensos quanto danos significativos — exige um nível de cooperação global que atualmente está aquém do progresso tecnológico.
O discurso de Hassabis forneceu uma avaliação rara e franca das limitações dos modelos de ponta atuais. Apesar do hype em torno dos recentes avanços da IA generativa, ele caracterizou os sistemas de hoje como "inteligências irregulares" (jagged intelligences). Este termo descreve modelos que demonstram brilho sobre-humano em domínios específicos — como codificação ou escrita criativa — enquanto falham simultaneamente em tarefas de raciocínio elementar que uma criança humana poderia realizar com facilidade.
"Estamos começando a ver o que esses sistemas podem fazer, mas eles permanecem frágeis", observou Hassabis durante sua sessão. Ele apontou que, embora um modelo possa ganhar uma medalha de ouro na Olimpíada Internacional de Matemática, ele pode tropeçar em aritmética simples se a pergunta for formulada de forma não convencional. Essa inconsistência, argumentou ele, é a principal barreira que separa a IA estreita atual da verdadeira AGI.
Para ilustrar o salto necessário para alcançar a AGI, Hassabis propôs um experimento mental ambicioso envolvendo inovação científica. Ele sugeriu que uma verdadeira AGI deveria ser capaz de passar por treinamento com um limite de conhecimento de 1911 e derivar independentemente a teoria da relatividade geral, replicando o avanço de Albert Einstein de 1915. "É muito mais difícil formular a pergunta certa e a hipótese certa do que resolver a conjectura", explicou ele. Os sistemas atuais, que se destacam na interpolação de dados existentes, ainda carecem dos "modelos de mundo" (world models) e das capacidades de planejamento de longo prazo necessárias para tais saltos conceituais originais.
No entanto, o cofundador da DeepMind permanece confiante de que essas lacunas estão sendo superadas rapidamente. Ele citou o surgimento de sistemas "agentes" (agentic) — IA que pode tomar ações autônomas para atingir objetivos de alto nível — como a próxima fase principal. Espera-se que essa transição de interações estilo chatbot para fluxos de trabalho baseados em agentes se acelere ao longo do próximo ano, impulsionando a indústria em direção à meta de 5 a 10 anos para a AGI.
À medida que o cronograma para a AGI se comprime, o potencial de mau uso cresce. Hassabis dedicou uma parte significativa de seu discurso à natureza de "uso dual" dos sistemas de IA de fronteira. As mesmas capacidades que permitem que a IA acelere a descoberta de medicamentos ou otimize redes de energia podem ser reaproveitadas por "maus atores" — que variam de indivíduos mal-intencionados a Estados-nação hostis — para infligir danos.
Ele destacou duas áreas específicas de preocupação imediata: biossegurança e risco cibernético.
No reino da biossegurança, a preocupação é que a IA possa diminuir a barreira de entrada para a criação de agentes biológicos prejudiciais. Embora ferramentas de IA como o AlphaFold tenham revolucionado a biologia ao prever estruturas de proteínas, tecnologias semelhantes poderiam, teoricamente, ser usadas para projetar toxinas ou patógenos se não houver salvaguardas adequadas.
A segurança cibernética (Cybersecurity) apresenta uma volatilidade ainda mais imediata. "Os sistemas atuais estão ficando muito bons em cibernética", alertou Hassabis, ressaltando que a indústria deve garantir que "as defesas sejam mais fortes do que as ofensivas". À medida que os agentes de IA se tornam capazes de escrever e executar códigos complexos, o risco de ataques cibernéticos automatizados escalarem além da capacidade das equipes de defesa humanas torna-se uma realidade tangível. Isso exige uma abordagem proativa onde a IA é usada para corrigir vulnerabilidades mais rápido do que pode ser usada para explorá-las.
A tabela a seguir descreve as distinções críticas traçadas por Hassabis entre os modelos de IA implantados hoje e os sistemas de AGI antecipados para a próxima década.
| Métrica | Inteligência "Irregular" Atual | Futura Inteligência Artificial Geral (AGI) |
|---|---|---|
| Consistência de Desempenho | Alta variância; brilhante em algumas tarefas, falhando no básico | Competência uniformemente alta em todos os domínios cognitivos |
| Metodologia de Aprendizado | Conjuntos de treinamento estáticos; "congelados" após a implantação | Aprendizado online contínuo; atualizações a partir de experiência em tempo real |
| Capacidade de Raciocínio | Correspondência de padrões e previsão estatística | Raciocínio causal, geração de hipóteses e modelagem de mundo |
| Nível de Autonomia | Ferramenta passiva que requer comando humano | Agente; capaz de planejamento de longo prazo e ação independente |
| Principal Fator de Risco | Alucinação e viés | Desalinhamento, perda de controle e proliferação de uso dual |
A natureza sem fronteiras da inteligência digital torna-a um desafio regulatório único. Hassabis argumentou que nenhum país sozinho pode conter efetivamente os riscos da IA, já que dados e modelos fluem instantaneamente entre jurisdições. Ele pediu uma estrutura internacional semelhante às estabelecidas para a energia nuclear ou as mudanças climáticas, embora tenha reconhecido a dificuldade de alcançar isso no atual clima geopolítico fragmentado.
"Está se tornando um ponto de encontro incrivelmente importante para o diálogo internacional", disse Hassabis sobre o summit, elogiando o papel da Índia em facilitar essas conversas críticas. Ele posicionou explicitamente a Índia como uma futura "potência para a IA", citando a profundidade do talento de engenharia do país e sua rápida adoção de infraestrutura digital.
No entanto, o caminho para a cooperação global está repleto de tensões. Diferentes nações estão priorizando atualmente diferentes aspectos da política de IA — algumas focando no domínio da inovação, outras na conformidade estrita de segurança. A mensagem de Hassabis foi clara: sem um conjunto mínimo de padrões globais, particularmente em relação à implantação de agentes autônomos e salvaguardas de biossegurança, o mundo corre o risco de uma "corrida para o fundo" em termos de segurança.
Apesar do foco intenso nos riscos, o cerne da mensagem de Hassabis permaneceu enraizado no potencial transformador da IA para a ciência. Ele descreveu a próxima década como uma "nova Renascença", onde ferramentas de IA desvendarão mistérios na física, biologia e ciência de materiais que confundiram pesquisadores por décadas.
Este otimismo é sustentado pelo histórico da própria DeepMind. Desde dominar o jogo de Go até resolver o problema do dobramento de proteínas, a empresa demonstrou consistentemente que a IA pode resolver problemas complexos e indefinidos. A transição para a AGI, na visão de Hassabis, não se trata apenas de construir chatbots mais inteligentes, mas de criar a ferramenta definitiva para a expansão do conhecimento. "Sempre acreditei que a IA seria uma das tecnologias mais importantes e benéficas já inventadas", refletiu ele, observando que sua busca ao longo da carreira foi impulsionada pelo desejo de acelerar a descoberta científica.
Do ponto de vista da Creati.ai, os comentários de Hassabis no India AI Impact Summit sinalizam uma mudança crítica na narrativa da indústria. Estamos nos afastando do deslumbre inicial com textos e imagens generativos em direção ao trabalho sério e complexo de construir agentes autônomos confiáveis.
Para empresas e desenvolvedores, a natureza "irregular" dos modelos atuais é um ponto de atrito conhecido. A promessa da AGI implica um futuro onde a confiabilidade da IA não seja mais uma questão de sorte, mas uma garantia. No entanto, o cronograma de 5 a 10 anos sugere que as empresas devem permanecer ágeis — investindo em ferramentas atuais enquanto preparam sua infraestrutura para um salto radical em capacidade.
A ênfase na segurança também indica que a próxima onda de produtos de IA provavelmente enfrentará um escrutínio mais rigoroso em relação ao seu potencial de "uso dual". Antecipamos um aumento na demanda por plataformas de segurança de IA — ferramentas projetadas especificamente para monitorar, auditar e proteger sistemas de IA agentes. À medida que a indústria digere o alerta de Hassabis, o foco provavelmente se voltará para o desenvolvimento de IA focado primeiro na defesa, garantindo que os sistemas que construímos hoje não se tornem as vulnerabilidades de amanhã.