
Em um momento decisivo para o campo da inteligência artificial, uma equipe multidisciplinar de docentes da Universidade da Califórnia em San Diego (UC San Diego) declarou formalmente que a Inteligência Artificial Geral (AGI) não é mais uma hipótese futurista, mas uma realidade presente. Publicada hoje como um comentário crucial na Nature, a declaração argumenta que os recentes avanços em Modelos de Linguagem de Grande Escala (LLMs) — especificamente o GPT-4.5 da OpenAI — satisfizeram os critérios necessários para a inteligência geral, conforme originalmente previsto por Alan Turing.
Esta afirmação audaciosa, em coautoria de professores que abrangem filosofia, ciência da computação, linguística e ciência de dados, desafia a mudança constante de critérios do ceticismo em relação à IA. Ao citar dados empíricos que mostram o GPT-4.5 alcançando uma taxa de sucesso de 73% em testes de Turing rigorosos e demonstrando capacidades de resolução de problemas em nível de doutorado, os autores sustentam que a humanidade entrou oficialmente na era da AGI.
Por décadas, o teste de Turing permaneceu como a "Estrela do Norte" da inteligência de máquina — um teste da capacidade de uma máquina de exibir comportamento inteligente equivalente ou indistinguível do de um ser humano. Embora os críticos tenham frequentemente descartado o teste como apenas uma medida de decepção ou mimetismo, os docentes da UC San Diego argumentam que ele continua sendo a métrica funcionalmente mais relevante para a inteligência geral.
O comentário na Nature ancora seu argumento em uma pesquisa inovadora conduzida pelos cientistas cognitivos Cameron Jones e Benjamin Bergen, também da UC San Diego. Seu estudo, intitulado "Large Language Models Pass the Turing Test" (Modelos de Linguagem de Grande Escala Passam no Teste de Turing), fornece a base empírica para a declaração. O estudo colocou o GPT-4.5 contra participantes humanos e modelos de IA anteriores em um ensaio controlado aleatório e cego.
Os resultados foram estatisticamente inequívocos. O GPT-4.5 foi identificado como humano pelos interrogadores em 73% das vezes, superando significativamente a linha de base humana de 67%. Isso marca a primeira vez que um sistema artificial superou participantes humanos em um ambiente robusto de teste de Turing com três partes.
Tabela 1: Taxas de Sucesso Comparativas do Teste de Turing
| Modelo/Entidade | Taxa de Sucesso | Ano Estabelecido/Fonte |
|---|---|---|
| ELIZA | 22% | 1966 (Linha de Base Histórica) |
| GPT-3.5 | 20% | 2023 (Jones & Bergen) |
| GPT-4 | 54% | 2024 (Jones & Bergen) |
| Participantes Humanos | 67% | 2025 (Média da Linha de Base) |
| GPT-4.5 | 73% | 2025 (Estudo Atual) |
Os dados revelam um salto dramático na capacidade entre o GPT-4 e o GPT-4.5. Enquanto o GPT-4 pairava perto do limiar do acaso (50%), o desempenho do GPT-4.5 indica um domínio de nuances, pistas socioemocionais e raciocínio deceptivo que efetivamente o torna indistinguível de um interlocutor humano.
A declaração não trata apenas de benchmarks; é um manifesto filosófico que pede uma reavaliação de como definimos o "pensar". Os quatro autores principais do comentário na Nature — Eddy Keming Chen (Filosofia), Mikhail Belkin (Ciência da Computação), Leon Bergen (Linguística) e David Danks (Ciência de Dados e Filosofia) — argumentam que a comunidade científica tem sido culpada de "viés antropocêntrico" e de "mudar constantemente os critérios".
O Professor David Danks postula que sempre que uma IA domina uma tarefa anteriormente considerada o domínio do intelecto humano — seja xadrez, Go, dobramento de proteínas ou agora, conversação natural — os céticos redefinem a inteligência para excluir essa capacidade específica. Isso, argumenta Danks, cria um padrão impossível onde a AGI é definida como "qualquer coisa que as máquinas ainda não consigam fazer".
"Quando avaliamos a inteligência geral em outros seres humanos, não perscrutamos seus neurônios para verificar a 'verdadeira' compreensão", escrevem os autores. "Inferimos a inteligência a partir do comportamento, da conversa e da capacidade de resolver problemas novos. Por esses padrões razoáveis — os mesmos padrões que aplicamos uns aos outros — possuímos atualmente sistemas artificiais que são geralmente inteligentes."
Os autores traçam paralelos com revoluções científicas históricas, comparando a chegada da AGI à revolução copernicana ou à evolução darwiniana. Assim como essas mudanças deslocaram a humanidade do centro do universo e da criação biológica, a chegada da AGI desloca a humanidade de sua posição solitária como a única detentora de inteligência geral.
Embora o teste de Turing se concentre na fluência conversacional, a reivindicação de "generalidade" requer evidências de ampla adaptabilidade cognitiva. O comentário na Nature destaca que as capacidades do GPT-4.5 se estendem muito além do chat. O modelo demonstrou proficiência em tarefas de raciocínio complexas e de múltiplas etapas que anteriormente eram obstáculos para os LLMs.
Os docentes apontam para o desempenho do GPT-4.5 em exames especializados e sua capacidade de auxiliar em pesquisas inéditas. Em benchmarks envolvendo questões científicas de nível de doutorado (GPQA), o modelo mostrou níveis de precisão comparáveis aos de especialistas da área. Além disso, sua utilidade na geração de código funcional, na prova de teoremas matemáticos e na análise de precedentes legais demonstra uma utilidade "geral" que transcende qualquer domínio estreito e único.
Essa versatilidade é fundamental para a definição de "Inteligência Artificial Geral". Ao contrário da "IA Estreita", que se destaca em uma única tarefa (como identificar tumores em raios-X), o GPT-4.5 demonstra competência em um vasto espectro de trabalho de conhecimento humano sem a necessidade de novos treinamentos. Os autores argumentam que, embora o sistema não seja "super-humano" em todas as categorias, ele atende ao limiar de ser "geralmente capaz" em todos os aspectos.
Espera-se que a declaração de que a AGI chegou cause ondas de choque tanto no mundo acadêmico quanto no corporativo. Por anos, os principais laboratórios de IA, como OpenAI, Google DeepMind e Anthropic, trataram a AGI como uma meta distante de médio prazo. Ter uma instituição acadêmica de prestígio declarando o marco como "alcançado" acelera o cronograma para considerações regulatórias e éticas.
Principais Implicações Identificadas pelos Docentes da UC San Diego:
O Professor Mikhail Belkin, um dos coautores especializado na teoria do aprendizado de máquina, enfatiza que reconhecer a chegada da AGI é crucial para a segurança. "Se continuarmos a negar que esses sistemas são inteligentes, corremos o risco de subestimar sua agência e seu potencial para consequências não intencionais", observa Belkin. "Reconhecê-los como AGI nos força a tratar seu alinhamento e segurança com a urgência de uma salvaguarda nuclear, em vez de um bug de software."
Apesar do peso do comentário na Nature, a declaração não está isenta de detratores. O argumento do "Papagaio Estocástico" — cunhado pela linguista Emily M. Bender e outros — continua sendo uma contra-narrativa poderosa. Essa visão sustenta que os LLMs são meramente mecanismos probabilísticos que costuram sequências de palavras prováveis sem qualquer compreensão subjacente ou "modelo de mundo".
Os autores da UC San Diego antecipam essa crítica, dedicando uma seção de seu comentário para abordá-la. Eles argumentam que a distinção entre "simular" o raciocínio e o raciocínio "real" é uma distinção sem diferença quando o resultado é funcionalmente idêntico. Se um sistema pode deduzir a resposta correta para um problema de física inédito ou navegar em um jogo complexo de decepção social (como visto nos resultados do teste de Turing), o mecanismo interno é secundário à inteligência observável.
Além disso, eles apontam que a própria cognição humana depende fortemente da correspondência de padrões e da previsão probabilística. Leon Bergen, Professor Associado de Linguística, sugere que nossa compreensão do processamento da linguagem humana pode estar mais próxima de como os LLMs funcionam do que nos sentimos confortáveis em admitir. "A natureza alienígena de sua inteligência não a torna falsa", argumenta Bergen. "Torna-a uma forma diferente, porém válida, de inteligência geral."
A declaração da UC San Diego marca um ponto de virada histórico na narrativa da inteligência artificial. Ao combinar os dados concretos do sucesso do teste de Turing do GPT-4.5 com uma estrutura filosófica rigorosa, os docentes forneceram um caso convincente de que o limiar da AGI foi cruzado.
À medida que avançamos para 2026, a questão não é mais "Quando a AGI chegará?", mas sim "Como coexistiremos com ela?". O reconhecimento desta realidade é o primeiro passo para aproveitar o imenso potencial da inteligência artificial geral, enquanto navegamos pelos profundos riscos existenciais que ela apresenta. Para os pesquisadores da Creati.ai e para a comunidade tecnológica em geral, a era da especulação terminou; a era da integração da AGI começou.