
Em um movimento que sinaliza uma potencial mudança de paradigma na busca pela Inteligência Artificial Geral (Artificial General Intelligence - AGI), David Silver, o renomado pesquisador por trás do AlphaGo e AlphaZero, estaria levantando uma rodada semente histórica de US$ 1 bilhão para seu novo empreendimento, Ineffable Intelligence. A startup sediada em Londres, surgindo do sigilo com uma avaliação de aproximadamente US$ 4 bilhões, está apostando contra a fixação atual da indústria em Modelos de Linguagem de Grande Escala (Large Language Models - LLMs), visando, em vez disso, alcançar a superinteligência por meio de aprendizado por reforço (reinforcement learning) puro.
A rodada está sendo liderada pela Sequoia Capital, com discussões de participação supostamente em andamento com gigantes da tecnologia, incluindo Nvidia, Google e Microsoft. Se concluído, este negócio se tornaria a maior rodada de financiamento semente na história do setor de tecnologia europeu, ressaltando o peso imenso que os investidores depositam no histórico de Silver e em sua tese contrária para o futuro da IA.
A magnitude absoluta da injeção de capital — US$ 1 bilhão para uma empresa que ainda não lançou um produto — reflete as apostas crescentes na corrida armamentista global de IA. Enquanto rodadas de bilhões de dólares se tornaram comuns para players estabelecidos como OpenAI e Anthropic, uma rodada semente deste tamanho é sem precedentes. Isso sugere que os capitalistas de risco estão se preparando para uma divergência intensiva em capital no desenvolvimento de IA, uma que vai além de simplesmente escalar modelos baseados em texto.
A Ineffable Intelligence está sediada em Londres, uma decisão que fortalece significativamente a posição do Reino Unido como um centro crítico para a pesquisa de IA de fronteira. Fontes próximas ao negócio indicam que os parceiros da Sequoia, Alfred Lin e Sonya Huang, viajaram pessoalmente a Londres para garantir o acordo, destacando a competição acirrada entre VCs para apoiar talentos técnicos de alto nível saindo de grandes laboratórios como o Google DeepMind.
A reputação de David Silver baseia-se em um histórico específico e poderoso: ele construiu os sistemas que alcançaram o que antes era considerado impossível. Como pesquisador principal do AlphaGo, ele viu sua criação derrotar o 18 vezes campeão mundial Lee Sedol em 2016. Ele então superou essa conquista com o AlphaZero, que dominou Go, Xadrez e Shogi sem nenhum dado humano, aprendendo exclusivamente por meio de auto-jogo.
Esse histórico forma a base intelectual da Ineffable Intelligence. O argumento central de Silver é que o padrão atual da indústria — LLMs como GPT-4 e Gemini — é fundamentalmente limitado porque depende da imitação de dados humanos. Como os LLMs são treinados nos textos da internet, eles estão limitados pelo conhecimento coletivo e pelos erros de raciocínio da humanidade. Eles podem aproximar a inteligência, mas não podem transcender facilmente a capacidade humana.
A Ineffable Intelligence postula que a verdadeira superinteligência requer Aprendizado por Reforço (Reinforcement Learning - RL). Neste paradigma, os agentes aprendem não lendo sobre o mundo, mas interagindo com ele — propondo ações, observando consequências e atualizando suas estratégias com base em recompensas. Este método, frequentemente descrito como pensamento de "Sistema 2" ou "busca", permite que uma IA descubra soluções inovadoras que os humanos talvez nunca concebam, muito parecido com a "Jogada 37" (Move 37) do AlphaGo — uma jogada que nenhum jogador humano teria feito, mas que garantiu a vitória.
Tabela: Caminhos divergentes para a superinteligência
A tabela abaixo descreve as diferenças fundamentais entre a abordagem predominante de LLM e a metodologia de Silver focada em RL.
| Recurso | Modelos de Linguagem de Grande Escala (LLMs) | Aprendizado por Reforço (RL) |
|---|---|---|
| Fonte de dados primária | Conjuntos de dados estáticos (Textos da internet, livros) | Experiência dinâmica (Simulação, Auto-jogo) |
| Mecanismo de aprendizagem | Correspondência de padrões e previsão do próximo token | Tentativa e erro com feedback de recompensa |
| Teto de capacidade | Limitado à soma do conhecimento humano | Teoricamente ilimitado; pode superar os limites humanos |
| Estilo de raciocínio | Intuitivo, "Sistema 1" (Rápido) | Deliberativo, "Sistema 2" (Lento, baseado em busca) |
| Fraqueza principal | Alucinações, falta de fundamentação real | Custo computacional, dificuldade em ambientes abertos |
Silver já articulou essa visão anteriormente em círculos acadêmicos, sendo coautor de um artigo intitulado "Era of Experience" com o colega pioneiro em RL, Richard Sutton. Eles argumentaram que o próximo salto na IA não virá de alimentar os modelos com mais tokens, mas de agentes que "autodescobrem os fundamentos de todo o conhecimento".
O desafio para a Ineffable Intelligence será aplicar o sucesso do AlphaZero — que operou em ambientes de informação perfeita e fechados de jogos de tabuleiro — à complexidade confusa e aberta do mundo real. É provável que seja por isso que os requisitos de capital são tão altos. Construir "modelos de mundo" ou simulações robustas o suficiente para treinar agentes de RL de propósito geral requer recursos de computação massivos, rivalizando com os custos de infraestrutura para treinar os maiores LLMs.
A saída de Silver do Google DeepMind faz parte de uma tendência mais ampla de saídas de alto perfil de laboratórios de IA estabelecidos. À medida que a burocracia cresce dentro das gigantes corporativas, os cientistas que construíram as tecnologias fundamentais estão saindo para buscar visões singulares e incomprometidas de AGI.
Esse movimento criou uma nova classe de startups "Super-Semente" — empresas fundadas por luminares da IA que ignoram os estágios tradicionais de investimento, levantando bilhões imediatamente para adquirir os clusters de computação necessários.
Tabela: A nova fronteira de spinoffs de IA
A tabela a seguir compara a Ineffable Intelligence com outros empreendimentos de alto perfil liderados por ex-pesquisadores de Big Tech.
| Startup | Fundador(es) | Laboratório de Origem | Filosofia Central |
|---|---|---|---|
| Ineffable Intelligence | David Silver | Google DeepMind | Aprendizado por Reforço Puro (Sobre-humano) |
| Safe Superintelligence (SSI) | Ilya Sutskever | OpenAI | Escalonamento focado em segurança para AGI |
| Thinking Machines Lab | Mira Murati | OpenAI | Produto e Pesquisa de IA Avançada |
| xAI | Elon Musk | Diversos | Busca pela verdade, curiosidade máxima |
O lançamento da Ineffable Intelligence coloca uma pressão imensa sobre os líderes atuais do campo da IA. Se Silver estiver correto, os retornos decrescentes da escala de LLMs logo se tornarão aparentes, e a indústria poderá girar agressivamente em direção a abordagens baseadas em RL. Isso validaria as "leis de escala" da computação em uma direção diferente — não para processar texto, mas para simular experiência.
Para a Europa, este é um momento decisivo. Reter um talento como Silver e garantir um investimento de US$ 1 bilhão para uma entidade sediada em Londres contraria a narrativa de que todo o desenvolvimento de IA de fronteira está destinado a San Francisco.
No entanto, o caminho à frente está repleto de riscos técnicos. O aprendizado por reforço é notoriamente difícil de estabilizar fora de ambientes de jogos. Se a Ineffable Intelligence for bem-sucedida, não construirá apenas um chatbot melhor; construirá um sistema capaz de descoberta científica independente e planejamento estratégico que excede os limites cognitivos humanos. Se falhar, será um dos experimentos mais caros na história da ciência da computação.
À medida que as negociações para a rodada são finalizadas, o envolvimento de apoiadores estratégicos como a Nvidia sugere que a infraestrutura de hardware já está sendo alinhada para apoiar a visão de Silver. A corrida pela AGI dividiu-se efetivamente em duas faixas: aqueles que leem a internet para aprender como os humanos pensam e aqueles que jogam contra si mesmos para aprender a pensar melhor do que os humanos jamais poderiam.