
À medida que a elite global da tecnologia se reúne nos picos nevados de Davos para o Fórum Econômico Mundial 2026, a conversa mudou decisivamente da possibilidade da AI para a sua sustentabilidade. Em meio aos diálogos de alto nível sobre fragmentação econômica e resiliência geopolítica, uma voz se destacou com um mandato técnico e estratégico claro: o CEO da Arm, Rene Haas.
Em uma série de aparições de alto perfil, incluindo um painel sobre sustentabilidade da AI e uma conversa exclusiva com o Financial Times, Haas articulou uma transição pivotal para a indústria. A era do treinamento e inferência de AI centralizados e exclusivamente na nuvem está se aproximando de um limite físico rígido — definido pelo consumo de energia, uso de água e largura de banda de memória. A próxima fronteira, segundo Haas, reside na "Inteligência Distribuída (Distributed Intelligence)", um paradigma onde o poder de computação migra de massivos centros de dados para a borda da rede, alimentando uma nova geração de "IA Física (Physical AI)".
Esse pivô não é meramente uma preferência, mas uma necessidade. Como Haas afirmou de forma direta aos participantes, a trajetória atual do compute de AI centralizado "não é sustentável a longo prazo." Para a Creati.ai, isso marca uma validação significativa do futuro centrado na borda que há muito observamos emergir no cenário de semicondutores.
Na última década, a narrativa da AI foi dominada pela escala — modelos maiores, conjuntos de dados maiores e clusters exponencialmente maiores de GPUs em centros de dados hiperescaláveis. No entanto, as discussões em Davos 2026 expuseram os custos ambientais e logísticos dessa abordagem.
Haas destacou que virtualmente todo processamento relevante de AI hoje ocorre na nuvem. Essa centralização cria uma pegada energética massiva. Centros de dados agora competem com municípios por energia, e seu consumo de água para resfriamento tornou-se uma preocupação ambiental crítica.
"As conversas em Davos 2026 destacam um futuro da AI que não será definido apenas pela escala, mas por quão inteligentemente essa escala é entregue", observou Haas. Ele argumentou que continuar a encaminhar cada solicitação de um smartwatch ou de uma câmera de segurança de volta para um fazenda de servidores é ineficiente e cada vez menos viável. A solução é desacoplar o crescimento da AI do crescimento linear de energia, empurrando tarefas de inferência para os próprios dispositivos — smartphones, veículos, sensores industriais e a classe emergente de IA incorporada.
Apesar da onipresença de dispositivos "habilitados para AI" no marketing ao consumidor, Haas acredita que a indústria está apenas na linha de partida da verdadeira inteligência de borda. "O jogo ainda não começou em relação a executar inteligência artificial nos dispositivos de borda", observou ele durante uma mesa-redonda.
A distinção que Haas faz é entre executar modelos simples e pré-configurados e executar inferência complexa e consciente do contexto localmente. A verdadeira IA de borda requer que um dispositivo processe dados multimodais — visão, áudio e entradas sensoriais — em tempo real sem depender de uma conexão de internet estável.
Essa mudança promete desbloquear três vantagens críticas:
No entanto, realizar essa visão requer um repensar fundamental do design de hardware. Haas usou uma analogia contundente para descrever o atraso atual nos ciclos de hardware: a indústria frequentemente está "atirando no disco em 2025 com um design de 2022." A rápida evolução dos algoritmos de AI significa que, quando um chip chega ao mercado, as cargas de trabalho para as quais foi projetado já evoluíram.
Um tema recorrente nos compromissos de Haas em Davos foi a "Barreira de Memória (Memory Wall)" — o gargalo onde a velocidade do processador supera a capacidade da memória de alimentá-lo com dados. À medida que os modelos de AI escalam, a largura de banda de memória, em vez do mero FLOPS de computação bruta (floating-point operations per second), muitas vezes se torna o fator limitador em desempenho e eficiência.
Em um alinhamento oportuno com as discussões de Davos, Haas elogiou a inauguração da nova megafab da Micron em Nova York no início desta semana. Ele citou a instalação como um grande passo à frente para o ecossistema de semicondutores, vinculando-a explicitamente ao desafio da AI. "À medida que a AI escala, a largura de banda de memória e a inovação em nível de sistema estão se tornando fundamentais para a próxima geração de compute, da nuvem à borda", afirmou Haas.
Essa parceria destaca a estratégia da Arm de colaboração estreita com fornecedores de memória para garantir que futuros Sistemas em Chip (SoCs) tenham o throughput necessário para executar Modelos de Linguagem de Grande Porte (LLMs) localmente em dispositivos alimentados por bateria.
A posição única da Arm no ecossistema — alimentando tudo, desde o supercomputador mais poderoso do mundo (Fugaku) até o menor microcontrolador em um termostato inteligente — dá-lhe uma visão holística desse futuro distribuído. Haas introduziu o conceito de "sistemas de IA Física (Physical AI systems)" como a próxima evolução da internet das coisas (IoT).
IA Física refere-se a sistemas que interagem diretamente com o mundo físico, tomando decisões complexas baseadas em dados ambientais em tempo real. Isso inclui:
Para apoiar isso, a Arm está defendendo uma arquitetura de computação heterogênea. Isso envolve Unidades de Processamento Neural (NPUs) trabalhando em conjunto com CPUs e GPUs, todas compartilhando uma arquitetura de memória unificada para minimizar o desperdício de energia.
Para entender a magnitude da mudança que Haas está propondo, é útil contrastar o modelo atual centrado na nuvem com o modelo distribuído imaginado para 2030.
Table 1: The Shift from Cloud to Edge Architecture
| Metric | Centralized Cloud AI | Distributed Edge AI |
|---|---|---|
| Primary Compute Location | Hyperscale Data Centers | On-Device (NPU/CPU/GPU) |
| Energy Profile | High (Transmission + Cooling + Compute) | Low (Optimized Silicon, Minimal Transmission) |
| Data Privacy | Data leaves user control (Third-party storage) | Data remains on-device (Local processing) |
| Latency | Variable (Network dependent, >50ms) | Real-time (<5ms) |
| Cost Model | Recurring (API calls, subscription) | Upfront (Device hardware cost) |
| Sustainability | High water/carbon intensity | Distributed energy load |
A mensagem predominante da Arm em Davos 2026 é de urgência. O crescimento "fácil" da AI — alcançado simplesmente jogando mais GPUs no problema — acabou. A próxima fase exige inovação arquitetural profunda.
Haas pediu uma abordagem colaborativa, enfatizando que nenhuma empresa isoladamente pode resolver os desafios de energia e memória. É necessário:
Para os desenvolvedores e engenheiros que leem a Creati.ai, a implicação é clara: o futuro do desenvolvimento de AI não é apenas aprender a promptar um modelo massivo na nuvem. Trata-se de entender como implantar agentes inteligentes e eficientes que vivam na borda, interagindo com o mundo real em tempo real.
À medida que o Fórum Econômico Mundial chega ao fim, as percepções de Rene Haas servem como um freio de realidade para o ciclo de hype da AI. O crescimento exponencial da AI não pode continuar em seu caminho atual, intensivo em energia. O modelo de "Inteligência Distribuída (Distributed Intelligence)" oferece um caminho viável a seguir, democratizando o acesso às capacidades de AI enquanto respeita os limites planetários.
Ao repensar onde a AI roda, como os dados se movem e como os sistemas são projetados "a partir do silício", a Arm está se posicionando como a plataforma fundamental para essa transição. Para a indústria de tecnologia, a corrida não é mais apenas sobre quem tem o maior modelo, mas quem pode executá-lo de forma mais eficiente, na palma da mão ou no chassi de um robô. A borda deixou de ser apenas uma preocupação periférica; é o evento principal.