
De acordo com um novo relatório de Mark Gurman, da Bloomberg, a Apple está pronta para realizar uma das suas transições de software mais significativas em uma década na próxima Worldwide Developers Conference (WWDC) 2026. A gigante da tecnologia estaria se preparando para descontinuar seu antigo framework Core ML em favor de uma arquitetura sucessora modernizada, apelidada de "Core AI". Essa mudança, direcionada para o iOS 27, iPadOS 27 e macOS 27, representa uma reengenharia fundamental de como os dispositivos Apple lidam com tarefas de Aprendizado de Máquina (Machine Learning) e Inteligência Artificial (AI).
Por quase dez anos, o Core ML tem sido a base da inteligência no dispositivo da Apple, alimentando recursos que variam desde o Face ID até a análise de fotos. No entanto, à medida que a indústria avançou em direção aos Modelos de Linguagem de Grande Porte (Large Language Models - LLMs) e agentes complexos de IA Generativa (Generative AI), a infraestrutura legada do Core ML supostamente enfrentou dificuldades para acompanhar as demandas computacionais dos modelos modernos. O relatório de Gurman sugere que o Core AI não é apenas uma mudança de marca, mas uma "reescrita do zero" projetada para tornar a integração de modelos generativos de última geração tão simples quanto importar uma biblioteca de interface de usuário (UI).
Este movimento sinaliza a intenção da Apple de recuperar agressivamente a liderança no setor de IA, indo além das capacidades preditivas do passado para uma nova era de inteligência no dispositivo generativa e consciente do contexto.
Lançado em 2017, o Core ML foi construído para uma era diferente do Aprendizado de Máquina. Seu foco principal era em classificação, regressão e reconhecimento de imagem — tarefas que definiram os recursos "inteligentes" do final da década de 2010. Embora a Apple tenha atualizado o framework anualmente, adicionando suporte para novas camadas e métodos de quantização, a arquitetura subjacente permaneceu enraizada no processamento tradicional de redes neurais.
O crescimento explosivo da IA Generativa expôs as limitações desse framework envelhecido. Os Desenvolvedores (Developers) há muito se queixam do atrito envolvido na conversão de modelos PyTorch ou TensorFlow para o formato proprietário .mlmodel, um processo que frequentemente resultava em degradação de desempenho ou operadores não suportados.
A transição para o Core AI aborda vários gargalos críticos inerentes ao ecossistema atual:
Espera-se que o Core AI introduza suporte nativo para padrões comuns da indústria, permitindo potencialmente que os desenvolvedores executem modelos de forma mais próxima de seus formatos nativos, sem a camada de tradução incômoda que definiu a era do Core ML.
Enquanto a documentação técnica específica aguarda a palestra de abertura da WWDC, vazamentos indicam que o Core AI se concentra em três pilares: Modularidade, capacidades Nativas Generativas e otimização de Arquitetura de Memória Unificada (Unified Memory Architecture - UMA).
Ao contrário de seu predecessor, o Core AI é construído com Transformers e modelos de Difusão como cidadãos de primeira classe. O framework supostamente inclui "Blocos de Fundação" (Foundation Blocks) pré-otimizados — componentes básicos que permitem aos desenvolvedores montar pipelines de IA (como RAG, ou Geração Aumentada de Recuperação) sem escrever código de multiplicação de matrizes de baixo nível. Isso poderia democratizar o desenvolvimento local de IA, permitindo que um desenvolvedor individual implemente recursos que anteriormente exigiam uma equipe de engenheiros de ML.
Rumores indicam que o novo framework desbloqueará o acesso de "Caminho Direto" ao Apple Neural Engine (ANE). Anteriormente, o sistema operacional gerenciava a alocação do ANE de forma conservadora para preservar a vida útil da bateria. O Core AI supostamente introduz a inferência em "Modo Burst", permitindo que os aplicativos comandem o desempenho máximo da NPU por curtas durações — ideal para gerar imagens ou resumir documentos longos instantaneamente no iOS 27.
Para a comunidade de desenvolvedores da Apple, a chegada do Core AI marca um momento decisivo. Espera-se que a barreira de complexidade para adicionar recursos de IA caia significativamente.
O objetivo da Apple com o Core AI é tornar o import CoreAI tão padrão quanto o import SwiftUI. Espera-se que o framework abstraia as complexidades de tokenização, amostradores e gerenciamento de janela de contexto. Em vez de escrever centenas de linhas de código para gerenciar o estado de um LLM, os desenvolvedores podem realizar a mesma tarefa com APIs declarativas semelhantes a como o SwiftUI lida com visualizações.
Para entender a magnitude dessa mudança, podemos olhar para as capacidades comparativas dos frameworks que saem e que entram:
Tabela: Comparação de Recursos Entre Core ML e Core AI
| Recurso | Core ML (Legado) | Core AI (Novo Framework) |
|---|---|---|
| Era Primária | 2017–2025 (IA Preditiva) | 2026+ (IA Generativa) |
| Formato do Modelo | Proprietário .mlmodel (Conversão necessária) |
Compatibilidade Nativa / Padrão Aberto |
| Foco de Hardware | Distribuição equilibrada CPU/GPU/ANE | Motor Neural Primeiro (Otimização de Tensor) |
| Suporte a IA Gen | Limitado via bibliotecas externas | Primitivas nativas de LLM e Difusão |
| Manipulação de Memória | Carregamento estático | Paginação dinâmica e otimização de Swap |
| API do Desenvolvedor | Imperativa, configuração de baixo nível | Declarativa, APIs baseadas em intenção |
Nota: A tabela acima reflete os recursos relatados com base em vazamentos atuais e pode estar sujeita a alterações após o lançamento oficial.
A introdução do Core AI não é apenas uma atualização técnica; é uma manobra estratégica para diferenciar o ecossistema da Apple por meio do processamento no dispositivo focado na privacidade. Concorrentes como Google e Microsoft apostaram fortemente no processamento de IA baseado em nuvem. Ao capacitar o iOS 27 com um framework capaz de executar modelos poderosos localmente, a Apple reforça sua narrativa de privacidade.
Com o Core AI, a Apple visa processar a grande maioria do contexto pessoal — e-mails, mensagens, dados de saúde — estritamente no dispositivo. O framework supostamente inclui uma API "Gatekeeper" que decide de forma inteligente se uma solicitação pode ser tratada localmente pelo Motor Neural ou se requer a Computação em Nuvem Privada (Private Cloud Compute) da Apple. Isso garante que os dados confidenciais do usuário nunca saiam do dispositivo, a menos que seja absolutamente necessário, e mesmo assim, o façam sob protocolos de anonimização rigorosos.
Este avanço de software coincide com rumores de saltos de hardware. O chip A20 esperado na linha do iPhone 18 deve apresentar um Motor Neural ajustado especificamente para instruções do Core AI, oferecendo um efeito multiplicador no desempenho. No entanto, a Apple é conhecida por sua compatibilidade reversa, e espera-se que o Core AI traga melhorias de desempenho mesmo para dispositivos mais antigos que rodem o iOS 27, provavelmente começando pela série iPhone 15 Pro.
À medida que junho se aproxima, o mundo da tecnologia estará observando a palestra de abertura de perto. Se os relatos de Mark Gurman forem verdadeiros, o anúncio do Core AI provavelmente será a peça central do evento, ofuscando até mesmo as revelações de novo hardware.
Os desenvolvedores devem se preparar para um período de transição. A Apple normalmente permite uma janela de descontinuação de 1 a 2 anos. Embora o Core ML provavelmente permaneça disponível no iOS 27 para garantir que os aplicativos existentes não quebrem, novos recursos e otimizações serão exclusivos do Core AI.
Principais Marcos para Acompanhar:
A mudança para o Core AI representa o amadurecimento do investimento em silício da Apple. Após anos construindo os chips móveis mais rápidos, a Apple está finalmente lançando a arquitetura de software necessária para liberar todo o seu potencial na era da IA Generativa. Para os leitores do Creati.ai, isso ressalta a importância vital de permanecer adaptável — as ferramentas usadas para construir aplicativos inteligentes estão evoluindo tão rápido quanto os próprios modelos de IA.