
Relatos indicam que a Apple está acelerando o desenvolvimento de três dispositivos vestíveis distintos alimentados por IA (AI-powered), sinalizando uma mudança decisiva em sua estratégia de hardware para conter o crescente domínio da Meta e de startups emergentes de hardware de IA. De acordo com um novo relatório de Mark Gurman, da Bloomberg, a gigante de tecnologia de Cupertino está intensificando os trabalhos em óculos inteligentes equipados com câmeras, um dispositivo de "pingente" vestível e AirPods atualizados com câmeras integradas. Esses dispositivos, projetados para funcionar como os "olhos e ouvidos" do iPhone, visam libertar a Apple Intelligence da tela e integrá-la perfeitamente ao ambiente físico do usuário.
Este pivô estratégico ocorre no momento em que o CEO Tim Cook sugeriu "novas categorias de produtos" durante uma recente reunião geral (all-hands meeting), reconhecendo a rápida evolução do cenário da IA. Com o Vision Pro permanecendo como uma oferta de nicho e de alto custo, a Apple parece estar se concentrando em formatos mais leves e acessíveis que aproveitam o poder de processamento do iPhone para entregar a "Inteligência Visual (Visual Intelligence)" — a capacidade da IA de ver, compreender e agir sobre o mundo ao redor do usuário.
A peça central deste novo roteiro é um par de óculos inteligentes, codinome interno N50. Ao contrário do Vision Pro, que isola os usuários em um ambiente de realidade mista, esses óculos foram projetados para serem usados durante todo o dia, posicionando-os como um concorrente direto dos bem-sucedidos óculos inteligentes Ray-Ban Meta.
O projeto N50, que deriva da iniciativa fundamental de pesquisa de usuários conhecida como Projeto Atlas (Project Atlas), supostamente evita telas holográficas ou motores ópticos complexos nas lentes. Em vez disso, a Apple está priorizando uma arquitetura leve e sem tela que depende inteiramente de interações de voz e feedback de áudio. O dispositivo supostamente contará com um sistema de câmera dupla:
Ao transferir as tarefas pesadas de processamento para um iPhone conectado, a Apple visa resolver os desafios térmicos e de vida útil da bateria que têm prejudicado os óculos de Realidade Aumentada (AR) autônomos. O relatório sugere que a equipe de design industrial da Apple está utilizando materiais premium, incluindo elementos acrílicos, para diferenciar o produto como um acessório de luxo, em vez de um mero dispositivo tecnológico. A produção está programada provisoriamente para começar em dezembro de 2026, visando um lançamento para o consumidor em 2027.
Além dos acessórios oculares, a Apple está explorando novos formatos para garantir que seu ecossistema de IA seja onipresente. O mais experimental destes é um pingente de IA (AI pendant) vestível. Descrito como tendo aproximadamente o tamanho de um AirTag, este dispositivo foi projetado para ser preso à roupa ou usado como um colar.
O pingente representa a resposta da Apple ao conceito de "AI Pin" popularizado — e subsequentemente enfrentado com dificuldades — por startups como a Humane. No entanto, a abordagem da Apple evita as armadilhas do hardware autônomo. Ao funcionar estritamente como uma matriz de sensores para o iPhone, o pingente evita a necessidade de um projetor embutido ou modem celular, reduzindo significativamente o volume e estendendo a vida útil da bateria. Sua função primária é servir como um intérprete visual sempre ativo para a Siri, permitindo que os usuários façam perguntas sobre objetos à sua frente sem precisar levantar um telefone ou usar óculos.
Simultaneamente, a Apple está finalizando o desenvolvimento dos AirPods equipados com câmera, que supostamente são os mais avançados no cronograma e podem ser lançados já no final de 2026. Esses fones de ouvido integrarão câmeras infravermelhas (IR) de baixa resolução. Ao contrário dos sensores de alta fidelidade nos óculos, essas câmeras não são para fotografia, mas para percepção ambiental e reconhecimento de gestos. Isso permitiria que a Siri entendesse gestos "no ar" e potencialmente fornecesse descrições de áudio do ambiente do usuário — um recurso com implicações profundas para acessibilidade e realidade de áudio aumentada.
O fio condutor entre todos os três dispositivos é uma versão fortemente atualizada da Siri, alimentada pelos Modelos de Linguagem de Grande Porte (Large Language Models - LLMs) proprietários da Apple. Esses vestíveis não são computadores autônomos; são extensões sensoriais da pilha da Apple Intelligence que reside no iPhone do usuário.
Atualmente, as interações com assistentes de IA são amplamente reativas e baseadas em texto/voz. Esses novos dispositivos visam tornar a Siri proativa e consciente do contexto.
Essa capacidade de "contexto visual" é crítica para a Apple diminuir a lacuna em relação à OpenAI e ao Google, ambos os quais demonstraram modelos de IA multimodais que podem raciocinar sobre entradas de vídeo e imagem em tempo real.
O cronograma acelerado da Apple reflete uma necessidade urgente de defender seu ecossistema. A Meta capturou inesperadamente o mercado de óculos inteligentes, com sua colaboração com a Ray-Ban vendendo milhões de unidades e normalizando o conceito de acessórios oculares equipados com câmeras. Enquanto isso, há rumores de que a OpenAI está colaborando com o ex-chefe de design da Apple, Jony Ive, em seu próprio hardware de IA.
A reação do mercado ao roteiro vazado foi imediata. As ações da Apple subiram quase 3% após a notícia, refletindo o otimismo dos investidores de que a empresa possui uma estratégia de crescimento viável pós-iPhone que não depende exclusivamente do Vision Pro de US$ 3.500. Por outro lado, as ações da EssilorLuxottica, parceira de fabricação da Meta, sofreram uma queda acentuada, sinalizando que o mercado espera que a Apple seja um disruptor formidável no espaço de acessórios oculares.
No entanto, permanecem riscos. As implicações de privacidade de câmeras sempre ligadas são significativas, e a Apple precisará alavancar sua reputação de "Privacidade por Design (Privacy by Design)" para convencer os usuários — e o público — de que esses dispositivos são seguros. Além disso, o fracasso do "Vision Pro N100" (um projeto cancelado de headset de menor custo) sugere que a Apple ainda está refinando sua estratégia para vestíveis de cabeça.
A tabela a seguir descreve as principais especificações e o posicionamento estratégico dos três dispositivos em desenvolvimento:
| Nome do Dispositivo | Janela de Lançamento Est. | Função e Recursos Principais |
|---|---|---|
| Óculos Inteligentes (Codinome N50) | 2027 (Produção em Dez 2026) | Inteligência Visual e Mídia: Sem tela; depende de áudio e voz. Sistema de câmera dupla para mídia e contexto de IA. Construção em acrílico premium; compatível com lentes de grau. |
| Pingente de IA | 2027 (Tentativo) | Sensor de IA Ambiental: Formato de clipe ou colar. Câmera sempre ativa para contexto visual da Siri. Sem projetor; atua como acessório do iPhone. |
| AirPods com Câmera | Final de 2026 | Áudio Contextual: Câmeras IR para controle de gestos e detecção de ambiente. Melhora o áudio espacial e a acessibilidade. Menor barreira de entrada para os usuários. |
À medida que avançamos em 2026, a estratégia da Apple torna-se clara: o iPhone continua sendo o hub, mas a "interface" está se dissolvendo no fundo. Ao fragmentar as funcionalidades do Vision Pro em acessórios mais leves e construídos para fins específicos, como óculos e fones de ouvido, a Apple aposta que o futuro da IA não é prender um computador ao seu rosto — é tecer a inteligência nos itens que você já usa.
Embora os óculos N50 e o pingente de IA ainda estejam na fase de validação de engenharia, sua existência confirma que a Apple não está mais contente em deixar a Meta definir as regras do mercado de IA vestível. A batalha pelos "olhos e ouvidos" do consumidor começou oficialmente.