
Einem neuen Bericht von Mark Gurman von Bloomberg zufolge schickt sich Apple an, auf der bevorstehenden Worldwide Developers Conference (WWDC) 2026 einen der bedeutendsten Software-Übergänge seit einem Jahrzehnt zu vollziehen. Der Tech-Gigant bereitet sich Berichten zufolge darauf vor, sein langjähriges Core ML-Framework zugunsten einer modernisierten Nachfolge-Architektur namens „Core AI“ einzustellen. Dieser für iOS 27, iPadOS 27 und macOS 27 geplante Wechsel stellt eine grundlegende Neugestaltung der Art und Weise dar, wie Apple-Geräte Aufgaben des maschinellen Lernens (Machine Learning) und der künstlichen Intelligenz (Artificial Intelligence) verarbeiten.
Seit fast zehn Jahren ist Core ML das Fundament von Apples On-Device-Intelligenz und treibt Funktionen von Face ID bis hin zur Fotoanalyse an. Da die Branche jedoch in Richtung großer Sprachmodelle (Large Language Models, LLMs) und komplexer Agenten der generativen KI (Generative AI) drängt, hat die veraltete Infrastruktur von Core ML Berichten zufolge Schwierigkeiten, mit den Rechenanforderungen moderner Modelle Schritt zu halten. Gurmans Bericht legt nahe, dass Core AI nicht bloß ein Rebranding ist, sondern ein „vollständiger Neuentwurf“, der darauf ausgelegt ist, die Integration modernster generativer Modelle so einfach wie den Import einer UI-Bibliothek zu machen.
Dieser Schritt signalisiert Apples Absicht, die Führung im KI-Sektor aggressiv zurückzuerobern und über die prädiktiven Fähigkeiten der Vergangenheit hinaus in eine neue Ära der generativen, kontextbezogenen On-Device-Intelligenz vorzustoßen.
Core ML wurde 2017 für eine andere Ära des maschinellen Lernens entwickelt. Sein Hauptaugenmerk lag auf Klassifizierung, Regression und Bilderkennung – Aufgaben, welche die „Smart“-Funktionen der späten 2010er Jahre definierten. Während Apple das Framework jährlich aktualisierte und Unterstützung für neue Layer und Quantisierungsmethoden hinzufügte, blieb die zugrunde liegende Architektur in der traditionellen Verarbeitung neuronaler Netze verwurzelt.
Das explosive Wachstum der generativen KI hat die Grenzen dieses alternden Frameworks aufgezeigt. Entwickler beschweren sich seit langem über die Reibungsverluste bei der Konvertierung von PyTorch- oder TensorFlow-Modellen in das proprietäre .mlmodel-Format – ein Prozess, der oft zu Leistungseinbußen oder nicht unterstützten Operatoren führte.
Der Übergang zu Core AI adressiert mehrere kritische Engpässe, die dem aktuellen Ökosystem eigen sind:
Core AI wird voraussichtlich native Unterstützung für gängige Industriestandards einführen, was es Entwicklern potenziell ermöglicht, Modelle näher an ihren nativen Formaten auszuführen, ohne die umständliche Übersetzungsschicht, welche die Core ML-Ära definierte.
Während die spezifische technische Dokumentation bis zur WWDC-Keynote auf sich warten lässt, deuten Leaks darauf hin, dass Core AI sich auf drei Säulen konzentriert: Modularität, native generative Fähigkeiten und die Optimierung der Unified Memory Architecture (UMA).
Im Gegensatz zu seinem Vorgänger ist Core AI mit Transformern und Diffusionsmodellen als erstklassige Bestandteile konzipiert. Das Framework umfasst Berichten zufolge voroptimierte „Foundation Blocks“ – Bausteine, die es Entwicklern ermöglichen, KI-Pipelines (wie RAG oder Retrieval-Augmented Generation) zusammenzustellen, ohne Low-Level-Code für Matrixmultiplikation schreiben zu müssen. Dies könnte die lokale KI-Entwicklung demokratisieren und es einem einzelnen Entwickler ermöglichen, Funktionen zu implementieren, für die bisher ein Team von ML-Ingenieuren erforderlich war.
Gerüchten zufolge wird das neue Framework den „Direct Path“-Zugriff auf die Apple Neural Engine (ANE) freischalten. Bisher verwaltete das Betriebssystem die ANE-Zuweisung konservativ, um die Batterielaufzeit zu schonen. Core AI führt angeblich einen „Burst-Modus“ für die Inferenz ein, der es Apps ermöglicht, für kurze Zeitspannen die maximale NPU-Leistung abzurufen – ideal für das Generieren von Bildern oder das Zusammenfassen langer Dokumente im Handumdrehen in iOS 27.
Für die Apple-Entwickler-Community markiert die Ankunft von Core AI einen Wendepunkt. Die Komplexitätsbarriere für das Hinzufügen von KI-Funktionen wird voraussichtlich erheblich sinken.
Apples Ziel mit Core AI ist es, import CoreAI so standardmäßig wie import SwiftUI zu machen. Es wird erwartet, dass das Framework die Komplexität von Tokenisierung, Samplern und dem Management von Kontextfenstern abstrahiert. Anstatt hunderte Zeilen Code zu schreiben, um den Zustand eines LLMs zu verwalten, könnten Entwickler dieselbe Aufgabe mit deklarativen APIs erledigen, ähnlich wie SwiftUI Ansichten handhabt.
Um das Ausmaß dieses Wechsels zu verstehen, können wir uns die vergleichenden Fähigkeiten des auslaufenden und des neuen Frameworks ansehen:
Tabelle: Funktionsvergleich zwischen Core ML und Core AI
| Funktion | Core ML (Legacy) | Core AI (Neues Framework) |
|---|---|---|
| Primäre Ära | 2017–2025 (Prädiktive KI) | 2026+ (Generative KI) |
| Modellformat | Proprietäres .mlmodel (Konvertierung erforderlich) |
Native / Open-Standard-Kompatibilität |
| Hardware-Fokus | Ausgewogene CPU/GPU/ANE-Verteilung | Neural Engine zuerst (Tensor-Optimierung) |
| GenKI-Unterstützung | Begrenzt über externe Bibliotheken | Native LLM- & Diffusions-Primitive |
| Speicherverwaltung | Statisches Laden | Dynamisches Paging & Swap-Optimierung |
| Entwickler-API | Imperativ, Low-Level-Konfiguration | Deklarativ, Intent-basierte APIs |
Hinweis: Die obige Tabelle spiegelt berichtete Funktionen basierend auf aktuellen Leaks wider und kann sich bis zur offiziellen Veröffentlichung noch ändern.
Die Einführung von Core AI ist nicht nur ein technisches Update; es ist ein strategisches Manöver, um Apples Ökosystem durch datenschutzorientierte On-Device-Verarbeitung abzuheben. Konkurrenten wie Google und Microsoft haben stark auf cloudbasierte KI-Verarbeitung gesetzt. Indem Apple iOS 27 mit einem Framework ausstattet, das in der Lage ist, leistungsstarke Modelle lokal auszuführen, bekräftigt das Unternehmen sein Versprechen zum Datenschutz.
Mit Core AI strebt Apple an, den überwiegenden Teil des persönlichen Kontexts – E-Mails, Nachrichten, Gesundheitsdaten – strikt auf dem Gerät zu verarbeiten. Das Framework enthält Berichten zufolge eine „Gatekeeper“-API, die intelligent entscheidet, ob eine Anfrage lokal von der Neural Engine bearbeitet werden kann oder ob sie Apples Private Cloud Compute erfordert. Dies stellt sicher, dass sensible Benutzerdaten das Gerät niemals verlassen, es sei denn, es ist absolut notwendig, und selbst dann geschieht dies unter strengen Anonymisierungsprotokollen.
Dieser Software-Fortschritt fällt mit gerüchteweise angekündigten Hardware-Sprüngen zusammen. Der A20-Chip, der in der iPhone 18-Reihe erwartet wird, soll über eine Neural Engine verfügen, die speziell auf Core AI-Instruktionen abgestimmt ist und einen Multiplikatoreffekt auf die Leistung bietet. Apple ist jedoch für seine Abwärtskompatibilität bekannt, und es wird erwartet, dass Core AI selbst auf älteren Geräten, die iOS 27 ausführen (wahrscheinlich ab der iPhone 15 Pro-Serie), Leistungsverbesserungen bringt.
Wenn der Juni näher rückt, wird die Tech-Welt die Keynote genau beobachten. Sollte die Berichterstattung von Mark Gurman zutreffen, wird die Ankündigung von Core AI wahrscheinlich das Herzstück der Veranstaltung sein und sogar neue Hardware-Enthüllungen in den Schatten stellen.
Entwickler sollten sich auf eine Übergangsphase vorbereiten. Apple gewährt in der Regel ein Zeitfenster von 1 bis 2 Jahren vor der endgültigen Einstellung. Während Core ML in iOS 27 wahrscheinlich verfügbar bleiben wird, um sicherzustellen, dass bestehende Apps weiterhin funktionieren, werden neue Funktionen und Optimierungen exklusiv für Core AI verfügbar sein.
Wichtige Meilensteine:
Der Wechsel zu Core AI stellt die Reifung von Apples Investitionen in eigenes Silizium dar. Nach Jahren der Entwicklung der schnellsten mobilen Chips veröffentlicht Apple nun endlich die Software-Architektur, die notwendig ist, um deren volles Potenzial im Zeitalter der generativen KI zu entfesseln. Für die Leser von Creati.ai unterstreicht dies die entscheidende Bedeutung, anpassungsfähig zu bleiben – die Werkzeuge zur Erstellung intelligenter Apps entwickeln sich ebenso schnell wie die KI-Modelle selbst.