
ServiceNow und OpenAI haben eine wegweisende mehrjährige strategische Partnerschaft angekündigt, um OpenAIs fortschrittliche GPT-5.2-Modelle direkt in die ServiceNow-Plattform zu integrieren. Diese Zusammenarbeit markiert eine entscheidende Wende in der Unternehmens-KI-Landschaft, die über die Ära der generativen Assistenz (generative assistance) hinausgeht und in das Zeitalter der agentischen KI (agentische KI, Agentic AI) führt — Systeme, die in der Lage sind, komplexe Workflows im Unternehmen autonom auszuführen.
Die Vereinbarung, die am Dienstag, den 20. Januar 2026, vorgestellt wurde, positioniert OpenAIs Frontier-Modelle als bevorzugte Intelligenz-Engine für ServiceNows riesiges Ökosystem, das derzeit über 80 Milliarden Workflows pro Jahr verarbeitet. Durch das Einbetten der multimodalen (multimodal) Fähigkeiten von GPT-5.2 — insbesondere dessen „Computer Use“-Funktionen und nativen Speech-to-Speech-Funktionen (speech-to-speech) — will ServiceNow seine Now Platform in ein Zentrum autonomer Geschäftsabläufe verwandeln und den Bedarf an menschlichem Eingreifen bei Routineaufgaben in IT, HR und Kundenservice reduzieren.
In den letzten drei Jahren dominierte der Unternehmenssektor das „Copilot“-Paradigma (Copilot, copilot paradigm), bei dem KI als konversationeller Assistent E-Mails verfasst, Dokumente zusammenfasst und Anfragen beantwortet. Die Allianz zwischen ServiceNow und OpenAI signalisiert die Reifung der Branche hin zur agentischen KI (agentische KI, Agentic AI), bei der die Software nicht nur Handlungen vorschlägt, sondern sie auch ausführt.
Im Kern dieser Verschiebung steht die Integration von GPT-5.2, einem Modell, das im Vergleich zu seinen Vorgängern deutlich höhere Reasoning-Fähigkeiten und eine „aktionsorientierte“ Architektur besitzt. Anders als frühere Iterationen, die textbasierte Prompts benötigten und weitgehend als Informationsabrufsysteme fungierten, ist GPT-5.2 darauf ausgelegt, Benutzeroberflächen zu navigieren, komplexe visuelle Kontexte zu verstehen und mehrstufige Prozesse auszuführen.
„ServiceNow hilft Unternehmen dabei, agentische KI in Workflows zu bringen, die sicher, skalierbar und darauf ausgelegt sind, messbare Ergebnisse zu liefern“, erklärte Brad Lightcap, Chief Operating Officer bei OpenAI. „Mit OpenAI Frontier-Modellen und multimodalen Fähigkeiten in ServiceNow werden Unternehmen jeder Branche von Intelligenz profitieren, die Arbeit end-to-end selbst in den komplexesten Umgebungen erledigt.“
Diese Fähigkeit wird durch ServiceNows „AI Agents“ (KI-Agenten, AI Agents) realisiert, die nun autonom Aufgaben wie die folgenden verwalten können:
Ein entscheidender technischer Durchbruch in dieser Partnerschaft ist der Einsatz nativer Speech-to-Speech-Technologie (speech-to-speech). Traditionelle Voice-AI-Systeme verlassen sich auf eine „Transkription–Verarbeitung–Synthese“-Schleife, bei der Audio in Text umgewandelt wird, vom LLM verarbeitet und anschließend wieder in Audio zurückverwandelt wird. Dies führt zu Latenz und entfernt oft paralinguistische Hinweise wie Tonfall und Dringlichkeit.
Die nativen Audiomöglichkeiten von GPT-5.2 ermöglichen es ServiceNow-Agenten, in Echtzeit „zuzuhören, zu schlussfolgern und zu antworten“, ohne Text als Zwischenstufe. Diese Reduzierung der Latenz ist in kritischen Umgebungen wie Kundensupport-Zentren und IT-Helpdesks von entscheidender Bedeutung.
Amit Zavery, President, COO und CPO bei ServiceNow, betonte die praktische Anwendung dieser Technologie: „Gemeinsam bauen ServiceNow und OpenAI die Zukunft der KI-Erlebnisse: den Einsatz von KI, die in komplexen Unternehmensumgebungen End-to-End-Handlungen ausführt — nicht in Sandkästen.“
Die Integration verspricht ein nahtloses Erlebnis, bei dem ein Mitarbeiter mündlich anfragen kann: „Aktualisiere meine Leistungen für das kommende Geschäftsjahr und schicke mir eine Zusammenfassung der Änderungen,“ und der KI-Agent wird das HR-Portal navigieren, die Änderungen ausführen und die Fertigstellung in Sekunden verbal bestätigen.
Für OpenAI stellt diese Partnerschaft eine fortgesetzte Entwicklung seiner Unternehmensstrategie dar. Anstatt ausschließlich über den Direktverkauf von ChatGPT Enterprise zu konkurrieren, sichert sich OpenAI „Design-in“-Erfolge (Design-in, design-in wins) — das tiefe Einbetten seiner Modelle in die Infrastruktur großer Softwareanbieter. Indem OpenAI das Backend von ServiceNow antreibt, stellt das Unternehmen sicher, dass seine Technologie in der kritischen Betriebsebene der Global-2000-Unternehmen genutzt wird.
Dieser Ansatz spiegelt die „Intel Inside“-Strategie (Intel Inside) der Halbleiterindustrie wider, bei der der Wert darin liegt, die unverzichtbare Engine zu sein, die zahlreiche Anwendungen antreibt. Mit bereits etablierten Partnerschaften mit Broadcom, Oracle und anderen zementiert der ServiceNow-Deal OpenAIs Rolle als grundlegende Infrastruktur für Unternehmensintelligenz.
Für ServiceNow schafft der Deal einen beträchtlichen Wettbewerbsvorteil gegenüber Konkurrenten wie Salesforce und Microsoft. Indem ServiceNow „out-of-the-box“ autonome Agenten anbietet, die vom fortschrittlichsten Modell des Marktes angetrieben werden, kann ServiceNow CIOs sofortige ROI-Versprechen machen, die unter Druck stehen, Ergebnisse aus ihren KI-Investitionen vorzuweisen.
Um das Ausmaß dieses Updates zu verstehen, ist es wichtig, die vorherige Generation integrierter KI mit den neuen Fähigkeiten, die GPT-5.2 freischaltet, zu vergleichen.
Table 1: Evolution of Enterprise AI Capabilities
| Feature | Traditional GenAI (GPT-4 Era) | Agentic AI (GPT-5.2 Era) |
|---|---|---|
| Primary Function | Content Generation & Summarization | Task Execution & Workflow Orchestration |
| Interaction Mode | Text-based Chat (Prompt & Response) | Multimodal (Voice, Text, Visual UI Interaction) |
| Autonomy Level | Passive (Waits for human command) | Active (Can trigger self-initiated actions) |
| Latency | High (Text-to-Speech translation layers) | Real-time (Native Speech-to-Speech) |
| Integration Depth | Surface-level (API calls for information) | Deep (System-level control via "Computer Use") |
| Decision Making | Provides options for humans to choose | Executes decisions within governance guardrails |
Wenn KI-Systeme von passiver Beratung zur aktiven Ausführung übergehen, wird Governance zur vorrangigen Sorge für Unternehmensleiter. Ein KI-Agent, der Passwörter zurücksetzen oder Geld überweisen kann, hat ein höheres Risikoprofil als einer, der lediglich E-Mails entwirft.
ServiceNow begegnet diesem Umstand durch seinen „AI Control Tower“ (KI-Kontrollturm, AI Control Tower), ein Governance-Framework, das darauf ausgelegt ist, diese autonomen Agenten zu überwachen und zu verwalten. Dieses System bietet:
Dieser Fokus auf gelenkte Autonomie (governed autonomy) unterscheidet das Angebot von ServiceNow x OpenAI effektiv von offenem, verbraucherorientiertem KI-Tooling. Es überbrückt die Lücke zwischen dem chaotischen Potenzial roher LLMs und den strengen Anforderungen der Unternehmens-Compliance.
Die Dreijahreslaufzeit dieses Deals deutet auf eine langfristige Roadmap zur Integration noch fortschrittlicherer Fähigkeiten hin. Mit der Weiterentwicklung von GPT-5.2 ist mit dem Aufkommen von Multi-Agenten-Systemen zu rechnen, in denen spezialisierte KI-Agenten — etwa für Recht, Finanzen oder Engineering — zusammenarbeiten, um abteilungsübergreifende Probleme ohne menschliche Koordination zu lösen.
John Aisien, Senior Vice President of Product Management bei ServiceNow, wies auf den raschen Wendepunkt hin, den die Branche derzeit erlebt: „Da sich die Veröffentlichungen von KI-Modellen beschleunigen, benötigen große Unternehmen Unterstützung, um ihre Workflows mit den neuesten Innovationen in Einklang zu halten.“
Indem ServiceNow die Komplexität des KI-Modellmanagements vom Endnutzererlebnis entkoppelt, ermöglicht es Unternehmen, die Welle des KI-Fortschritts zu reiten, ohne ihre internen Systeme ständig neu zu gestalten. Die Botschaft dieser Partnerschaft ist klar: Die Experimentierphase der Unternehmens-KI ist vorbei. Der Fokus liegt nun auf Bereitstellung, Handlung und der greifbaren Automatisierung von Geschäftsarbeit.
Für das Creati.ai-Publikum unterstreicht diese Entwicklung die entscheidende Bedeutung der Beherrschung agentischer Workflows (agentische Workflows, agentic workflows). Die Fähigkeit der Zukunft wird weniger im „Prompt-Engineering“ (prompt engineering) eines Chatbots bestehen, sondern mehr im „Workflow-Engineering“ (workflow engineering) — dem Entwerfen von Logik, Berechtigungen und Zielen für autonome Agenten, die das Geschäft steuern.