AI News

ChatGPT-Dienste nach globaler Störung, die Tausende betraf, wiederhergestellt

OpenAIs ChatGPT hat sich nach einer erheblichen Dienstunterbrechung am 3. Februar 2026 vollständig erholt, die weltweit Tausende von Nutzern fast drei Stunden lang daran hinderte, auf den KI (AI)-Chatbot zuzugreifen. Die Störung, die Web-, Mobile- und API-Dienste betraf, stellt eine der am weitesten verbreiteten Unterbrechungen der Plattform in den letzten Monaten dar und lähmte die Produktivität von Entwicklern und Unternehmenskunden, die auf die neuesten Funktionen Codex und Atlas des Unternehmens angewiesen sind.

Die Störung begann am frühen Nachmittag in den Vereinigten Staaten, wobei Berichte über Verbindungsprobleme auf Tracking-Plattformen schlagartig anstiegen. Zwar wurde der Dienst inzwischen wiederhergestellt, der Vorfall macht jedoch die Fragilität der zentralisierten KI (AI)-Infrastruktur deutlich, die einen wachsenden Teil der globalen digitalen Wirtschaft antreibt.

Zeitlicher Ablauf der Störung

Die Instabilität machte sich erstmals gegen 12:30 Uhr PST (15:30 Uhr ET) bemerkbar, als Nutzer begannen, "Internal Server Errors" und die Unfähigkeit, den Chatverlauf zu laden, zu melden. Innerhalb weniger Minuten stieg die Anzahl der Berichte auf Ausfall-Tracking-Seiten sprunghaft an, was auf ein weitreichendes Versagen und nicht auf lokale Konnektivitätsprobleme hinwies.

Zeitlicher Ablauf der Ereignisse (3. Februar 2026)

Time (ET) Status Details
3:00 PM Initial Reports Nutzer berichten über langsame Reaktionszeiten und fehlgeschlagene Anmeldeversuche auf Mobilgeräten und im Web.
3:20 PM Peak Outage Downdetector registriert über 13.000 gleichzeitige Meldungen; OpenAI bestätigt "erhöhte Fehlerraten".
4:15 PM Partial Mitigation Die Weboberfläche beginnt sich in einigen Regionen zu laden; API-Endpunkte bleiben instabil.
5:14 PM Resolution Phase OpenAI meldet, dass das Kernproblem behoben sei; Restverzögerungen bestehen weiterhin bei Fine-Tuning-Jobs.
6:30 PM Fully Operational Der globale Traffic normalisiert sich; alle Systeme einschließlich Codex und Bildgenerierung sind wieder grün.

Die Störung erreichte ihren Höhepunkt etwa um 15:20 Uhr ET, wobei die Daten eine Konzentration der Probleme in Nordamerika und Europa zeigten. Interessanterweise deuteten Berichte aus Indien und Teilen Asiens auf minimale Auswirkungen hin, was auf einen möglichen Ausfall eines regionalen Serverclusters oder einen spezifischen Zusammenbruch in der Routing-Infrastruktur hindeutet, die westliche Märkte bedient.

Kritische Funktionen und Arbeitsabläufe lahmgelegt

Im Gegensatz zu kleineren Störungen, die oft nur bestimmte Modalitäten betreffen, war dieser Ausfall für die betroffenen Regionen umfassend. Nutzer berichteten von vollständiger Unerreichbarkeit von GPT-5.2 (der neuesten Modelliteration) und den fortgeschrittenen Reasoning-Fähigkeiten der Plattform.

Die Störung legte mehrere kritische Komponenten des OpenAI-Ökosystems lahm:

  • Konversations-KI: Die zentrale ChatGPT-Schnittstelle zeigte sich drehende Ladeindikatoren oder Netzwerkausfall-Toasts.
  • Codex & Atlas: Die kürzlich eingeführten agentischen Coding-Funktionen waren offline und unterbrachen Entwickler-Workflows, die mit Xcode integriert sind.
  • Bildgenerierung: Die DALL-E 3-Integration reagierte nicht und konnte keine Prompts verarbeiten.
  • API-Endpunkte: Unternehmenskunden erlebten Timeouts, was Drittanbieteranwendungen, die auf der Infrastruktur von OpenAI aufbauen, beeinträchtigte.

Für die Entwickler-Community war das Timing besonders problematisch. Der Ausfall ereignete sich nur einen Tag nach dem Start der neuen Codex-App für macOS, die eine hohe Akzeptanz verzeichnete. Spekulationen in technischen Foren legen nahe, dass der plötzliche Zustrom schwerer, agentischer Rechenlasten von der neuen Desktop-Anwendung zur Belastung der Inferenz-Cluster von OpenAI beigetragen haben könnte.

OpenAIs Reaktion und technische Analyse

OpenAI reagierte schnell, um das Problem anzuerkennen, gab während des Ereignisses jedoch nur spärliche technische Details bekannt. Die Statusseite des Unternehmens meldete zunächst "erhöhte Fehlerraten für ChatGPT- und Plattformnutzer" und fügte später eine separate Vorfallnotiz für "erhöhte Fehlerraten bei Fine-Tuning-Jobs" hinzu.

In einer Stellungnahme nach der Wiederherstellung bestätigte OpenAI, dass ein Fix implementiert worden sei, nannte die Ursache jedoch nicht sofort. "Wir haben ein Konfigurationsproblem identifiziert, das unsere Orchestrierungsschicht für Inferenz (inference orchestration layer) betraf", erklärte ein Sprecher, "was zu kaskadierenden Fehlern über mehrere Availability Zones führte. Wir haben eine Abmilderung angewendet und überwachen die Wiederherstellung."

Branchenanalysten untersuchen die Korrelation zwischen dem Ausfall und den jüngsten Funktions-Rollouts genau. Die Einführung von „Extended Thinking“-Modi (Extended Thinking) und die hohen Rechenanforderungen der neuen Codex-Agenten benötigen pro Anfrage deutlich mehr GPU-Ressourcen als Standardabfragen. Sollten die Lastverteilungsalgorithmen nicht dynamisch skaliert haben, um dem Anstieg durch die neuen macOS-App-Nutzer gerecht zu werden, könnte dies den plötzlichen lokalen Zusammenbruch der Dienste in stark genutzten Zeitzonen wie der US-Ostküste erklären.

Breitere Auswirkungen der Abhängigkeit von KI

Dieser Vorfall ist eine eindringliche Erinnerung an die Risiken, die mit zentralisierten, cloudbasierten KI (AI)-Diensten verbunden sind. Da Unternehmen zunehmend agentische Workflows integrieren — bei denen KI autonom Programmierung, Datenanalyse und Kundensupport übernimmt — wandelt sich Ausfallzeit von einer kleinen Unannehmlichkeit zu einem erheblichen Risiko für die Geschäftskontinuität.

Vergleichende Zuverlässigkeitsanalyse (Q1 2026)

Platform Recent Incident Resolution Time Primary Cause
ChatGPT (OpenAI) 3. Feb. 2026 ~3 Stunden Inferenz-/Verkehrslast
Claude (Anthropic) 3. Feb. 2026 ~45 Minuten API-Gateway-Fehler
Gemini (Google) 15. Jan. 2026 ~2 Stunden Authentifizierungsdienst

Bemerkenswerterweise erlebte OpenAIs Konkurrent Anthropic ebenfalls am selben Tag einen kurzen Dienstfehler, der jedoch in weniger als einer Stunde behoben wurde. Die Doppelausfälle lösten Diskussionen in sozialen Medien über die Stabilität der aktuellen Generation der Serving-Infrastruktur für Großmodelle (Großes Sprachmodell, Large Language Model, LLM) aus. Da der NVIDIA-CEO Jensen Huang kürzlich bestätigt hat, dass der 100‑Milliarden‑Dollar-Investitionsfahrplan für OpenAI "auf Kurs" sei, steigt der Druck, resilientere, redundantere Systeme zu bauen, die mit dem exponentiellen Wachstum der KI-Inferenznachfrage Schritt halten können.

Für den Moment sind die Dienste wieder online, und das „grüne Licht“ ist auf dem OpenAI-Status-Dashboard zurückgekehrt. Für die Tausenden von Entwicklern und Unternehmenskunden, die einen Nachmittag Produktivität verloren haben, unterstreicht der Ausfall jedoch den dringenden Bedarf an robusten Fallback-Strategien in einer KI-zentrierten Welt.


Schlüsselwortanalyse

(Hinweis: Alle extrahierten Schlüsselwörter sind im obigen Text enthalten.)

Ausgewählt