
In einer rekursiven Wendung, die sich wie aus den Seiten eines Cyberpunk-Romans liest, hat OpenAI Berichten zufolge seine eigene Schöpfung gegen die eigene Belegschaft gerichtet. Der Gigant der künstlichen Intelligenz nutzt nun eine spezialisierte, maßgeschneiderte Version von ChatGPT, um Mitarbeiter zu untersuchen und zu identifizieren, die für das Durchsickern sensibler interner Informationen an die Presse verantwortlich sind. Diese Entwicklung markiert eine bedeutende Eskalation im Krieg des Silicon Valley gegen die Geheimhaltung und verändert grundlegend die Dynamik zwischen den Schöpfern von KI und den Systemen, die sie bauen.
Für ein Unternehmen, dessen Mission es ist, „sicherzustellen, dass künstliche allgemeine Intelligenz (Artificial General Intelligence, AGI) der gesamten Menschheit zugutekommt“, scheint sich die interne Atmosphäre zunehmend darauf zu konzentrieren, sicherzustellen, dass Informationen über diese Intelligenz streng unter Verschluss bleiben. Wie The Information berichtet, ermöglicht dieses neue Tool dem Sicherheitspersonal, externe Nachrichtenartikel – etwa solche, die unveröffentlichte Modelle oder interne Streitigkeiten detailliert beschreiben – in das System einzuspeisen, das dann den öffentlichen Text mit riesigen Archiven interner Kommunikation abgleicht.
Der Mechanismus hinter diesem digitalen Detektiv ist ebenso wirkungsvoll wie dystopisch. Laut Quellen, die mit dem Prozess vertraut sind, gibt das Sicherheitsteam von OpenAI den Artikel in diese zweckgebundene ChatGPT-Instanz ein, wenn ein Leak in Medien wie The New York Times oder The Information auftaucht.
Im Gegensatz zur Verbraucherversion von ChatGPT, die von privaten Daten abgeschottet ist, hat diese interne Variante privilegierten Zugriff auf die tiefsten Kommunikationsprotokolle des Unternehmens. Sie kann Folgendes scannen:
Die KI analysiert den geleakten Artikel auf spezifische Formulierungen, einzigartige Datenpunkte oder obskure Projekt-Codenamen, die nur wenigen Auserwählten bekannt wären. Anschließend korreliert sie diesen „Fingerabdruck“ mit internen Aufzeichnungen, um Mitarbeiter zu markieren, die Zugriff auf diese spezifischen Informationen hatten oder die in privaten Chats eine ähnliche Sprache verwendeten.
Diese automatisierte forensische Analyse reduziert die Zeit, die für die Rückverfolgung eines Leaks erforderlich ist, dramatisch. Was früher Wochen manueller Protokollprüfung durch menschliche Ermittler dauerte, kann nun in wenigen Minuten auf eine kurze Liste von Verdächtigen eingegrenzt werden. Es verwandelt den vagen Verdacht, dass „jemand gesprochen hat“, in ein probabilistisches Ranking darüber, „wer höchstwahrscheinlich gesprochen hat“.
Der Einsatz dieses Tools ist keine isolierte Maßnahme, sondern eine Reaktion auf eine turbulente Periode in der Geschichte von OpenAI. Das Unternehmen wurde von hochkarätigen Leaks belagert, die nicht nur die Führungsebene blamiert, sondern wohl auch den Verlauf der gesamten Branche verändert haben.
Das berüchtigtste dieser Ereignisse war die Enthüllung von Q* (ausgesprochen Q-Star), einem mysteriösen Modell, das in der Lage ist, neuartige mathematische Probleme zu lösen. Informationen darüber sickerten nur wenige Tage vor der schockierenden Entlassung – und anschließenden Wiedereinstellung – von CEO Sam Altman im November 2023 durch. In jüngerer Zeit gelangten Details zu „Project Strawberry“ (später als o1-Modell veröffentlicht) an die Presse, was die sorgfältig orchestrierten Zeitpläne des Unternehmens für die Markteinführung untergrub.
Diese Vorfälle haben die interne Kultur von OpenAI verhärtet. Der offene akademische Geist, der die frühen Tage als gemeinnützige Organisation prägte, ist weitgehend verflogen und wurde durch die starren Informationssilos ersetzt, die typisch für ein Rüstungsunternehmen sind.
Tabelle 1: Zeitplan wichtiger OpenAI-Leaks und Sicherheitsreaktionen
| Datum | Ereignis / Leak | Folge / Reaktion |
|---|---|---|
| Nov. 2023 | Entdeckung von Q (Q-Star)* an Reuters durchgesickert. | Als Faktor für den Vertrauensverlust des Vorstands angeführt; befeuerte Debatten über KI-Sicherheit. |
| April 2024 | Forscher Leopold Aschenbrenner und Pavel Izmailov entlassen. | Beschuldigt, vertrauliche Informationen weitergegeben zu haben; Aschenbrenner reichte später Beschwerde bei der SEC ein. |
| Juli 2024 | Details zu Project Strawberry tauchen auf. | Enthüllte Argumentationsfähigkeiten vor dem offiziellen Start von „o1“; Sicherheitsprotokolle verschärft. |
| Ende 2024 | Einsatz des KI-Tools „Leak Catcher“. | Interne ChatGPT-Version eingeführt, um Slack/E-Mail nach Leak-Quellen zu scannen. |
| Laufend | Kontroverse um Whistleblower-NDAs. | SEC-Beschwerde behauptet illegale, restriktive Geheimhaltungsvereinbarungen. |
Die psychologischen Auswirkungen dieses Tools auf die Belegschaft von OpenAI können nicht hoch genug eingeschätzt werden. Die Mitarbeiter arbeiten nun in einer Umgebung, in der ihre Syntax, Wortwahl und ihr beiläufiger digitaler Fußabdruck ständig Gefahr laufen, von genau den Werkzeugen, die sie mitentwickeln, gegen sie verwendet zu werden.
Dies erzeugt einen „Panopticon-Effekt“ – das Gefühl, ständig beobachtet zu werden, selbst wenn der Beobachter ein Algorithmus ist. Es wirft tiefgreifende Fragen über die Natur der Arbeit im KI-Zeitalter auf. Wenn eine KI semantische Verschiebungen analysieren kann, um zu identifizieren, wer mit einem Reporter gesprochen hat, kann sie dann auch basierend auf einer Stimmungsanalyse ihrer Slack-Nachrichten vorhersagen, wer möglicherweise etwas leaken wird?
Die Ironie ist greifbar: Das Unternehmen trainiert seine Modelle hocheffektiv am offenen Internet (oft durch das Auslesen von Daten ohne explizite Zustimmung), setzt aber drakonische, KI-gestützte Überwachung ein, um zu verhindern, dass seine eigenen Daten in eben jene Öffentlichkeit zurückkehren.
Die aggressive Jagd auf Leaker überschneidet sich auch mit komplexen rechtlichen und ethischen Fragen zum Whistleblowing. Im April 2024 wurden die Forscher Leopold Aschenbrenner und Pavel Izmailov wegen angeblicher Leaks entlassen. Aschenbrenner, ein Mitglied des „Superalignment“-Teams, erklärte später öffentlich, seine Entlassung sei politisch motiviert gewesen, und reichte Beschwerde bei der US-Börsenaufsichtsbehörde Securities and Exchange Commission (SEC) ein.
In seiner Beschwerde behauptete er, dass die Geheimhaltungsvereinbarungen (Non-Disclosure Agreements, NDAs) von OpenAI illegal restriktiv seien und Mitarbeiter potenziell daran hinderten, Sicherheitsbedenken an Regulierungsbehörden zu melden. Falls das „Leak Catcher“-Tool dazu verwendet wird, Mitarbeiter zu identifizieren, die mit Bundesbehörden kommunizieren oder Sicherheitsverstöße aufdecken – anstatt nur Geschäftsgeheimnisse zu verkaufen –, könnte OpenAI mit erheblichem rechtlichem Gegenwind konfrontiert werden.
OpenAI steht mit dieser Festungsmentalität nicht allein da, ist aber vielleicht am aggressivsten bei deren Automatisierung. Während die Einsätze im „KI-Wettrüsten“ steigen und Billionen von Dollar an Marktwert auf dem Spiel stehen, verschärfen auch führende Labore wie Google DeepMind und Anthropic ihre Sicherheitsvorkehrungen.
Der Einsatz eines großen Sprachmodells (Large Language Model, LLM) zur Überwachung menschlicher Mitarbeiter führt jedoch eine neue Variable ein. Traditionelle Software zur Verhinderung von Datenverlust (Data Loss Prevention, DLP) sucht nach spezifischen Dateiübertragungen oder Schlüsselwörtern. Ein LLM-basiertes Sicherheitstool versteht den Kontext. Es kann ein Leak selbst dann erkennen, wenn der Mitarbeiter die Informationen umschrieben hat, um Schlüsselwortfilter zu umgehen. Dies stellt einen Quantensprung in den unternehmenseigenen Spionageabwehr-Fähigkeiten dar.
Der hier gesetzte Präzedenzfall ist für den breiteren Technologiesektor beunruhigend. Da KI-Tools immer stärker in Unternehmenssoftware integriert werden, wird die Fähigkeit zur tiefgehenden, semantischen Überwachung von Mitarbeitern zu einer Massenware.
Der Einsatz eines maßgeschneiderten ChatGPT durch OpenAI, um Leaker zu fassen, ist ein technologisches Wunderwerk und ein kultureller Warnschuss. Es demonstriert die rohe Kraft der Technologie, riesige Mengen unstrukturierter Daten zu analysieren, um die „Nadel im Heuhaufen“ zu finden. Dennoch signalisiert es auch das Ende der Ära der Offenheit in der KI-Forschung.
Während diese Unternehmen auf die künstliche allgemeine Intelligenz (AGI) zusteuern, schließen sich die Mauern. Die Forscher, die die Zukunft bauen, tun dies unter dem wachsamen Auge genau der Intelligenz, die sie erschaffen. Für Creati.ai unterstreicht diese Entwicklung ein kritisches Spannungsfeld: Da KI-Systeme immer leistungsfähiger werden, werden sie unweigerlich dazu eingesetzt, die Machtstrukturen der Organisationen durchzusetzen, die sie kontrollieren, wodurch die „Black Box“ der KI zu einem Werkzeug wird, um die Organisation selbst als Black Box zu bewahren.
Die Botschaft an die OpenAI-Mitarbeiter ist klar: Die KI hört zu, und sie kennt Ihren Schreibstil besser als Sie selbst.