AI News

Die "Welt in Gefahr": Führende Sicherheitsforscher lösen branchenweiten Exodus aus

Der Sektor der Künstlichen Intelligenz (Artificial Intelligence, AI) ist diese Woche nach einer Reihe prominenter Rücktritte bei seinen drei dominantesten Akteuren – Anthropic, OpenAI und xAI – erschüttert. Innerhalb von nur 72 Stunden hat die Branche einen leitenden Sicherheitsforscher, eine wichtige Strategin und einen Mitbegründer verloren, die jeweils mit Botschaften ausschieden, die von kryptischen Warnungen vor einer globalen Katastrophe bis hin zu konkreten Bedenken hinsichtlich der Kommerzialisierung reichten.

Diese Abgänge finden vor dem Hintergrund eines sich intensivierenden Wettbewerbs statt, während Anthropic die Veröffentlichung seines massiven Claude Opus 4.6-Modells vorbereitet und OpenAI zu einem werbefinanzierten Erlösmodell übergeht. Der Zeitpunkt ist besonders kritisch, da sich weltweit führende Technologievertreter nächste Woche in Neu-Delhi zum ersten AI Impact Summit 2026 treffen.

Anthropics Sicherheitsbeauftragter geht mit einer beängstigenden Warnung

Der resonanteste der Abgänge dieser Woche ist der von Mrinank Sharma, dem nun ehemaligen Leiter des Safeguards Research Team von Anthropic. Sharma, ein in Oxford ausgebildeter Experte für Maschinelles Lernen (Machine Learning), der 2023 zum Unternehmen stieß, gab seinen Rücktritt am Montag mit einem öffentlichen Brief bekannt, der seither unter Branchenbeobachtern viral gegangen ist.

Im Gegensatz zu den üblichen geschäftlichen Höflichkeiten, die solche Ankündigungen normalerweise begleiten, war Sharmas Abschied eine ungeschönte, fast philosophische Warnung. Er erklärte ausdrücklich, dass die „Welt in Gefahr“ sei, und stellte klar, dass sich seine Sorge über AI-Risiken hinaus auf eine „ganze Reihe miteinander verbundener Krisen erstreckt, die sich in genau diesem Moment entfalten“.

Sharmas Amtszeit bei Anthropic war geprägt von seiner Arbeit an kritischen Sicherheitsinitiativen, einschließlich der Abwehr von AI-gestütztem Bioterrorismus und der Erforschung von AI-Sykophantie (AI sycophancy) – der Tendenz von Modellen, Benutzern unabhängig von der Wahrheit zuzustimmen. Sein Rücktrittsschreiben deutete jedoch auf tiefe interne Konflikte hinsichtlich der Ausrichtung des Unternehmens hin.

„Ich habe wiederholt gesehen, wie schwer es ist, unsere Werte wirklich unser Handeln bestimmen zu lassen“, schrieb Sharma und deutete an, dass externer Druck Kompromisse bei der zentralen Sicherheitsmission des Unternehmens erzwinge. „Wir sind ständig dem Druck ausgesetzt, das beiseite zu schieben, was am wichtigsten ist.“

Der Forscher gab an, dass er nach Großbritannien zurückkehren werde, um „für eine gewisse Zeit unsichtbar zu werden“, und drückte die Absicht aus, Lyrik zu studieren, anstatt sofort zu einem Konkurrenten zu wechseln. Dieser Rückzug aus dem Feld unterstreicht ein wachsendes Gefühl von Burnout und moralischen Konflikten unter den Wissenschaftlern, die damit beauftragt sind, genau jene Systeme zu bändigen, an deren Aufbau sie mitwirken.

OpenAI sieht sich mit Gegenwind wegen kommerzieller Strategie konfrontiert

Während Sharmas Abgang in existenziellen Begriffen gefasst war, deutete der Rücktritt von Zoe Hitzig bei OpenAI am Dienstag auf greifbarere Verschiebungen in der Geschäftsstrategie hin. Hitzig, eine Forscherin mit Schwerpunkt auf Produkt- und Sicherheitsstrategie, verließ das Unternehmen unter Berufung auf „tiefe Vorbehalte“ gegenüber dem sich entwickelnden Geschäftsmodell von OpenAI.

Quellen, die der Angelegenheit nahestehen, deuten darauf hin, dass Hitzigs Abgang durch interne Diskussionen über die Einführung von Werbung in die Benutzeroberfläche von ChatGPT beschleunigt wurde. Während OpenAI weiterhin nach Einnahmequellen sucht, um seine massiven Rechenkosten zu decken, hat der Wechsel zu einem werbefinanzierten Modell ethische Fragen zur Benutzermanipulation und zur Integrität von AI-generierten Antworten aufgeworfen.

Hitzigs Abgang ist Teil eines breiteren „Brain Drain“ bei OpenAI, dessen Gründungsteam in den letzten zwei Jahren erheblich geschrumpft ist. Ihr Ausscheiden unterstreicht die Reibungen zwischen den gemeinnützigen Wurzeln der Organisation und ihrem zunehmend aggressiven gewinnorientierten Kurs.

Das xAI-Stühlerücken und die SpaceX-Konsolidierung

Das Trio der Abgänge wird durch Tony Wu vervollständigt, einen Mitbegründer von xAI, Elon Musks Venture für Künstliche Intelligenz. Wu gab seinen Rücktritt am späten Montag bekannt und erklärte schlicht, es sei „Zeit, weiterzuziehen“. Während seine Botschaft weniger kritisch war als die von Sharma oder Hitzig, erfolgt sie während einer chaotischen Umstrukturierungsphase des Unternehmens.

xAI wurde vor kurzem von SpaceX übernommen, einem weiteren von Musk kontrollierten Unternehmen, in einem Schritt, der als Weg beschrieben wurde, um „Rechenleistung“ mithilfe von weltraumgestützten Ressourcen zu generieren. Diese Konsolidierung hat Berichten zufolge das ursprüngliche Führungsteam verunsichert. Wu schließt sich anderen Mitbegründern wie Igor Babuschkin an, die kürzlich zurückgetreten sind, wodurch xAI nur noch über einen Bruchteil seiner ursprünglichen technischen Führung verfügt.

Zusammenfassung der wichtigsten Abgänge

Die folgende Tabelle skizziert die bedeutenden Abgänge, die die großen AI-Labore diese Woche betreffen:

Name Unternehmen Rolle Grund für das Ausscheiden
Mrinank Sharma Anthropic Leiter, Safeguards Research Team Zitierte „Welt in Gefahr“ und internen Druck, Werte zu kompromittieren
Zoe Hitzig OpenAI Forscherin, Produkt- & Sicherheitsstrategie Bedenken hinsichtlich der vorgeschlagenen Werbestrategie in ChatGPT
Tony Wu xAI Mitbegründer Persönliche Entscheidung inmitten von Umstrukturierungen und SpaceX-Übernahme

Das Rennen um „Claude Opus 4.6“

Der Kontext dieser Abgänge kann nicht ignoriert werden. Berichten zufolge steht Anthropic kurz vor der Einführung von Claude Opus 4.6, einem Modell, von dem erwartet wird, dass es aktuelle Benchmarks deutlich übertrifft. Der Druck, dieses Modell fertigzustellen und zu veröffentlichen, hat wahrscheinlich zu dem von Sharma erwähnten „Druck, das beiseite zu schieben, was am wichtigsten ist“, beigetragen.

Brancheninsider spekulieren, dass das Rennen um die Vorherrschaft bei der nächsten Generation von Modellen die Zeitpläne für die Sicherheit verkürzt. Während Unternehmen um Bewertungen kämpfen, die die 350-Milliarden-Dollar-Marke erreichen, konkurriert die Stimme des Sicherheitsforschers zunehmend mit dem Tosen der kommerziellen Notwendigkeit.

Alle Augen auf den AI Impact Summit 2026 gerichtet

Diese Rücktritte bereiten eine angespannte Bühne für den AI Impact Summit 2026, der am 16. Februar in Neu-Delhi beginnen soll. Der Gipfel wird die Titanen der Branche beherbergen, darunter Anthropic-CEO Dario Amodei, Sam Altman von OpenAI und Sundar Pichai von Google.

Der Gipfel war als Schauplatz für technologischen Fortschritt und internationale Zusammenarbeit gedacht. Mit dem frischen Abgang eines führenden Sicherheitsbeauftragten, der vor globaler Gefahr warnt, wird sich die Agenda jedoch wahrscheinlich verschieben. Die Führungskräfte werden nun mit gezielten Fragen dazu konfrontiert, ob die „Governance“, die sie auf der Bühne predigen, in ihren Labors auch praktiziert wird.

Für Creati.ai bleibt die Frage: Wenn die Personen, die dafür bezahlt werden, unsere Sicherheit zu gewährleisten, gehen, weil sie sich nicht gehört fühlen, wer bleibt dann übrig, um die Schutzplanken (Guardrails) zu bewachen? Während die Branche voranschreitet, könnte das Schweigen dieser scheidenden Experten nächste Woche lauter sprechen als jede Grundsatzrede.

Ausgewählt