AI News

Das Ultimatum des Pentagons: Compliance oder Kündigung für Anthropic

Die Schnittmenge von nationaler Verteidigung und Künstlicher Intelligenz (Artificial Intelligence, AI) hat diese Woche einen kritischen Brennpunkt erreicht. Nach einer Reihe operativer Reibereien bereitet sich das Verteidigungsministerium der Vereinigten Staaten (United States Department of Defense, DoD) Berichten zufolge darauf vor, die Verbindungen zu Anthropic zu trennen, dem in San Francisco ansässigen Forschungslabor für KI-Sicherheit und Schöpfer der Claude-Sprachmodellserie. Verhandlungsnahe Quellen deuten darauf hin, dass das Pentagon ein striktes Ultimatum gestellt hat: Die ethischen Leitplanken, die den Einsatz von KI in Kampfszenarien einschränken, müssen entfernt werden, andernfalls droht die sofortige Kündigung staatlicher Verträge.

Diese Entwicklung markiert eine erhebliche Eskalation der anhaltenden Spannungen zwischen den ethischen Prinzipien des Silicon Valley und den strategischen Notwendigkeiten Washingtons. Wie von großen Medienhäusern, darunter The Guardian und NDTV, berichtet wurde, scheint der Auslöser für diesen Bruch ein spezifisches operatives Versagen während eines jüngsten Militäreinsatzes in Venezuela zu sein, bei dem in Anthropics Modellen eingebettete Sicherheitsprotokolle angeblich die Entscheidungsfindung in Echtzeit behinderten.

Für Creati.ai stellt dieser Stillstand mehr als nur einen Geschäftsstreit dar; es ist ein definierender Moment für die Zukunft der „Dual-Use“-Technologie (Dual-Use Technology). Das Ergebnis wird wahrscheinlich einen Präzedenzfall dafür schaffen, wie KI-Unternehmen in den trüben Gewässern der Verteidigungsaufträge navigieren, während sie gleichzeitig versuchen, ihre Verpflichtungen zur KI-Sicherheit aufrechtzuerhalten.

Der Auslöser: Der Venezuela-Zwischenfall

Während die Spannungen seit Monaten schwelen, kam der Bruchpunkt nach einer Geheimoperation in Venezuela Anfang Februar 2026. Investigativen Berichten zufolge versuchten US-Spezialkräfte, eine angepasste Instanz von Anthropics fortschrittlichem Modell Claude zu nutzen, um während einer riskanten Razzia Überwachungsdaten in Echtzeit zu analysieren und die Drohnenlogistik zu koordinieren.

Das System weigerte sich jedoch Berichten zufolge, spezifische Zielanfragen zu verarbeiten, und markierte die Befehle als Verstöße gegen sein „Verfassungs-KI (Constitutional AI)“-Framework – ein Satz von Prinzipien, die verhindern sollen, dass das Modell bei Schaden oder Gewalt unterstützt. Die Verweigerung zwang die Kommandanten dazu, zur manuellen Verarbeitung zurückzukehren, was zu kritischen Verzögerungen führte. Obwohl das DoD die Missionsdetails offiziell nicht freigegeben hat, deuten Insider darauf hin, dass die Latenz zu einem Verlust des taktischen Vorteils beitrug.

Dieser Vorfall hat die Hardliner im Pentagon bestärkt, die argumentieren, dass „Woke KI“ eine Belastung in der modernen Kriegsführung darstellt. Das Argument ist simpel: In einer Ära der algorithmischen Kriegsführung ist ein Werkzeug, das aufgrund ethischer Subroutinen zögert, ein Werkzeug, dem auf dem Schlachtfeld nicht vertraut werden kann.

Der Kernkonflikt: Verfassungs-KI vs. JADC2

Im Mittelpunkt des Streits steht ein grundlegendes Missverhältnis zwischen der Produktphilosophie von Anthropic und der Militärdoktrin des Joint All-Domain Command and Control (JADC2).

Anthropic hat sich auf dem überfüllten KI-Markt dadurch hervorgetan, dass es der Sicherheit Priorität einräumt. Ihr Ansatz der „Verfassungs-KI“ beinhaltet das Training von Modellen gegen einen Satz ethischer Regeln, die von der UN-Menschenrechtscharta und anderen Frameworks abgeleitet sind. Diese Regeln verbieten explizit die Generierung von Inhalten, die Gewalt fördern oder bei der Waffenstationierung helfen.

Umgekehrt benötigt das Pentagon KI-Systeme, die als agnostische Kraftmultiplikatoren (Force Multipliers) fungieren. Sie fordern Modelle, die in der Lage sind:

  • Kill Chains zu optimieren.
  • Die Letalität auf dem Schlachtfeld zu analysieren.
  • Code für offensive Cyberoperationen zu generieren.

Das DoD betrachtet die von Anthropic auferlegten Einschränkungen nicht als Sicherheitsmerkmale, sondern als „Fähigkeitsminderer“. Die folgende Tabelle skizziert die spezifischen Abweichungen, die die Reibungen verursachen.

Tabelle: Die ideologische Kluft zwischen Anthropic und dem Pentagon

Merkmal/Anforderung Anthropics Haltung zur „Verfassungs-KI“ Operative Anforderung des Pentagons
Letale Anwendung Strikt untersagt; Modell weigert sich, bei Gewalt zu unterstützen. Essenziell; Modell muss Waffensysteme und Zielerfassung unterstützen.
Befehls-Override Konstruktionsbedingt unmöglich; Sicherheit ist fest codiert. Obligatorisch; menschliche Kommandanten müssen die volle Kontrolle haben.
Datenschutz Hoch; strikte Grenzen für die Überarbeitungsverarbeitung. Variabel; erfordert die Verarbeitung intrusiver Geheimdienstdaten.
Einsatzgeschwindigkeit Verlangsamt durch Sicherheitsbewertungen und Red-Teaming. Sofortig; erfordert „Speed of Relevance“ im Konflikt.
Ethische Basis Universelle Menschenrechte / Schadensbegrenzung. Nationale Sicherheit (National Security) / Missionserfolg.

Details des Ultimatums

Die Drohung des Pentagons ist nicht nur rhetorisch. Verteidigungsbeamte haben Berichten zufolge eine Richtlinie entworfen, die Anbieter disqualifizieren würde, deren Endbenutzer-Lizenzverträge (End User License Agreements, EULAs) die „rechtmäßige militärische Anwendung“ ihrer Technologie einschränken.

Falls umgesetzt, würde diese Richtlinie:

  1. Laufende Verträge einfrieren: Anthropic würde seine aktuellen Pilotprogramme mit der Defense Innovation Unit (DIU) verlieren.
  2. Zukünftige Gebote auf die schwarze Liste setzen: Das Unternehmen wäre für die bevorstehende 10-Milliarden-Dollar-Initiative „Project Maven II“ nicht teilnahmeberechtigt.
  3. Finanzierung auf Wettbewerber verlagern: Mittel würden an verteidigungsnahe KI-Firmen wie Palantir, Anduril oder Shield AI umverteilt, die keine ähnlichen Einschränkungen auferlegen.

Ein hochrangiger Verteidigungsbeamter, der unter der Bedingung der Anonymität sprach, erklärte: „Wir können keine Software haben, die mitten in einem Feuergefecht als Kriegsdienstverweigerer auftritt. Wir brauchen Compliance, keine Philosophie.“

Auswirkungen auf die Branche: OpenAI und Google

Der Druck auf Anthropic intensiviert sich, da seine Wettbewerber bereits umschwenken, um dem Militär entgegenzukommen. OpenAI, einst zögerlich, entfernte Anfang 2024 stillschweigend das Verbot von „Militär und Kriegsführung“ aus seinen Nutzungsrichtlinien. Bis 2026 hat OpenAI aktiv Partnerschaften mit dem DoD gesucht und seine Modelle als „einsatzbereit“ (mission-ready) positioniert.

Google hat trotz historischem internen Widerstand (wie den Mitarbeiterprotesten von 2018 gegen Project Maven) ebenfalls aggressiv um Verteidigungsaufträge unter seiner Abteilung Google Public Sector geworben.

Anthropic steht als eines der letzten großen KI-Labore da, das eine harte Linie gegen den letalen Einsatz beibehält. Wenn sie kapitulieren, signalisiert dies das Ende der Ära des „KI-Pazifismus“ im Silicon Valley. Wenn sie die Linie halten, riskieren sie, einen der weltweit größten Kunden zu verlieren und im Regierungssektor marginalisiert zu werden.

Das ethische Dilemma: Sicherheit oder Souveränität?

Für die KI-Gemeinschaft wirft diese Nachricht tiefgreifende Fragen zum Konzept der „Dual-Use“-Technologie auf. Kann ein Modell wirklich sicher sein, wenn es bewaffnet werden kann? Kann umgekehrt eine Nation sicher bleiben, wenn ihre fortschrittlichste Technologie daran gehindert wird, sie zu verteidigen?

Argumente für die Haltung des Pentagons:

  • Geopolitischer Wettbewerb: Rivalen wie China und Russland integrieren KI ohne ethische Einschränkungen in ihr Militär. Die USA riskieren eine „Abschreckungslücke“, wenn sie ihre eigenen Systeme behindern.
  • Operative Notwendigkeit: In der Hochgeschwindigkeitskriegsführung könnte die durch ethische Filter eingeführte Latenz Menschenleben kosten.

Argumente für Anthropics Haltung:

  • Proliferationsrisiko: Wenn KI die Kriegsführung optimieren darf, sinkt die Hemmschwelle für Konflikte, was zu unkontrollierbarer Eskalation führen könnte.
  • Moralische Verantwortung: Tech-Entwickler haben die Pflicht sicherzustellen, dass ihre Erfindungen keinen Massenschaden ermöglichen.
  • Markenintegrität: Anthropics Markenwert basiert auf Vertrauen und Sicherheit. Das Aufgeben dieser Prinzipien könnte Unternehmenskunden und Top-Forschungstalente entfremden.

Expertenanalyse

Dr. Elena Corves, Senior Fellow am Center for a New American Security (CNAS), sagte gegenüber Creati.ai:

„Das war unvermeidlich. Man kann nicht die leistungsfähigsten kognitiven Engines der Geschichte bauen und erwarten, dass das Militär sie ignoriert. Anthropic spielt ein ‚Chicken-Game‘ mit der mächtigsten Institution der Welt. Während ihre ethische Haltung bewundernswert ist, gewinnt das Pentagon normalerweise diese Starrduelle. Das wahrscheinlichste Ergebnis ist ein Fork: Anthropic muss möglicherweise eine ‚Gov-Cloud‘-Version von Claude mit reduzierten Sicherheitsfiltern erstellen oder sich ganz aus dem Verteidigungssektor zurückziehen.“

Andere argumentieren jedoch, dass Anthropic ein Druckmittel in der Hand hat. Die kognitiven Argumentationsfähigkeiten der Claude-5-Serie sind Berichten zufolge den Wettbewerbern bei der Handhabung komplexer, nuancierter Logik überlegen – genau das, was Geheimdienstanalysten benötigen. Wenn das Pentagon die Verbindungen kappt, verlieren sie den Zugang zu einer erstklassigen Fähigkeit.

Was kommt als Nächstes?

Während die Verhandlungen hinter verschlossenen Türen in Washington weitergehen, bleibt das Ergebnis ungewiss. Die Frist für Anthropic, auf die neuen Compliance-Anforderungen des DoD zu reagieren, ist für Ende Februar 2026 angesetzt.

Falls Anthropic ablehnt, könnten wir eine zweigeteilte KI-Landschaft sehen:

  1. Kommerzielle KI: Sicher, ausgerichtet und eingeschränkt (dominiert von Anthropic).
  2. Souveräne KI: Uneingeschränkt, letal und staatlich kontrolliert (dominiert von Verteidigungsunternehmen und kooperativen Tech-Giganten).

Vorerst dient der „Venezuela-Zwischenfall“ als deutliche Warnung: Die Ära der theoretischen KI-Ethik (AI ethics) ist vorbei. Die Technologie befindet sich nun an der Front, und die Einsatzregeln werden in Echtzeit geschrieben.

Creati.ai wird diese sich entwickelnde Geschichte weiterhin beobachten und Updates bereitstellen, sobald offizielle Erklärungen von sowohl Anthropic als auch dem Verteidigungsministerium veröffentlicht werden.

Ausgewählt