AI News

L'ultimatum du Pentagone : Conformité ou annulation pour Anthropic

L'intersection de la défense nationale et de l'intelligence artificielle (Artificial Intelligence - AI) a atteint un point de rupture critique cette semaine. Suite à une série de frictions opérationnelles, le Département de la Défense des États-Unis (United States Department of Defense - DoD) s'apprêterait à rompre ses liens avec Anthropic, le laboratoire de recherche sur la sécurité de l'IA basé à San Francisco et créateur de la série de modèles de langage Claude. Des sources proches des négociations indiquent que le Pentagone a lancé un ultimatum strict : supprimer les garde-fous éthiques qui limitent l'application de l'IA dans les scénarios de combat, ou faire face à la résiliation immédiate des contrats gouvernementaux.

Ce développement marque une escalade significative dans la tension continue entre les principes éthiques de la Silicon Valley et les nécessités stratégiques de Washington. Comme l'ont rapporté des médias majeurs, dont The Guardian et NDTV, le catalyseur de cette rupture semble être un échec opérationnel spécifique lors d'un récent engagement militaire au Venezuela, où les protocoles de sécurité intégrés dans les modèles d'Anthropic auraient entravé la prise de décision en temps réel.

Pour Creati.ai, cette impasse représente plus qu'un différend commercial ; c'est un moment décisif pour l'avenir de la technologie à « double usage » (dual-use). Le résultat créera probablement un précédent sur la manière dont les entreprises d'IA naviguent dans les eaux troubles des contrats de défense tout en tentant de maintenir leurs engagements envers la sécurité de l'IA.

Le catalyseur : l'incident du Venezuela

Bien que les tensions couvent depuis des mois, le point de rupture est survenu à la suite d'une opération classifiée au Venezuela début février 2026. Selon des rapports d'investigation, les forces spéciales américaines ont tenté d'utiliser une instance personnalisée du modèle avancé d'Anthropic, Claude, pour analyser des données de surveillance en temps réel et coordonner la logistique des drones lors d'un raid à enjeux élevés.

Cependant, le système aurait refusé de traiter des demandes de ciblage spécifiques, signalant les commandes comme des violations de son cadre d'« IA constitutionnelle (Constitutional AI) » — un ensemble de principes conçus pour empêcher le modèle d'aider à causer des dommages ou de la violence. Ce refus a forcé les commandants à revenir à un traitement manuel, entraînant des retards critiques. Bien que le DoD n'ait pas officiellement déclassifié les détails de la mission, des initiés suggèrent que cette latence a contribué à une perte d'avantage tactique.

Cet incident a enhardi les faucons au sein du Pentagone qui soutiennent que l'« IA woke » est un handicap dans la guerre moderne. L'argument est simple : dans une ère de guerre algorithmique, un outil qui hésite en raison de sous-programmes éthiques est un outil auquel on ne peut pas faire confiance sur le champ de bataille.

Le conflit central : IA constitutionnelle vs JADC2

Au cœur du différend se trouve une inadéquation fondamentale entre la philosophie de produit d'Anthropic et la doctrine militaire du Joint All-Domain Command and Control (JADC2).

Anthropic s'est distingué sur le marché encombré de l'IA en accordant la priorité à la sécurité. Leur approche d'« IA constitutionnelle » consiste à entraîner des modèles selon un ensemble de règles éthiques dérivées de la Déclaration universelle des droits de l'homme et d'autres cadres. Ces règles interdisent explicitement la génération de contenu qui encourage la violence ou aide au déploiement d'armes.

À l'inverse, le Pentagone a besoin de systèmes d'IA qui fonctionnent comme des multiplicateurs de force agnostiques. Ils exigent des modèles capables de :

  • Optimiser les chaînes de destruction (kill chains).
  • Analyser la létalité sur le champ de bataille.
  • Générer du code pour des opérations cybernétiques offensives.

Le DoD considère les restrictions imposées par Anthropic non pas comme des caractéristiques de sécurité, mais comme des « dégradateurs de capacité ». Le tableau ci-dessous présente les divergences spécifiques à l'origine de la friction.

Tableau : Le fossé idéologique entre Anthropic et le Pentagone

Caractéristique/Exigence Position de l'« IA constitutionnelle » d'Anthropic Exigence opérationnelle du Pentagone
Application létale Strictement interdite ; le modèle refuse d'aider à la violence. Essentielle ; le modèle doit soutenir les systèmes d'armes et le ciblage.
Contournement du commandement Impossible par conception ; la sécurité est codée en dur. Obligatoire ; les commandants humains doivent avoir un contrôle total.
Confidentialité des données Élevée ; limites strictes sur le traitement de la surveillance. Variable ; nécessite le traitement de données de renseignement intrusives.
Vitesse de déploiement Ralentie par les évaluations de sécurité et le red-teaming. Immédiate ; nécessite une « vitesse de pertinence » en conflit.
Base éthique Droits de l'homme universels / Réduction des dommages. Sécurité nationale / Succès de la mission.

Détails de l'ultimatum

La menace du Pentagone n'est pas purement rhétorique. Les responsables de la défense auraient rédigé une directive qui disqualifierait les fournisseurs dont les contrats de licence utilisateur final (EULA) restreignent l'« application militaire légale » de leur technologie.

Si elle était exécutée, cette politique :

  1. Gèlerait les contrats actuels : Anthropic perdrait ses programmes pilotes actuels avec la Defense Innovation Unit (DIU).
  2. Placerait l'entreprise sur liste noire pour les futurs appels d'offres : L'entreprise ne serait pas éligible à la prochaine initiative « Project Maven II » de 10 milliards de dollars.
  3. Réallouerait les fonds vers les concurrents : Les fonds seraient redistribués vers des entreprises d'IA natives de la défense comme Palantir, Anduril ou Shield AI, qui n'imposent pas de restrictions similaires.

Un haut responsable de la défense, s'exprimant sous couvert d'anonymat, a déclaré : « Nous ne pouvons pas avoir de logiciel qui agit comme un objecteur de conscience au milieu d'une fusillade. Nous avons besoin de conformité, pas de philosophie. »

Effets de ricochet dans l'industrie : OpenAI et Google

La pression sur Anthropic s'intensifie car ses concurrents pivotent déjà pour s'adapter aux militaires. OpenAI, autrefois hésitant, a discrètement supprimé l'interdiction de l'« armée et de la guerre » de ses politiques d'utilisation début 2024. D'ici 2026, OpenAI a activement poursuivi des partenariats avec le DoD, positionnant ses modèles comme « prêts pour la mission ».

Google, malgré une résistance interne historique (comme les protestations des employés de 2018 contre le projet Maven), a également courtisé agressivement les contrats de défense via sa division Google Public Sector.

Anthropic est l'un des derniers grands laboratoires d'IA à maintenir une ligne dure contre l'utilisation létale. S'ils capitulent, cela marquera la fin de l'ère du « pacifisme de l'IA » dans la Silicon Valley. S'ils tiennent bon, ils risquent de perdre l'un des plus gros clients au monde et d'être marginalisés dans le secteur gouvernemental.

Le dilemme éthique : sécurité ou souveraineté ?

Pour la communauté de l'IA, cette nouvelle soulève des questions profondes sur le concept de technologie à « double usage ». Un modèle peut-il être vraiment sûr s'il peut être militarisé ? À l'inverse, une nation peut-elle rester en sécurité si sa technologie la plus avancée lui est interdite pour se défendre ?

Arguments en faveur de la position du Pentagone :

  • Compétition géopolitique : Des adversaires comme la Chine et la Russie intègrent l'IA dans leurs armées sans restrictions éthiques. Les États-Unis risquent un « écart de dissuasion » s'ils handicapent leurs propres systèmes.
  • Nécessité opérationnelle : Dans une guerre à haute vitesse, la latence introduite par les filtres éthiques pourrait coûter des vies.

Arguments en faveur de la position d'Anthropic :

  • Risque de prolifération : Permettre à l'IA d'optimiser la guerre abaisse la barrière au conflit et pourrait mener à une escalade incontrôlable.
  • Responsabilité morale : Les créateurs de technologies ont le devoir de s'assurer que leurs inventions ne facilitent pas de dommages massifs.
  • Intégrité de la marque : L'image de marque d'Anthropic repose sur la confiance et la sécurité. Abandonner ces principes pourrait aliéner les clients d'entreprise et les meilleurs talents de recherche.

Analyse d'expert

La Dre Elena Corves, chercheuse principale au Center for New American Security (CNAS), a déclaré à Creati.ai :

« C'était inévitable. On ne peut pas construire les moteurs cognitifs les plus puissants de l'histoire et s'attendre à ce que les militaires les ignorent. Anthropic joue au jeu de la poule mouillée avec l'institution la plus puissante du monde. Bien que leur position éthique soit admirable, le Pentagone gagne généralement ces concours de regard. Le résultat le plus probable est une bifurcation : Anthropic devra peut-être créer une version "gov-cloud" de Claude avec des filtres de sécurité dépouillés, ou quitter entièrement le secteur de la défense. »

Cependant, d'autres soutiennent qu'Anthropic détient un levier de pression. Les capacités de raisonnement cognitif de la série Claude 5 seraient supérieures à celles des concurrents pour gérer une logique complexe et nuancée — exactement ce dont les analystes du renseignement ont besoin. Si le Pentagone rompt ses liens, il perd l'accès à une capacité de premier plan.

Quelle est la prochaine étape ?

Alors que les négociations se poursuivent à huis clos à Washington, l'issue reste incertaine. La date limite pour qu'Anthropic réponde aux nouvelles exigences de conformité du DoD est fixée à la fin de février 2026.

Si Anthropic refuse, nous pourrions voir un paysage de l'IA divisé en deux :

  1. IA commerciale : Sûre, alignée et restreinte (dominée par Anthropic).
  2. IA souveraine : Non restreinte, létale et contrôlée par l'État (dominée par les entreprises de défense et les géants technologiques dociles).

Pour l'instant, l'« incident du Venezuela » sert d'avertissement sévère : l'ère de l'éthique de l'IA (AI ethics) théorique est terminée. La technologie est désormais sur la ligne de front, et les règles d'engagement sont en train d'être écrites en temps réel.

Creati.ai continuera de suivre cette affaire en fournissant des mises à jour au fur et à mesure que les déclarations officielles d'Anthropic et du Département de la Défense seront publiées.

Vedettes