
L'intersection de la défense nationale et de l'intelligence artificielle (Artificial Intelligence - AI) a atteint un point de rupture critique cette semaine. Suite à une série de frictions opérationnelles, le Département de la Défense des États-Unis (United States Department of Defense - DoD) s'apprêterait à rompre ses liens avec Anthropic, le laboratoire de recherche sur la sécurité de l'IA basé à San Francisco et créateur de la série de modèles de langage Claude. Des sources proches des négociations indiquent que le Pentagone a lancé un ultimatum strict : supprimer les garde-fous éthiques qui limitent l'application de l'IA dans les scénarios de combat, ou faire face à la résiliation immédiate des contrats gouvernementaux.
Ce développement marque une escalade significative dans la tension continue entre les principes éthiques de la Silicon Valley et les nécessités stratégiques de Washington. Comme l'ont rapporté des médias majeurs, dont The Guardian et NDTV, le catalyseur de cette rupture semble être un échec opérationnel spécifique lors d'un récent engagement militaire au Venezuela, où les protocoles de sécurité intégrés dans les modèles d'Anthropic auraient entravé la prise de décision en temps réel.
Pour Creati.ai, cette impasse représente plus qu'un différend commercial ; c'est un moment décisif pour l'avenir de la technologie à « double usage » (dual-use). Le résultat créera probablement un précédent sur la manière dont les entreprises d'IA naviguent dans les eaux troubles des contrats de défense tout en tentant de maintenir leurs engagements envers la sécurité de l'IA.
Bien que les tensions couvent depuis des mois, le point de rupture est survenu à la suite d'une opération classifiée au Venezuela début février 2026. Selon des rapports d'investigation, les forces spéciales américaines ont tenté d'utiliser une instance personnalisée du modèle avancé d'Anthropic, Claude, pour analyser des données de surveillance en temps réel et coordonner la logistique des drones lors d'un raid à enjeux élevés.
Cependant, le système aurait refusé de traiter des demandes de ciblage spécifiques, signalant les commandes comme des violations de son cadre d'« IA constitutionnelle (Constitutional AI) » — un ensemble de principes conçus pour empêcher le modèle d'aider à causer des dommages ou de la violence. Ce refus a forcé les commandants à revenir à un traitement manuel, entraînant des retards critiques. Bien que le DoD n'ait pas officiellement déclassifié les détails de la mission, des initiés suggèrent que cette latence a contribué à une perte d'avantage tactique.
Cet incident a enhardi les faucons au sein du Pentagone qui soutiennent que l'« IA woke » est un handicap dans la guerre moderne. L'argument est simple : dans une ère de guerre algorithmique, un outil qui hésite en raison de sous-programmes éthiques est un outil auquel on ne peut pas faire confiance sur le champ de bataille.
Au cœur du différend se trouve une inadéquation fondamentale entre la philosophie de produit d'Anthropic et la doctrine militaire du Joint All-Domain Command and Control (JADC2).
Anthropic s'est distingué sur le marché encombré de l'IA en accordant la priorité à la sécurité. Leur approche d'« IA constitutionnelle » consiste à entraîner des modèles selon un ensemble de règles éthiques dérivées de la Déclaration universelle des droits de l'homme et d'autres cadres. Ces règles interdisent explicitement la génération de contenu qui encourage la violence ou aide au déploiement d'armes.
À l'inverse, le Pentagone a besoin de systèmes d'IA qui fonctionnent comme des multiplicateurs de force agnostiques. Ils exigent des modèles capables de :
Le DoD considère les restrictions imposées par Anthropic non pas comme des caractéristiques de sécurité, mais comme des « dégradateurs de capacité ». Le tableau ci-dessous présente les divergences spécifiques à l'origine de la friction.
Tableau : Le fossé idéologique entre Anthropic et le Pentagone
| Caractéristique/Exigence | Position de l'« IA constitutionnelle » d'Anthropic | Exigence opérationnelle du Pentagone |
|---|---|---|
| Application létale | Strictement interdite ; le modèle refuse d'aider à la violence. | Essentielle ; le modèle doit soutenir les systèmes d'armes et le ciblage. |
| Contournement du commandement | Impossible par conception ; la sécurité est codée en dur. | Obligatoire ; les commandants humains doivent avoir un contrôle total. |
| Confidentialité des données | Élevée ; limites strictes sur le traitement de la surveillance. | Variable ; nécessite le traitement de données de renseignement intrusives. |
| Vitesse de déploiement | Ralentie par les évaluations de sécurité et le red-teaming. | Immédiate ; nécessite une « vitesse de pertinence » en conflit. |
| Base éthique | Droits de l'homme universels / Réduction des dommages. | Sécurité nationale / Succès de la mission. |
La menace du Pentagone n'est pas purement rhétorique. Les responsables de la défense auraient rédigé une directive qui disqualifierait les fournisseurs dont les contrats de licence utilisateur final (EULA) restreignent l'« application militaire légale » de leur technologie.
Si elle était exécutée, cette politique :
Un haut responsable de la défense, s'exprimant sous couvert d'anonymat, a déclaré : « Nous ne pouvons pas avoir de logiciel qui agit comme un objecteur de conscience au milieu d'une fusillade. Nous avons besoin de conformité, pas de philosophie. »
La pression sur Anthropic s'intensifie car ses concurrents pivotent déjà pour s'adapter aux militaires. OpenAI, autrefois hésitant, a discrètement supprimé l'interdiction de l'« armée et de la guerre » de ses politiques d'utilisation début 2024. D'ici 2026, OpenAI a activement poursuivi des partenariats avec le DoD, positionnant ses modèles comme « prêts pour la mission ».
Google, malgré une résistance interne historique (comme les protestations des employés de 2018 contre le projet Maven), a également courtisé agressivement les contrats de défense via sa division Google Public Sector.
Anthropic est l'un des derniers grands laboratoires d'IA à maintenir une ligne dure contre l'utilisation létale. S'ils capitulent, cela marquera la fin de l'ère du « pacifisme de l'IA » dans la Silicon Valley. S'ils tiennent bon, ils risquent de perdre l'un des plus gros clients au monde et d'être marginalisés dans le secteur gouvernemental.
Pour la communauté de l'IA, cette nouvelle soulève des questions profondes sur le concept de technologie à « double usage ». Un modèle peut-il être vraiment sûr s'il peut être militarisé ? À l'inverse, une nation peut-elle rester en sécurité si sa technologie la plus avancée lui est interdite pour se défendre ?
Arguments en faveur de la position du Pentagone :
Arguments en faveur de la position d'Anthropic :
La Dre Elena Corves, chercheuse principale au Center for New American Security (CNAS), a déclaré à Creati.ai :
« C'était inévitable. On ne peut pas construire les moteurs cognitifs les plus puissants de l'histoire et s'attendre à ce que les militaires les ignorent. Anthropic joue au jeu de la poule mouillée avec l'institution la plus puissante du monde. Bien que leur position éthique soit admirable, le Pentagone gagne généralement ces concours de regard. Le résultat le plus probable est une bifurcation : Anthropic devra peut-être créer une version "gov-cloud" de Claude avec des filtres de sécurité dépouillés, ou quitter entièrement le secteur de la défense. »
Cependant, d'autres soutiennent qu'Anthropic détient un levier de pression. Les capacités de raisonnement cognitif de la série Claude 5 seraient supérieures à celles des concurrents pour gérer une logique complexe et nuancée — exactement ce dont les analystes du renseignement ont besoin. Si le Pentagone rompt ses liens, il perd l'accès à une capacité de premier plan.
Alors que les négociations se poursuivent à huis clos à Washington, l'issue reste incertaine. La date limite pour qu'Anthropic réponde aux nouvelles exigences de conformité du DoD est fixée à la fin de février 2026.
Si Anthropic refuse, nous pourrions voir un paysage de l'IA divisé en deux :
Pour l'instant, l'« incident du Venezuela » sert d'avertissement sévère : l'ère de l'éthique de l'IA (AI ethics) théorique est terminée. La technologie est désormais sur la ligne de front, et les règles d'engagement sont en train d'être écrites en temps réel.
Creati.ai continuera de suivre cette affaire en fournissant des mises à jour au fur et à mesure que les déclarations officielles d'Anthropic et du Département de la Défense seront publiées.