Bras de fer inédit entre Washington et une pépite de l’intelligence artificielle, ultimatum politique, enjeux militaires et guerre technologique en toile de fond. Une décision qui pourrait redéfinir les règles du marché de l’IA stratégique.
Par @sahbymehalla
Le secrétaire à la Défense Pete Hegseth (à gauche) aux côtés du président des chefs d’état-major interarmées, le général Dan Caine, au Pentagone. Photo : Saul Loeb / AFP via Getty Images.
Le Pentagone a demandé mercredi à deux géants de l’armement d’évaluer leur dépendance au modèle d’intelligence artificielle Claude d’Anthropic, première étape vers une possible désignation de l’entreprise comme « risque pour la chaîne d’approvisionnement ».
Une telle sanction est habituellement réservée aux groupes issus de pays considérés comme adversaires, à l’image du géant chinois Huawei. L’appliquer à une société technologique américaine de premier plan — dont l’armée utilise actuellement les outils — constituerait un précédent majeur.
Selon des sources proches du dossier, le département de la Défense a contacté Boeing et Lockheed Martin pour mesurer leur exposition à Anthropic.
La branche Boeing Defense, Space and Security n’a aucun contrat actif avec la société, a précisé un porte-parole. Un dirigeant du groupe a toutefois indiqué que des discussions avaient eu lieu par le passé, sans aboutir, Anthropic s’étant montré réticent à collaborer avec l’industrie de la défense.
Lockheed Martin a confirmé avoir été sollicité pour analyser sa dépendance potentielle au modèle Claude en vue d’une éventuelle classification comme risque pour la chaîne d’approvisionnement.
Le Pentagone prévoit désormais d’interroger l’ensemble des grands maîtres d’œuvre du secteur — ceux qui produisent avions de combat et systèmes d’armes — afin de déterminer s’ils utilisent cette IA et dans quelles conditions.
Claude est actuellement le seul modèle d’intelligence artificielle déployé dans les réseaux militaires classifiés. Il a notamment été utilisé lors de l’opération visant à capturer le président vénézuélien Nicolás Maduro, dans le cadre du partenariat entre Anthropic et Palantir, et pourrait jouer un rôle dans une éventuelle campagne militaire contre l’Iran.
Si ses performances impressionnent le Pentagone, le refus d’Anthropic d’assouplir ses garde-fous alimente la colère. L’entreprise bloque notamment toute utilisation pour la surveillance de masse des citoyens américains ou pour la conception d’armes autonomes sans intervention humaine.
Le département de la Défense juge ces restrictions incompatibles avec ses besoins opérationnels, estimant impossible de devoir faire valider chaque cas d’usage.
Lors d’une réunion tendue mardi, le secrétaire à la Défense Pete Hegseth a fixé au PDG d’Anthropic, Dario Amodei, une échéance, vendredi à 17 h 01.
Passé ce délai, l’administration pourrait soit invoquer le Defense Production Act pour contraindre l’entreprise à adapter son modèle aux exigences militaires, soit la déclarer officiellement comme un risque pour la chaîne d’approvisionnement.
Une telle décision serait difficile à contester sur le plan opérationnel, même en cas de recours judiciaire, l’armée conserverait l’accès à Claude.
Les démarches engagées mercredi suggèrent que l’option de la mise à l’index gagne du terrain.
Anthropic évoque de son côté des discussions « de bonne foi » pour continuer à soutenir les missions de sécurité nationale dans le respect d’une utilisation responsable de ses modèles, sans commenter la menace de sanction.
En interne, un haut responsable de la Défense reconnaît que se détacher de Claude serait extrêmement complexe, tout en avertissant que le groupe « paiera le prix » de son refus.
Reste que demander aux fournisseurs d’évaluer leur dépendance ne signifie pas une rupture immédiate, cette manœuvre pourrait aussi relever d’une stratégie de pression pour forcer un compromis.
Malgré ce conflit, Anthropic enchaîne les succès, levées de fonds, conquête de grands comptes et intégration croissante dans les processus des grandes entreprises.
Une désignation comme risque pour la chaîne d’approvisionnement pourrait toutefois fragiliser sa position si ses partenaires liés au gouvernement abandonnent Claude. À l’inverse, la société pourrait renforcer son image d’acteur refusant de céder dans la course mondiale à l’IA militaire.
Dans le même temps, xAI d’Elon Musk vient de signer un accord pour intégrer les systèmes classifiés selon le principe « d'usage légal complet » qu’Anthropic rejette. Google et OpenAI négocient également leur entrée dans cet environnement sensible.
Selon une source proche des discussions, Claude reste aujourd’hui le modèle le plus performant pour plusieurs cas d’usage militaires, même si Gemini de Google apparaît comme une alternative crédible — à condition, lui aussi, de lever ses garde-fous.
L’échéance de vendredi s’annonce décisive pour l’avenir des relations entre la Silicon Valley et le complexe militaro-industriel américain.
ÉCRIT PAR : SAHBY MEHALLA
Ajouter un commentaire
Commentaires