Rechercher dans ce blog

mercredi 18 février 2026

Pour capturer Maduro, une nouvelle arme AI a été utilisée JBCH N° 2602 - 882

Le raid sur Maduro déclenche une révision du Pentagone sur un géant de l’IA comme “risque pour la supply Chain”


Des questions sur l’usage du modèle "Claude" d’Anthropic lors de l’opération américaine contre le leader vénézuélien ont semé le doute au sein du ministère de la Guerre, qui envisage d’exiger des fournisseurs qu’ils certifient ne pas utiliser cette technologie.




Un simple questionnement sur l’utilisation d’un outil d’intelligence artificielle lors du raid américain visant Nicolás Maduro a mis le feu aux poudres entre le Pentagone et Anthropic, une entreprise de pointe en IA connue pour ses garde-fous éthiques.



 Selon des sources au ministère de la Guerre, cette affaire a déclenché une révision complète du partenariat avec la firme californienne, vue désormais comme un potentiel “risque pour la Supply Chain”.



Tout a commencé en juillet 2025, quand Anthropic a décroché un contrat juteux de 200 millions de dollars avec le Pentagone. Son modèle Claude est devenu le premier outil IA intégré aux réseaux classifiés de l’armée américaine. Mais les tensions ont explosé quand des responsables d’Anthropic ont interrogé un partenaire, Palantir, sur l’éventuel emploi de Claude dans l’opération qui a capturé Maduro et l’a extradé vers New York pour y être jugé.



“Cette question a suscité de vraies inquiétudes au sein du département, indiquant qu’ils pourraient ne pas approuver si c’était le cas”, confie un haut responsable de l’administration à Fox News. Alarmé, l’exécutif de Palantir a alerté le Pentagone, craignant une désapprobation implicite de l’usage militaire de l’IA. Résultat : le porte-parole du Pentagone, Sean Parnell, confirme que “la relation avec Anthropic est en cours de révision”. “Nos partenaires doivent être prêts à aider nos combattants dans n’importe quel conflit”, martèle-t-il.

Un officiel du ministère de la Guerre va plus loin : “Beaucoup de hauts responsables voient désormais Anthropic comme un risque. Nous pourrions exiger que tous nos fournisseurs et sous-traitants certifient qu’ils n’utilisent aucun modèle d’Anthropic.”




De son côté, Anthropic conteste cette version. Un porte-parole affirme que l’entreprise n’a pas discuté d’opérations spécifiques avec le Pentagone ni avec des partenaires comme Palantir, hormis des échanges techniques routiniers. Les conversations porteraient plutôt sur des limites strictes de leur politique d’usage : pas d’armes pleinement autonomes ni de surveillance de masse domestique. “Nous menons des discussions productives et de bonne foi avec le département pour avancer sur ces questions complexes”, assure-t-on chez Anthropic.





Mais au Pentagone, on nie que ces restrictions soient au cœur du litige. L’armée pousse les géants de l’IA à autoriser leurs outils pour “tous les usages légaux”, sans entraves imposées par les entreprises. D’autres firmes coopèrent : OpenAI avec ChatGPT, Google avec Gemini, et xAI avec Grok ont déjà donné leur feu vert pour les systèmes non classifiés, et l’un d’eux pour tous les niveaux. “Nous sommes optimistes pour que les autres suivent sur les réseaux classifiés”, dit un officiel.




Cette querelle pourrait redessiner les contrats IA dans la défense. Si le Pentagone impose un accès sans restrictions pour les opérations militaires légales, les entreprises comme Anthropic, attachées à des garde-fous, pourraient devoir revoir leurs principes. À l’inverse, cette résistance met en lumière les frictions croissantes entre sécurité nationale et gouvernance éthique de l’IA, alors que ces systèmes s’intègrent de plus en plus aux missions sensibles.




Ni Anthropic ni le Pentagone n’ont confirmé l’usage de Claude dans le raid sur Maduro. Pourtant, des outils comme Claude excellent à traiter des masses d’informations en secondes : analyser des communications interceptées, résumer des rapports d’intelligence, ou simuler des scénarios pour des opérations à haut risque. 


Dans un contexte de débat houleux sur les armes autonomes – capables de cibler sans intervention humaine –, cette affaire soulève des questions profondes sur l’éthique et la responsabilité en temps de guerre.

Pour l’instant, le sort d’Anthropic reste en suspens, mais une chose est claire : l’IA n’est plus un gadget high-tech, c’est un enjeu stratégique qui divise même les alliés les plus proches.




Aucun commentaire:

Enregistrer un commentaire