L'administration Trump utilise désormais l'intelligence artificielle pour auditer la chaîne d'approvisionnement de la défense américaine, identifiant des vulnérabilités profondes liées à deux décennies de stratégie économique ciblée de la Chine.
L'administration Trump utilise désormais l'intelligence artificielle pour auditer la chaîne d'approvisionnement de la défense américaine, identifiant des vulnérabilités profondes liées à deux décennies de stratégie économique ciblée de la Chine.

L'administration Trump utilise l'intelligence artificielle pour exposer des vulnérabilités critiques au sein de la chaîne d'approvisionnement militaire américaine, identifiant ce qu'un expert appelle le résultat de deux décennies de guerre économique menée par la Chine. Cet audit propulsé par l'IA a signalé des risques profondément ancrés liés aux matériaux et fournisseurs chinois au sein des systèmes d'armes de base, forçant un revirement politique sur la surveillance de l'IA.
« Il y a un large et épais segment intermédiaire de la production manufacturière que la Chine a ciblé au cours des 20 dernières années », a déclaré Brandon Daniels, PDG de la société d'analyse de la chaîne d'approvisionnement Exiger, lors d'un récent entretien. La plateforme d'IA de sa firme est utilisée pour tracer l'origine de composants critiques pour l'armée américaine.
L'analyse a révélé que là où les États-Unis comptaient autrefois plus de 360 fabricants pour des composants de défense clés tels que les pièces moulées en fer et en magnésium, ce nombre est tombé sous la barre des 120 au cours de la dernière décennie. Ce déclin intervient alors que des modèles d'IA d'entreprises comme Anthropic et Palantir sont utilisés par le Pentagone pour passer au crible de vastes quantités de données, tant pour l'analyse logistique que pour le ciblage sur le champ de bataille.
La volonté de sécuriser la chaîne d'approvisionnement met en lumière une tension vive pour l'administration : exploiter l'IA pour la sécurité nationale tout en essayant simultanément de contrôler son potentiel de risque catastrophique. Cela a conduit à une acceptation soudaine des tests de sécurité gouvernementaux pour l'IA avancée, une politique que l'administration avait précédemment rejetée comme étant de la surréglementation.
### Une nouvelle ère de surveillance de l'IA ?
Le changement d'avis de l'administration est survenu après qu'Anthropic, une firme d'IA de premier plan, a annoncé qu'elle ne rendrait pas public son dernier modèle, baptisé Mythos. Les tests internes de l'entreprise ont montré que le modèle était si puissant pour trouver des failles de cybersécurité qu'il pourrait être militarisé par des acteurs malveillants pour compromettre les systèmes informatiques mondiaux. L'incident aurait effrayé la Maison-Blanche, l'incitant à poursuivre des accords avec Google DeepMind, Microsoft et xAI pour permettre des contrôles de sécurité gouvernementaux sur leurs modèles les plus avancés.
La nouvelle politique donne mandat au Centre pour les normes et l'innovation en IA (CAISI), nouvellement rebaptisé, pour évaluer les modèles d'IA de pointe quant aux risques pour la sécurité nationale. Cependant, les critiques se demandent si le CAISI, avec un budget de seulement 10 millions de dollars, est suffisamment financé ou équipé pour évaluer des systèmes secrets et complexes de firmes disposant de budgets de recherche de plusieurs milliards de dollars. Devin Lynch, ancien directeur de la politique cybernétique de la Maison-Blanche, a noté sur LinkedIn que « les évaluations de capacités ne valent que ce que valent les modèles de menace qui les sous-tendent », s'interrogeant sur les normes que le CAISI utiliserait.
### L'IA dans la chaîne de destruction (Kill Chain)
Le débat sur la sécurité de l'IA est parallèle à son adoption rapide sur le champ de bataille. Dans le conflit en cours avec l'Iran, l'armée américaine a utilisé l'IA plus que dans n'importe quelle guerre précédente, selon un récent rapport de CNN. Des logiciels de prestataires comme Palantir analysent les renseignements satellites et électromagnétiques pour recommander des cibles aux commandants, accélérant de manière spectaculaire la « boucle OODA » (observer, orienter, décider, agir).
Le secrétaire à la Défense Pete Hegseth a insisté sur le fait que « les humains prennent les décisions », mais la vitesse du ciblage assisté par l'IA soulève de nouvelles questions juridiques et éthiques. Le Pentagone est en conflit public avec Anthropic en raison de l'insistance de l'entreprise à imposer des limites sur la manière dont sa technologie peut être utilisée, Hegseth critiquant la position de la firme. Ce conflit souligne le défi central : l'armée veut aller aussi vite que possible avec l'IA pour maintenir un avantage, tandis que les créateurs des systèmes d'IA les plus puissants s'inquiètent de plus en plus des conséquences.
La situation crée un environnement volatil pour les investisseurs. Les entreprises des secteurs de la défense et de la technologie ayant des liens à haut risque avec la chaîne d'approvisionnement chinoise pourraient faire face à des vents contraires importants. À l'inverse, des firmes comme Exiger, qui fournissent des analyses de sécurité et de chaîne d'approvisionnement basées sur l'IA, pourraient voir une explosion de la demande. Le pivot de l'administration suggère une nouvelle approche plus interventionniste qui pourrait remodeler la réglementation pour l'ensemble de l'industrie de l'IA, affectant des géants comme Microsoft et Google ainsi que des sous-traitants de défense spécialisés.
Cet article est fourni à titre informatif uniquement et ne constitue pas un conseil en investissement.