Selon une enquête publiée par le média Brut., une intelligence artificielle développée par une entreprise américaine aurait été utilisée dans une opération militaire menée par les États-Unis et Israël contre l’Iran.
Le »28 février, les deux pays lancent une offensive baptisée »« Fureur épique » », visant plusieurs installations iraniennes. Quelques heures plus tard, des révélations du The Wall Street Journal et du site Axios affirment que le »Pentagone » a utilisé un système d’intelligence artificielle pour appuyer la coordination de l’attaque.
Il s’agirait de »Claude », un modèle d’IA développé par la société américaine Anthropic.
Une IA comparable à ChatGPT
Le modèle »Claude » appartient à la nouvelle génération d’intelligences artificielles dites « génératives ». Il est souvent comparé à ChatGPT, conçu par OpenAI, ou à Gemini, développé par Google.
Dans un contexte militaire, ces systèmes pourraient servir à analyser d’immenses volumes de données de renseignement : images de drones, interceptions de communications ou rapports de terrain.
Comme l’explique Brut., l’objectif est de réduire la “chaîne de frappe”, c’est-à-dire le temps qui s’écoule entre l’identification d’une cible et le lancement d’une attaque.
Grâce à leur puissance de calcul, ces outils peuvent croiser des milliers d’informations en quelques secondes et accélérer la prise de décision militaire.
Les entreprises d’IA assurent toutefois qu’une validation humaine reste nécessaire avant toute frappe.
Un bras de fer entre Anthropic et Washington
Les révélations sur l’utilisation possible de »Claude » dans des opérations militaires ont provoqué des tensions entre l’entreprise et l’administration américaine.
Selon les informations relayées par Brut., le »Pentagone » aurait demandé un accès plus large aux capacités du modèle.
Mais le directeur général d’Anthropic, Dario Amodei, s’y serait opposé. Il craint notamment deux dérives :
l’utilisation de l’IA pour la »surveillance de masse » ;
le développement d’armes autonomes capables d’attaquer sans intervention humaine.
Face à ce refus, les autorités américaines auraient menacé de remettre en cause un contrat d’environ »200 millions de dollars » signé avec l’entreprise.
La tension monte encore lorsque l’ancien président américain Donald Trump critique publiquement Anthropic, accusant ses dirigeants de vouloir influencer la manière dont les États-Unis mènent leurs opérations militaires.
OpenAI saisit l’occasion
Dans ce contexte de crise, une autre entreprise du secteur s’est rapidement positionnée.
Le 27 février, le PDG d’OpenAI, Sam Altman, annonce un accord visant à intégrer les modèles de son entreprise dans certains réseaux sécurisés du Pentagone.
Cette décision suscite une vive controverse. D’après des données publiées par la société d’analyse Sensor Tower, les désinstallations de l’application ChatGPT auraient fortement augmenté dans les jours suivant l’annonce.
Quelques jours plus tard, Sam Altman reconnaît lui-même que cet accord a peut-être été conclu trop rapidement.
L’IA et la guerre : un débat de plus en plus urgent
Malgré ces tensions, les informations relayées par Brut. indiquent que l’armée américaine aurait malgré tout utilisé le modèle *Claude* lors de l’opération contre l’Iran.
Parallèlement, une étude menée par King’s College London montre les risques potentiels liés à l’utilisation de l’intelligence artificielle dans les crises internationales.
Dans plusieurs simulations de conflits impliquant des IA, les chercheurs ont observé que *les systèmes privilégiaient souvent l’escalade plutôt que la désescalade*, allant jusqu’à recourir à des armes nucléaires tactiques dans certaines situations.
Pour de nombreux experts, la question n’est donc plus de savoir si l’intelligence artificielle sera utilisée dans les guerres du futur.
Elle l’est déjà.
Le véritable débat porte désormais sur les limites que doivent fixer les entreprises technologiques à l’utilisation militaire de leurs outils — un sujet que le média Brut. met aujourd’hui au centre du débat.
![]()