Un juge fédéral a émis une injonction temporaire empêchant le département de la Défense des États-Unis de désigner la société d'intelligence artificielle Anthropic comme un risque pour la chaîne d'approvisionnement. Cette décision, datée du 26 mars 2026, suspend l'action du Pentagone en attendant un examen juridique complet de l'affaire.
L'injonction a été accordée par le juge Amit Mehta de la cour de district des États-Unis pour le district de Columbia. Le défi juridique a été déposé par Anthropic, qui a soutenu que la désignation était injustifiée et causerait un préjudice irréparable à ses activités et à sa réputation.
La désignation proposée par le Pentagone aurait placé Anthropic sur une liste d'entreprises considérées comme des risques potentiels pour la sécurité nationale au sein de la chaîne d'approvisionnement de la défense. Une telle inscription peut restreindre sévèrement la capacité d'une entreprise à contracter avec le gouvernement américain.
L'ordonnance du juge Mehta indique qu'Anthropic a démontré une probabilité de succès sur le fond de son affaire et que la société subirait des dommages significatifs et irrécupérables sans l'intervention du tribunal. Le département de la Défense est désormais interdit de mettre en œuvre la désignation jusqu'à ce que le tribunal rende une décision finale.