Une frappe aérienne américaine dévastatrice sur une école primaire iranienne a coûté la vie à au moins 175 personnes, dont de nombreux enfants, provoquant l'indignation internationale et soulevant des questions cruciales sur la dépendance militaire à l'intelligence artificielle pour l'identification des cibles. Cette tragédie s'est produite lors d'une campagne aérienne coordonnée entre les États-Unis et Israël.
Selon des sources du Pentagone, le bâtiment scolaire figurait sur une liste officielle de cibles américaines et aurait pu être incorrectement identifié comme une installation militaire par des systèmes de ciblage assistés par IA. L'incident met en lumière les préoccupations croissantes concernant la précision et les implications éthiques des technologies de guerre automatisées dans les zones civiles densément peuplées.
Les analystes militaires suggèrent que l'infrastructure de l'école ou les installations environnantes ont pu déclencher des signaux algorithmiques qui l'ont classifiée comme une cible militaire légitime. L'utilisation de l'IA dans la sélection des cibles a été de plus en plus adoptée par les forces militaires mondiales pour traiter de vastes quantités de données de renseignement, mais les critiques soutiennent que de tels systèmes manquent du jugement nuancé nécessaire pour distinguer les installations civiles des installations militaires.
La communauté internationale a réclamé des enquêtes immédiates sur les procédures de ciblage qui ont mené à cette erreur catastrophique. Les organisations de défense des droits humains exigent une plus grande transparence des systèmes militaires d'IA et une supervision plus stricte des processus de ciblage automatisés pour prévenir des tragédies similaires dans les opérations futures.