L'émergence de l'IA agentique, des systèmes capables de planifier et d'exécuter de manière autonome des tâches complexes, introduit des risques inédits et puissants en matière de cybersécurité et de vie privée. Des chercheurs en sécurité d'institutions comme le National Cyber Security Centre (NCSC) britannique avertissent que ces agents d'IA avancés peuvent être détournés par des acteurs malveillants pour mener des attaques sophistiquées à grande échelle.
Les menaces vérifiées incluent l'utilisation d'agents d'IA pour l'ingénierie sociale automatisée, où ils peuvent imiter des entités de confiance pour tromper les individus et leur soutirer des informations sensibles. De plus, ces agents peuvent être armés pour découvrir et exploiter automatiquement des vulnérabilités logicielles, déployer des ransomwares ou exfiltrer des données, opérant souvent de manière à contourner les défenses de sécurité traditionnelles basées sur des règles.
Les implications pour la vie privée sont tout aussi graves. Les systèmes d'IA agentique, conçus pour interagir avec et manipuler de vastes ensembles de données, pourraient être utilisés pour une surveillance hyper-ciblée, une agrégation non autorisée de données et la génération automatisée de deepfakes à des fins de fraude ou de désinformation. Un rapport 2025 du Center for Security and Emerging Technology a souligné la difficulté d'attribuer les actions entreprises par ces systèmes autonomes.
En réponse, les entreprises de cybersécurité et les décideurs politiques plaident pour de nouveaux cadres de sécurité. Ceux-ci incluent le développement de détections de menaces spécifiques à l'IA, la mise en œuvre de contrôles d'accès stricts pour les agents d'IA et l'établissement d'une responsabilité juridique pour les préjudices causés par les actions autonomes de l'IA. Ce paysage de menaces en évolution souligne la nécessité d'intégrer des garanties de sécurité et de respect de la vie privée dans la conception même des systèmes d'IA agentique.