Un modèle IA d'Anthropic soulève des alarmes

Des responsables américains ont soulevé des inquiétudes sur la cybersécurité liées au dernier modèle IA d'Anthropic.

Anthropic AI Model Raises Cybersecurity Alarm

Image: moneycontrol.com

Des rapports ont émergé début avril 2026 selon lesquels le secrétaire au Trésor américain Scott Bessent et le président de la Réserve fédérale Jerome Powell auraient réuni des dirigeants de Wall Street pour discuter des risques de cybersécurité potentiellement associés aux modèles d'intelligence artificielle avancés, notamment ceux développés par Anthropic PBC, la société spécialisée dans la sécurité de l'IA soutenue par Google et Amazon.

Anthropic, fondée en 2021 par d'anciens chercheurs d'OpenAI dont Dario Amodei et Daniela Amodei, est à l'avant-garde du développement de grands modèles de langage avec sa série d'assistants IA Claude. La société a toujours mis l'accent sur la sécurité de l'IA comme élément central de sa mission, mais les régulateurs et les dirigeants du secteur financier sont devenus de plus en plus attentifs aux risques à double usage que peuvent poser des systèmes d'IA puissants, notamment dans le contexte des menaces cybernétiques pesant sur les infrastructures financières critiques.

Les régulateurs financiers surveillent avec une inquiétude croissante la progression rapide des capacités de l'IA. La capacité des modèles d'IA sophistiqués à automatiser des tâches complexes — y compris potentiellement des opérations cybernétiques offensives — a suscité des appels à des réponses coordonnées entre les agences gouvernementales et le secteur privé. La Réserve fédérale et le Département du Trésor ont tous deux identifié le risque cybernétique lié à l'IA comme une priorité pour 2025 et 2026.

Anthropic n'a pas commenté publiquement de réunions gouvernementales spécifiques. Les modèles Claude de la société sont largement utilisés dans les applications d'entreprise et grand public, et Anthropic a publié des recherches sur les risques d'utilisation abusive. En date d'avril 2026, aucun incident spécifique impliquant un modèle Anthropic et une institution financière n'a été confirmé publiquement. Les lecteurs doivent noter que certains détails des rapports initiaux sur cette histoire n'ont pas pu être vérifiés indépendamment au moment de la publication.

❓ Frequently Asked Questions

What is Anthropic and what AI models does it develop?

Anthropic is an AI safety company founded in 2021 by former OpenAI researchers. It develops the Claude series of large language models, widely used in enterprise and consumer applications.

Why are financial regulators concerned about advanced AI models?

Regulators worry that powerful AI systems could be exploited to automate cyberattacks on critical financial infrastructure, creating new and harder-to-detect security vulnerabilities.

Has any specific AI-related cyber incident at a bank been confirmed?

As of April 2026, no specific publicly confirmed incident involving an Anthropic model and a financial institution has been reported; regulatory discussions appear precautionary in nature.

📰 Source:
moneycontrol.com →
Partager: