La société d'intelligence artificielle Anthropic cherche à recruter un expert en armes chimiques, biologiques, radiologiques et nucléaires (CBRN) pour aider à prévenir l'usage catastrophique de ses modèles d'IA. L'offre d'emploi, rapportée initialement par Bloomberg, concerne un poste dans l'équipe 'Confiance et Sécurité' axé sur les 'menaces CBRN'.
Les responsabilités du poste incluent l'élaboration de politiques et de mécanismes de sécurité pour empêcher les utilisateurs de générer des contenus nuisibles liés aux armes de destruction massive ou aux explosifs à haut rendement. Cette initiative de recrutement reflète les préoccupations croissantes de l'industrie et des régulateurs quant au risque d'exploitation malveillante des systèmes d'IA avancés.
Anthropic, connue pour son assistant IA Claude, se présente comme un leader de la recherche sur la sécurité de l'IA. Cette démarche proactive, qui précède des régulations anticipées et fait écho à des initiatives similaires d'autres grands laboratoires, souligne les défis techniques pour aligner de manière fiable les systèmes d'IA avec des contraintes de sécurité complexes.