Un projet de loi révolutionnaire qui exigerait des protections de santé mentale pour les chatbots d'intelligence artificielle a été adopté par la législature et attend maintenant la signature du gouverneur. Cette proposition législative représente un pas significatif vers la réglementation des interactions IA alors que des millions d'utilisateurs se tournent de plus en plus vers les chatbots pour des conversations sur des sujets profondément personnels et sensibles.
Le projet de loi répond aux préoccupations croissantes concernant l'impact psychologique des conversations avec l'IA, particulièrement lorsque les utilisateurs discutent de problèmes de santé mentale, d'automutilation ou de pensées suicidaires avec des chatbots qui manquent de protocoles de sécurité appropriés. Les défenseurs de la santé mentale ont tiré la sonnette d'alarme sur des cas où les réponses de l'IA auraient pu être inappropriées ou potentiellement dangereuses pour des personnes vulnérables cherchant du soutien.
Sous les réglementations proposées, les développeurs de chatbots IA seraient tenus de mettre en place des mesures de sécurité spécifiques, incluant des protocoles d'intervention de crise, des références vers des ressources de santé mentale, et des avertissements clairs sur les limites des conseils générés par l'IA. La législation exige aussi que les chatbots dirigent immédiatement les utilisateurs exprimant des idées suicidaires vers des professionnels qualifiés ou des lignes d'écoute.
Les représentants de l'industrie technologique ont exprimé des réactions mitigées au projet de loi, certaines entreprises soutenant le développement responsable de l'IA tandis que d'autres s'inquiètent de restrictions potentielles sur l'innovation. Les professionnels de la santé mentale ont cependant largement salué cette initiative comme une protection nécessaire pour les utilisateurs qui pourraient confondre les interactions IA avec de véritables relations thérapeutiques.