OpenAI demande à Codex d'arrêter de parler des gobelins

OpenAI aurait demandé à son modèle Codex d'éviter de générer du contenu sur les gobelins, suite à des observations d'utilisateurs.

OpenAI Codex Told to Stop Discussing Goblins

Image: wired.com

OpenAI aurait mis à jour son modèle Codex pour supprimer les discussions sur les gobelins, selon des rapports d'utilisateurs et une analyse de Pangram Labs. L'extension Chrome de l'outil de détection a signalé des cas où Codex refusait de répondre à des invites impliquant ces créatures fantastiques.

Ce changement semble faire partie d'efforts plus larges pour contrôler le contenu généré par l'IA, bien qu'OpenAI n'ait pas officiellement commenté les restrictions spécifiques liées aux gobelins. L'outil de Pangram Labs, qui étiquette les textes générés par l'IA sur les réseaux sociaux, a mis en évidence ce schéma.

Cette évolution survient dans un contexte de débats sur la sécurité de l'IA et la modération du contenu. Les avertissements du Pape sur l'IA, qui étaient eux-mêmes générés par l'IA selon des outils de détection, soulignent les défis pour distinguer le contenu humain de celui produit par machine.

❓ Frequently Asked Questions

Why did OpenAI restrict Codex from discussing goblins?

OpenAI has not officially explained, but it may be part of content moderation to prevent unintended or harmful outputs.

What is Pangram Labs' Chrome extension?

It is a detection tool that labels AI-generated text on social media to help users identify synthetic content.

Were the Pope's warnings about AI actually AI-generated?

According to detection tools like Pangram Labs, some warnings attributed to the Pope were AI-generated, though this has not been independently confirmed.

📰 Source:
wired.com →
Partager: