Fin 2025, il a été révélé que la fonctionnalité 'Expert Review' de Grammarly, alimentée par l'IA, utilisait les portraits de vrais journalistes, écrivains et universitaires sans leur autorisation. Les images, qui incluaient du personnel de The Verge et d'autres publications, servaient à créer des profils fictifs d'experts IA destinés à renforcer la crédibilité des suggestions de l'outil.
Le problème a été rapporté pour la première fois par The Verge en octobre 2025. Le média a identifié plusieurs membres de son propre personnel, ainsi que d'autres écrivains et universitaires, dont les photos professionnelles avaient été appropriées par le système de Grammarly pour représenter des 'experts' générés par IA dans des domaines comme le journalisme et la recherche.
Grammarly a reconnu le problème et a rapidement retiré la fonctionnalité. Dans une déclaration, la société s'est excusée, précisant que les images provenaient d'un fournisseur tiers et qu'elle n'avait pas obtenu les autorisations nécessaires. Cet incident a mis en lumière les préoccupations éthiques persistantes dans l'industrie de l'IA concernant l'utilisation des données personnelles et des portraits pour l'entraînement et la génération de contenu.
Le tollé a conduit Grammarly à suspendre complètement la fonction 'Expert Review'. L'entreprise s'est engagée à revoir ses pratiques d'approvisionnement en contenu, mais l'événement reste une étude de cas marquante sur le manque de consentement et de transparence entourant souvent le développement de l'IA.