La Commission européenne a ouvert une enquête formelle contre Meta Platforms Inc., la société mère de Facebook et Instagram, craignant que ses algorithmes et systèmes de recommandation ne contribuent à la propagation de contenus nocifs, en particulier auprès des mineurs. L'enquête, annoncée le 6 mai 2026, se concentre sur la question de savoir si les systèmes de Meta violent la loi sur les services numériques (DSA), une réglementation européenne majeure visant à lutter contre les contenus illégaux et nuisibles en ligne.
Les régulateurs examinent spécifiquement comment les systèmes de recommandation de Meta—qui utilisent les données des utilisateurs pour suggérer des publications, vidéos et comptes—pourraient amplifier des contenus pouvant mener à l'addiction, au cyberharcèlement ou à l'exposition à des contenus inappropriés pour les enfants. L'enquête fait suite à une analyse préliminaire de la Commission, qui a identifié des risques potentiels dans la conception de la plateforme Meta, notamment l'utilisation de la vérification de l'âge et des paramètres de confidentialité par défaut pour les mineurs.
Meta a déclaré qu'elle coopérera pleinement à l'enquête, soulignant ses efforts continus pour améliorer les fonctionnalités de sécurité, telles que les contrôles parentaux et les filtres de contenu. Cependant, des groupes de campagne ont salué l'enquête, arguant que l'amplification algorithmique de contenus sensationnels ou extrêmes est une préoccupation de longue date. La DSA prévoit des amendes pouvant atteindre 6 % du chiffre d'affaires annuel mondial d'une entreprise en cas de non-conformité.
Ce n'est pas la première action de l'UE contre Meta ; l'entreprise a déjà fait l'objet d'amendes et d'ordonnances liées à la confidentialité des données et aux questions antitrust. L'issue de cette enquête pourrait créer un précédent sur la manière dont les plateformes de médias sociaux gèrent les recommandations algorithmiques en Europe.