TikTok a supprimé environ 780 000 comptes appartenant à des utilisateurs de moins de 16 ans en Indonésie. Cette action a été entreprise pour se conformer au nouveau Règlement ministériel n° 11 de 2024 concernant la protection des données personnelles des enfants dans les systèmes électroniques, entré en vigueur fin 2025.
La réglementation oblige les plateformes numériques à vérifier l'âge des utilisateurs et à obtenir le consentement parental pour les moins de 16 ans. Elle s'inscrit dans un effort plus large du gouvernement indonésien, dirigé par le ministère de la Communication et de l'Informatique (Kominfo), pour renforcer la sécurité des enfants et la protection des données en ligne.
Dans une déclaration, un porte-parole de TikTok a confirmé que les suppressions de comptes étaient une conséquence directe des nouvelles règles. La plateforme a déclaré utiliser une combinaison de technologie et de signalements d'utilisateurs pour identifier les comptes de mineurs et travaille à la mise en œuvre d'outils de vérification d'âge.
Cette décision fait suite à des pressions réglementaires similaires sur les plateformes de médias sociaux dans le monde. L'Indonésie, avec sa vaste population numérique jeune, représente un marché important où de telles mesures d'application ont un impact majeur sur les opérations des plateformes et l'accès des utilisateurs.