Shein et TikTok : Deux plaintes déposées auprès de l’ARCOM

IED • 23 mars 2026

Deux plaintes ont été déposées par Maître Grégory Thuan dit Dieudonné, agissant au nom et pour le compte de l’association Innocence en Danger, auprès de l’ARCOM (Autorité de Régulation de la Communication Audiovisuelle et Numérique) le 17 mars 2026.


La première vise la plateforme de vente en ligne Shein, la seconde le réseau social TikTok.


Ces deux plaintes portent sur le non-respect par ces personnes morales de leurs obligations découlant du Règlement européen sur les Services Numériques (RSN), dit Digital Services Act (DSA) en anglais, relatif à la régulation des contenus en ligne et à la protection des utilisateurs.


La plainte visant Shein


Le 31 octobre 2025, la Direction générale de la concurrence, de la consommation et de la répression des fraudes (DGCCRF) a constaté, sur la plateforme d’e-commerce chinoise Shein, des annonces de vente de poupées sexuelles à caractère pédopornographique. La DGCCRF a signalé ces faits à l’ARCOM, et saisi le Procureur de la République, qui a ouvert une enquête. Dans ce cadre, une vingtaine de personnes ont été interpellées partout en France. 


Shein a donc permis la commercialisation sur sa plateforme de poupées sexuelles aux traits physique explicitement enfantins. Il s’agit d’une « diffusion de l’image ou de la représentation d'un mineur présentant un caractère pornographique », selon les dispositions de l’article 227-23 du Code pénal français. 


Ces poupées contribuent à normaliser les abus sexuels sur mineurs, et peuvent faciliter le passage à l’acte chez les acheteurs. La commercialisation de ces produits menace donc à grande échelle la sécurité des mineurs.


En parallèle, selon la politique de confidentialité de Shein, l’accès au site est réservé aux personnes âgées d’au moins 18 ans, sauf accompagnement ou supervision parentale. En réalité, toutefois, la plateforme est aisément accessible aux mineurs puisqu’elle ne met pas en œuvre de système automatisé strict pour vérifier l’âge réel, ni au moment d’entrer sur le site, ni au moment d’accéder à certains contenus spécifiques qui seraient réservés aux adultes. Dans ces conditions, des enfants ont pu tomber sur des annonces de poupées sexuelles, que celles-ci soient à caractère pédopornographique ou non. 


De tels faits caractérisent des manquements aux obligations prévues par le RSN, par la Charte des Droits Fondamentaux de l’Union Européenne et par l’article 8 de la Convention Européenne des Droits de l’Homme (CEDH).


Une enquête réalisée par l’association Mouv’Enfants, luttant contre les violences faites aux enfants, indique en outre que contrairement aux déclarations de Shein, les produits n’ont pas été retiré partout et immédiatement. En d’autres termes, Shein n’a pas veillé à un réel renforcement de la modération et à une réelle amélioration des algorithmes afin de bloquer la promotion de ces produits.


Il est donc demandé à l’ARCOM de constater les manquements allégués au RSN et de mettre en demeure la plateforme Shein de procéder à une mise en conformité de ses services avec la réglementation européenne et, notamment, de dire quels sont les systèmes mis en place par Shein pour lutter contre la vente de produits illégaux susceptibles de constituer du matériel pédopornographique.


La plainte visant TikTok


En novembre 2024, plusieurs familles françaises membres de l’association « Algos victima » ont engagé une action en responsabilité devant le tribunal judiciaire de Créteil à l’encontre de la plateforme TikTok, accusée d’avoir exposé leurs enfants à des contenus incitant au suicide et à l’automutilation. Les parents estiment que l’algorithme du réseau social a contribué à la dégradation de la santé mentale de leurs enfants, dont certains sont allés jusqu’à mettre fin à leur jour. 


En mars 2025, quatre nouvelles familles ont annoncé assigner TikTok en justice pour les mêmes motifs. 


Ces onze familles estiment que TikTok doit modérer son contenu afin d’empêcher les mineurs d’être confrontés à ce type de contenus, et mieux informer les utilisateurs sur les risques d’addiction liés à son fonctionnement.


Le 21 octobre 2025, l’ARCOM a été saisie d’une plainte d’Amnesty International visant la plateforme, au motif que celle-ci ne protégerait pas les jeunes des contenus liés au suicide. 


Le fil d’actualité « Pour toi » de TikTok est conçu pour maximiser l’attention et encourage la consultation prolongée. Il permet ainsi le défilement infini de vidéos courtes, permettant au mineur de scroller sans interruption pendant plusieurs heures ; ainsi qu’une personnalisation forte, renforçant les comportements d’usage intensif. 


La commission d’enquête parlementaire portant sur les effets psychologiques de TikTok sur les mineurs a constaté que la plateforme promeut massivement des contenus particulièrement dangereux pour les mineurs, notamment en lien avec la dépression, l’automutilation et le suicide. 


Un tel environnement est susceptible de caractériser un risque systémique pour les mineurs au sens du RSN.


Ce mode de conception tend à placer l’utilisateur dans une position de relative passivité, celui-ci n’exerçant qu’un contrôle limité sur les contenus qui lui sont présentés, se réduisant, pour l’essentiel, au choix de poursuivre ou non le défilement.


Les tests réalisés par Amnesty International dans le cadre de son enquête mettent en évidence un enchaînement rapide et alarmant : il suffit de regarder deux fois de suite une vidéo liée à la santé mentale ou à la tristesse – sans liker, ni commenter, ni partager – pour qu’en moins de 20 minutes, les fils soient saturés de vidéos sur la santé mentale. Après 45 minutes d’expérience, des messages explicites sur le suicide apparaissent, et 3 heures plus tard, tous les comptes sont inondés de contenus sombres, exprimant parfois directement une volonté de mettre fin à ses jours.


Ce phénomène de « rabbit holes » (enchevêtrement algorithmique) enferme les enfants et adolescents vulnérables dans un univers numérique centré sur leurs fragilités émotionnelles, aggravant leur risque de passage à l’acte. 


Si TikTok avance, dans sa rubrique « sécurité des adolescents », que ses efforts de modération du contenu « garantissent que tous les utilisateurs, y compris ceux de moins de 18 ans, sont protégés contre le contenu préjudiciable et illégal », force est de constater que cela n’est pas le cas. 


Ce mode de conception et de fonctionnement des algorithmes, qui exploite les faiblesses et l’inexpérience des utilisateurs mineurs déjà vulnérables, est contraire aux obligations qui pèsent sur les très grandes plateformes numériques, issues notamment du RSN ainsi que de la Charte des Droits Fondamentaux de l’Union Européenne et de l’article 8 de la CEDH.

Par ailleurs, si les conditions générales d’utilisation de la plateforme indiquent son interdiction d’accès pour les mineurs de moins de 13 ans, cette limitation apparaît très aisément contournable par la simple déclaration d’une fausse date de naissance.


A cet égard, la société anonyme spécialisée dans la mesure d'audience Médiamétrie informe que 64 % des enfants âgés de 11 à 17 ans utilisent TikTok tous les mois, et 40 % chaque jour. 


En ne mettant pas en place des mesures de vérification d’âge efficaces, TikTok ne se plie pas à l’obligation d’atténuation des risques systémiques prévue par le RSN. 


En conséquence, il est demandé à l’ARCOM de constater les manquements allégués au RSN et de prendre toute mesure de nature à remédier aux infractions ainsi constatées, et notamment de mettre en demeure la plateforme TikTok de procéder à une mise en conformité de ses services avec la réglementation européenne. Il est également demandé à l’ARCOM d’établir un rapport d’enquête.

Voir tous les communiqués

Partager cet article

Retour aux actualités