Evènement « Mineurs en ligne : quels risques, quelles protections ? » - Prises de parole de Martin Ajdari, président de l’Arcom

Publié le 25 septembre 2025

  • Intervention publique

Seul le prononcé fait foi

Mesdames les sénatrices,

Mesdames et messieurs les députés,

Mesdames et messieurs,

Chers amis,

Merci à tous de votre présence nombreuse pour cette après-midi consacrée à la protection des mineurs contre les risques auxquels ils sont exposés en ligne. Merci en particulier à celles et ceux qui ont accepté de participer aux deux tables rondes organisées cet après-midi. Merci également à Benoît Loutrel et Laurence Pécaut-Rivolier, membres du collège de l’Arcom, qui les modèreront.

La protection du jeune public est une des missions historiques de l’Arcom (antérieurement du CSA), une mission qui a connu des évolutions majeures avec l’irruption des plateformes et du numérique dans nos vies et en particulier dans la vie des mineurs.

Depuis 2022, l’Arcom est en effet devenue le régulateur du numérique, et une de ses principales missions, à ce titre, est la mise en œuvre en France du règlement européen sur les services numériques (le RSN) : pour protéger le débat public contre les ingérences et les manipulations ; pour lutter contre la haine en ligne et bien sûr pour protéger les plus vulnérables à commencer par les enfants. Avec deux principes simples : ce qui est interdit off line doit l’être on line ; et ce qui est dangereux, doit être soit adapté, soit rendu inaccessible aux plus jeunes.

Dans ce cadre, la mission de l’Arcom n’est pas d’intervenir sur les contenus eux-mêmes mais de s’assurer que les plateformes établies en France respectent leurs obligations, par exemple en matière de modération et de signalements ; et également, de soutenir l’action de la Commission en direction des très grandes plateformes.

L’autre grand volet de notre action pour la protection des mineurs en ligne, c’est la vérification de l’âge des utilisateurs des sites pornographiques. Depuis plus de 10 ans, nos enfants y ont un accès quasi libre (43 % des internautes de 12 à 17 ans, les consultent au moins un fois par mois), avec des conséquences potentiellement très graves sur leur construction mentale et leur représentation de la vie amoureuse.

En 2024, le législateur a confié à l’Arcom la mission de s’assurer que les sites pornographiques installent des dispositifs fiables de vérification de l’âge, sous peine de blocage ou de déréférencement. Une mission que nous avons mise en œuvre (malgré de très nombreuses procédures judiciaires), en commençant par une douzaine de sites disposant de l’audience la plus importante.

Aujourd’hui, tous les sites visés ont soit été bloqués (pour l’un d’eux), soit ont décidé de fermer leur service en France (c’est le cas de Pornhub et Youporn), soit se sont mis en conformité. En quelques mois, nous avons ainsi changé la donne, sans bien sûr prétendre avoir tout réglé, à commencer par les autres sites pornographiques, ceux de moindre audience ; nous y reviendrons.

En tout cas, la protection des mineurs en ligne est déjà une réalité concrète même si elle est encore loin d’être complète. Et justement, l’étude présentée aujourd’hui doit nous permettre d’affiner et de renforcer notre stratégie, dans un contexte évolutif marqué par deux évènements :

  • Le premier, c’est la publication en juillet, par la Commission européenne, de ses lignes directrices sur la protection des mineurs en ligne. Ces lignes, prévues par l’article 28 du RSN, décrivent les mesures concrètes que les plateformes (les TikTok, Instagram, ou autre Snapchat), doivent mettre en œuvre, la vérification d’âge, bien sûr, mais il y en a beaucoup d’autres. Ces mesures reprennent plusieurs préconisations formulées par l’Arcom en septembre 2024, signe que notre action porte aussi ses fruits à Bruxelles. Et je ne saurais trop insister sur le fait que c’est à ce niveau que réside une large part des réponses aux problèmes identifiés (conception des plateformes les plus importantes et de leurs algorithmes, définition de ce qu’est un réseau social soumis à majorité numérique, etc.) ; 
  • Le second élément de contexte notable, c’est la publication toute récente, monsieur le député Delaporte, du rapport de la commission d’enquête que vous avez présidée sur les effets psychologiques de TikTok, un rapport qui met au jour des enjeux majeurs en matière de régulation des plateformes. Je veux aussi saluer l’importance des travaux du Sénat, notamment la résolution adoptée cet été, à l’initiative de Catherine Morin-Desailly, également présente parmi nous cette après-midi, qui porte exactement sur le thème qui nous réunit aujourd’hui.

C’est dans ce contexte que l’Arcom publie les résultats d’une étude au long cours conduite depuis un an auprès de 2 000 adolescents de 11 à 17 ans et combinant approches quantitative, qualitative et analyse sémiologique.

Avec, comme points de départ, ces questions que nous sommes nombreux à nous poser : quel est le degré d’exposition de nos enfants aux risques sur les plateformes ? En sont-ils conscients et comment s’en protègent-ils ? Quelles sont leurs attentes (et celles de leurs parents) en matière de prévention ? Pour découvrir les réponses à ces questions, je cède la parole aux équipes de la direction des études, de l’économie et de la prospective de l’Arcom, qui ont mené cette étude, et vont vous en présenter une synthèse.

                                                                                ***

Merci beaucoup à tous les trois.

Comme vous l’imaginez, l’enjeu d’une telle étude n’est pas seulement de proposer une photographie (aussi précise soit-elle) de la situation ; il est aussi d’orienter l’action des pouvoirs publics, en particulier celle du régulateur. Je retiens à ce titre trois constats :

  • Le premier, c’est celui d’un usage très précoce et massif des plateformes (60 % des enfants âgés de 11 ans en font un usage quotidien) qui explique le très fort attachement des ados à ces plateformes. Ils sont presque nés avec, en tout cas grandissent avec, sociabilisent avec ; 
  • Deuxième constat : nos enfants sont massivement exposés aux risques, ce dont ils ont d’ailleurs conscience. Cette conscience naît souvent d’une mauvaise expérience aux conséquences potentiellement dramatiques. Et certaines plateformes, dont le modèle économique repose sur une maximisation de l’engagement, ne font pas grand-chose, en tout cas pas toutes, pour les protéger ; 
  • Dernier constat : les adolescents comme les parents ne sont (en moyenne) ni passifs, ni démunis et développent des stratégies de protection (par exemple, le contrôle parental). Mais de trop nombreux enfants en restent à l’écart et sont donc totalement seuls face aux risques. Et ces stratégies ne sont pas suffisantes, les outils étant soit difficiles d’utilisation, soit méconnus, soit trop facilement contournés (62 % des adolescents avouent avoir menti sur leur date de naissance).

De ces constats, on peut tirer quelques enseignements importants pour l’action publique :

  1. Le premier est, en creux, un appel à l’aide lancé par les ados et leurs parents aux pouvoirs publics pour les aider à faire un usage maîtrisé et sûr des plateformes ; 
  2. Le deuxième enseignement est un avertissement à certaines plateformes : le statu quo n’est plus acceptable. Les plateformes doivent assumer leurs responsabilités légales et modifier, parfois en profondeur, la conception de leurs services à destination des mineurs ; 
  3. Enfin, nous devons sortir des stratégies purement réactives, lorsque le mal est déjà fait. Et agir de manière préventive, en amont, pour réduire au maximum l’exposition des mineurs aux risques, dans le cadre d’une stratégie préventive.

Une stratégie qui me semble devoir reposer sur trois piliers :

  • D’abord, un âge minimum effectif. A l’heure actuelle, cet âge – qui est de 13 ans – est prévu par les conditions générales d’utilisation (CGU) des plateformes. Mais il n’est pas respecté, on l’a vu, et tout l’enjeu est d’en assurer dès maintenant l’application effective lors de l’ouverture du compte voire de l’accès aux services. Et d’exiger des plateformes qu’elles luttent beaucoup plus efficacement contre les stratégies de contournements, en améliorant la détection des contrevenants et en empêchant ceux-ci de récréer un compte. Evidemment, on peut souhaiter ne pas dépendre uniquement des CGU et donc du bon vouloir des plateformes. C’est tout l’enjeu du débat dont sont en train de se saisir les législateurs européens et nationaux afin d’imposer un âge minimum légal (13, 15 ans ou 16 ans, c’est au politique de trancher) et dont il conviendra ensuite de vérifier le respect. En attendant, faisons déjà respecter l’âge fixé dans les CGU. Il n’y a aucune raison d’attendre pour agir ; 
  • Deuxième pilier : obliger les plateformes à proposer des services adaptés aux mineurs, c’est-à-dire expurgés de tout ce qui est susceptible de les mettre en danger : les contenus choquants pour eux ou illégaux (actes de barbarie, comportements à risques, pornographie, etc.), les fonctionnalités addictives telles que le scrolling infini, les interactions malveillantes, en particulier avec des adultes (dans ce domaine, la tolérance doit être de zéro). Il ne s’agit pas d’adaptations à la marge. Les plateformes doivent comprendre qu’elles ne peuvent plus proposer les mêmes services, ni les mêmes fonctionnalités, à un majeur et à un mineur ; 
  • Troisième et dernier pilier : donner aux mineurs les moyens de contrôler leur consommation. Nos enfants veulent agir, mais ne le peuvent pas toujours ou pas aussi facilement qu’ils le souhaiteraient. Les plateformes doivent donc leur en donner les moyens : simplifier les paramètres de recommandations des contenus et des publicités, offrir des outils plus ergonomiques pour bloquer ou signaler des contenus. Il faut bien sûr aussi les accompagner dans cette prise en main, c’est toute l’importance de l’éducation à la citoyenneté numérique.

Les constats étant posés, tout repose désormais sur notre détermination collective à mettre la pression sur les plateformes, en nous dotant d’une feuille de route volontariste pour les prochains mois, et en nous concentrant sur trois catégories de services en ligne :

  • D’abord, les très grandes plateformes (TikTok, Instagram, Snapchat…) qui, comme on l’a vu, sont les plus utilisées et donc les plus risquées (89 % des ados de 14 ans font un usage quotidien d’au moins une d’entre elles). D’ici la fin de l’année 2025, nous allons ouvrir une phase de dialogue avec ces plateformes et les inviter à nous présenter leurs projets de mise en conformité avec les mesures que je viens d’évoquer.

Une mise en œuvre que nous contrôlerons ensuite : En développant des campagnes de « testing » ; en nous dotant d’un panel de jeunes utilisateurs dont les retours d’expériences et les attentes éclaireront nos actions. Car nous sommes là pour les aider à se protéger et nous voulons le faire avec eux.

Et plus largement, en nous appuyant sur tous les acteurs pertinents : associations familiales et de parents d’élèves, signaleurs de confiance, administrations, chercheurs et plateformes qui, même lorsqu’elles ne relèvent pas de la compétence directe de l’Arcom, seront sensibles à notre capacité à alerter les utilisateurs, les pouvoirs publics français et européens, et plus généralement l’opinion publique sur les manquements constatés chez les mauvais élèves, tout en valorisant les bons élèves, car il y en a et il faut le dire. Quand il y a des bonnes pratiques, il faut les mettre en valeur pour qu’elles inspirent les autres services.

  • Ensuite, deuxième catégorie : les services pornographiques, en nous occupant désormais des sites un peu moins fréquentés que notre première 8 cible, mais tout aussi nocifs pour les plus jeunes. Et en leur appliquant de manière méthodique la même procédure : vérification, constat éventuel de non-conformité, mise en demeure et, le cas échéant, blocage ou déréférencement.
  • Enfin, nous aurons une attention particulière pour de plus petites plateformes établies en France dont on sait qu’elles sont susceptibles d’exposer les mineurs à des risques très graves. C’est déjà le cas pour le site Bounty qui a été évoqué publiquement au début du mois. D’autres acteurs font également l’objet d’une vigilance renforcée (nous ne le citons pas pour ne pas leur donner une visibilité non souhaitable).

Concrètement, en termes de calendrier :

  • entre la fin de l’année 2025 et le 1er trimestre 2026, nous auditionnerons les représentants de toutes les grandes plateformes et lancerons la phase II de contrôle de vérification de l’âge des utilisateurs des sites pornographiques ;
  • au printemps 2026, nous lancerons une vague de contrôles des engagements pris. Sur la base de ces premiers constats, nous pourrons déployer d’ici l’été 2026 sur notre site un espace de transparence sur la conformité des principales plateformes à leurs obligations, ainsi qu’un instrument de suivi des actions entreprises.

C’est ainsi une nouvelle ambition qui se déploie, en France et au niveau européen. Les premiers succès enregistrés en matière d’accès aux sites pornographiques doivent nous encourager à faire plus et mieux aux côtés du Gouvernement, du Parlement et de la Commission européenne. Nous devrons sans doute aussi réfléchir à faire évoluer notre droit pour l’adapter aux évolutions technologiques et aux stratégies de contournements.

Non pour censurer les plateformes comme on l’entend parfois, mais pour les responsabiliser et en faire des espaces de liberté sûrs pour nos enfants, adaptés à leurs besoins légitimes de socialisation et préservés de tout ce qui peut mettre en danger leur santé physique et mentale. La liberté, aussi précieuse soit-elle, ne peut s’exercer au détriment de la sécurité, en particulier de celles des plus jeunes.

Je vous remercie.

Prises de parole de Martin Ajdari

  • PDF
  • 174.12 Ko
  • en français