Le 26 janvier 2026, l’Assemblée nationale a adopté le projet de loi visant à restreindre drastiquement l’accès des moins de 15 ans aux réseaux sociaux. Le texte introduit un système à deux niveaux :
- d’une part, l’interdiction totale de certaines plateformes jugées dangereuses pour l’épanouissement des mineurs (par exemple en raison de leurs algorithmes de recommandation), qui seront listées par décret après avis de l’ARCOM ;
- d’autre part, l’interdiction conditionnelle pour les autres réseaux sociaux, qui resteront accessibles aux mineurs de moins de 15 ans uniquement sur présentation d’une autorisation parentale préalable et vérifiable.
Ces interdictions s’appliqueraient à tous les comptes déjà en ligne et nouveaux comptes à partir de la rentrée 2026.
Défendue par le président de la République, saluée par les professionnels de l’enfance et soutenue par la majorité, cette mesure vise à protéger les plus jeunes face à des usages numériques devenus massifs, précoces et souvent toxiques.
Addiction aux écrans, troubles du sommeil, cyberharcèlement, désinformation, surexposition à la sexualité ou à la violence : les risques liés à une inscription trop précoce sur des plateformes comme TikTok, Snapchat ou Instagram sont désormais bien documentés, notamment par l’ANSES. Et pourtant, selon la CNIL, 63 % des moins de 13 ans avaient déjà un compte sur au moins un réseau social dès 2021. L’âge moyen d’inscription serait autour de 8 ans et demi. Il fallait réagir. C’est ce que fait aujourd’hui la France. Et c’est une excellente chose.
Une réforme ambitieuse, fondée sur une majorité numérique claire
Le projet de loi porté par la députée Laure Miller, soutenu par l’Élysée, repose donc sur une logique graduée :
- les plateformes identifiées comme à risque seraient formellement interdites aux moins de 15 ans, sans possibilité de contournement ;
- pour les autres, un consentement parental explicite serait requis.
Prévu pour entrer en vigueur dès la rentrée 2026, ce texte entend créer une règle claire : en dessous de 15 ans, on ne s’inscrit pas sans que les parents soient impliqués. L’enjeu est éducatif, sanitaire, mais aussi éthique : reprendre le contrôle sur les environnements numériques que fréquentent les enfants, au lieu de laisser les plateformes seules en décider.
C’est une forme de sursaut collectif que je salue. La France est aujourd’hui le seul pays de l’Union européenne à avancer concrètement sur ce sujet, avec un texte articulé, une volonté politique forte et une réelle capacité à peser dans le débat public. Nous pouvons, si nous tenons ce cap, devenir une source d’inspiration pour d’autres pays.
Le Danemark suit cette voie dont le texte est toujours en passe d’être validé.
Le point névralgique : la conformité au DSA et l’avis du Conseil d’État
La question européenne est centrale. En 2023, une loi identique n’avait jamais pu entrer en vigueur : elle avait été mise en sourdine par la Commission européenne, faute de conformité au règlement sur les services numériques (DSA).
Le Conseil d’État a rappelé, dans son avis du 13 janvier 2026, plusieurs points de vigilance majeurs :
- Des définitions essentielles manquantes: les notions de “plateforme en ligne” et de “service de réseau social en ligne” ne sont pas définies dans la proposition de loi, alors qu’elles sont précisément encadrées par le DSA. Sans ces définitions, il est impossible de déterminer clairement la frontière entre ce que la France peut réguler seule et ce qui relève de la compétence exclusive de l’Union européenne.
- Un risque de “sur‑réglementation” nationale contraire au DSA: le DSA interdit aux États membres d’imposer aux plateformes des obligations techniques supplémentaires, notamment en matière de contrôle d’identité ou de filtrage d’accès.
C’est ce qui avait bloqué la loi de 2023. - Interdire l’accès aux mineurs, et non imposer une obligation aux plateformes: le Conseil d’État recommande de reformuler la loi non pas comme une obligation imposée aux plateformes, mais comme une interdiction directe faite aux mineurs. Le DSA prévoit déjà un cadre précis pour gérer les contenus ou services “illicites”. Dire “l’accès des moins de 15 ans est illicite” permettrait :
– de mobiliser l’arsenal du DSA (injonctions, mise en conformité, contrôle algorithmique),
– d’impliquer l’ARCOM dans un cadre européen cohérent,
– et de sécuriser juridiquement la loi.
Selon plusieurs spécialistes, cette réécriture permettrait d’atteindre une conformité réelle, tout en redonnant à la CNIL un rôle de contrôle renforcé.
La balle est désormais dans le camp de Bruxelles qui, une fois votée en France, devra se prononcer sur sa conformité au niveau européen.
Une application à réussir techniquement pour que la loi devienne réalité
Mais poser un principe ne suffit pas. Encore faut-il pouvoir le faire respecter. Le texte prévoit bien une vérification d’âge et du consentement parental, mais la méthode précise reste à définir par décret. Et sur ce point, il faudra faire mieux que par le passé.
Comment s’assurer qu’un mineur n’a pas contourné l’interdiction ?
Comment prouver que le consentement d’un parent a été valablement donné ?
Comment garantir la protection de la vie privée de tous les utilisateurs, tout en empêchant les failles du système ?
C’est ici que réside le principal défi. Les pistes sont connues (elles font leur preuve depuis avril 2025 sur les plateformes pornographiques) :
- tiers de confiance certifiés délivrant des “preuves d’âge” ;
- technologies de preuve sans identification ;
- reconnaissance faciale ou documents d’identité, en dernier recours.
A ce jour, aucune solution n’est pleinement déployée pour les réseaux sociaux. Et chacune pose des questions légitimes : quelles données sont collectées ? Qui les traite ? Avec quelle fiabilité ? Quid des familles précaires ou peu équipées ? Le flou ne doit pas durer : les modalités techniques doivent être fixées rapidement, avec l’appui de la CNIL et de l’ARCOM.
Un alignement européen possible et souhaitable
L’une des bonnes nouvelles est que le contexte européen est en train de bouger. En novembre 2025, le Parlement européen a adopté une résolution appelant à interdire les réseaux sociaux aux moins de 16 ans, sauf autorisation parentale entre 13 et 16 ans. Cela montre que la dynamique est là. Le droit européen (DSA) ne s’oppose pas à toute régulation nationale, tant que celle-ci est proportionnée, ciblée et fondée sur l’intérêt supérieur de l’enfant.
À l’international aussi, des exemples récents montrent que cette voie est praticable. L’Australie a adopté une loi similaire en 2024, entrée en vigueur en décembre 2025, qui interdit aux moins de 16 ans de s’inscrire sur un réseau social sans vérification d’âge, avec un système de sanctions clair. C’est la preuve que des solutions existent, pour peu qu’on les pense sérieusement.
Pour réussir : des outils, des règles, une volonté
Je suis convaincue que cette loi est nécessaire et qu’elle peut réussir. Un sursaut citoyen est nécessaire pour protéger les mineurs des dérives en ligne.
Mais pour cela, elle devra être suivie d’actes :
- un référentiel technique robuste, interopérable, et respectueux de la vie privée, dans les mois qui viennent ;
- des outils de vérification réellement déployés, pas seulement imaginés ;
- des sanctions dissuasives en cas de contournement ;
- et un élan international, notamment européen, pour éviter les effets de bord et les contournements, comme déjà opéré en 2023.
Nous avons réussi à imposer des règles claires et protectrices dans le secteur des sites pornographiques, grâce à la loi SREN et à l’action coordonnée de l’ARCOM et du régulateur judiciaire. Il n’y a aucune raison de ne pas faire aussi bien pour les réseaux sociaux, qui touchent un public encore plus large et plus jeune.
En conclusion
La France avance, et c’est une excellente chose. Mais l’interdiction des réseaux sociaux aux moins de 15 ans ne doit pas rester un principe abstrait : elle doit devenir une réalité vérifiable, contrôlable, et adaptée au monde numérique de 2026.
Un bémol toutefois : aucune interdiction, aussi bien intentionnée soit-elle, ne pourra empêcher les adolescents les plus technophiles de contourner la règle, via un VPN, une fausse date de naissance, ou en se reportant vers des plateformes moins visibles, moins encadrées, voire plus toxiques. Il est également probable que certains se rabattent vers des applications autorisées avec accord parental, comme WhatsApp, qui, selon de nombreux retours de terrain, est aujourd’hui le canal privilégié de cyberharcèlement dans les groupes privés scolaires. Le risque de déplacement des pratiques nuisibles, plutôt que leur disparition, est donc réel.
Cela montre bien que cette loi, aussi nécessaire soit-elle, ne suffira pas seule. Elle doit s’accompagner de :
- politiques publiques d’éducation au numérique, dès l’école primaire ;
- obligations renforcées pour les plateformes en matière de modération, de design responsable et d’accès à des outils de signalement ;
- et surtout d’une vigilance sur la conception des algorithmes de recommandation, dont l’influence sur la santé mentale des jeunes n’est plus à démontrer.
Réguler l’accès, c’est un premier pas. Réguler les usages et l’environnement, c’est aller au bout de l’ambition.
En prenant la tête de ce mouvement, la France peut devenir une lumière pour d’autres pays, une force de proposition dans un débat mondial sur les droits des enfants en ligne. Ne gâchons pas cette avance. Transformons l’intention en solution.
Sacha Bettach – Avocat au Barreau de Paris


Laisser un commentaire