Voir la version en ligne
Vie publique
L'essentiel de Vie publique
La modération sur les réseaux sociaux
Numéro 28 - Vendredi 12 décembre 2025

Facebook, Instagram, X, TikTok… Depuis leur apparition, toutes ces plateformes ont transformé notre manière de communiquer, de s’informer et d’échanger. Elles offrent un espace d’expression sans précédent, mais cette liberté s’accompagne de nombreuses dérives : désinformation, cyberharcèlement, propos haineux… La modération est censée filtrer tous ces contenus nuisibles et garantir la protection des utilisateurs. On fait le point dans ce dernier numéro de l’année 2025. Toute l’équipe vous souhaite de joyeuses fêtes et vous donne rendez-vous pour la prochaine lettre le 9 janvier 2026 !

Pourquoi on en parle ? 

L’Assemblée nationale examinera le 19 janvier 2026 une proposition de loi visant à interdire l’accès aux réseaux sociaux aux moins de 15 ans pour les protéger des risques liés à l’usage de ces plateformes. Le texte propose également d'instaurer un couvre-feu numérique pour les 15-18 ans interdisant l'accès aux réseaux sociaux entre 22 heures et 8 heures. Cette proposition de loi s'appuie sur les conclusions de la commission d’enquête parlementaire sur les effets psychologiques de TikTok sur les mineurs, publiées en septembre 2025. Ses rapporteurs dénoncent la diffusion de contenus néfastes sur TikTok (incitation à l'automutilation et au suicide, désinformation médicale, violences...) qui mettent en danger les jeunes utilisateurs.

Majorité numérique : une loi votée, jamais appliquée 

Depuis juillet 2023, une loi établit la majorité numérique à 15 ans pour s’inscrire sur les réseaux sociaux. La majorité numérique correspond à l’âge à partir duquel on considère qu'une personne est capable de contrôler son image et ses données personnelles, et de consentir seule à leur utilisation par les services en ligne, sans autorisation parentale. La législation impose aux réseaux sociaux la mise en œuvre d’une solution technique pour vérifier l’âge des utilisateurs et recueillir l’autorisation parentale. Mais faute de décret d’application et d’un aval de la Commission européenne, la loi n’est toujours pas appliquée. Les obligations de modération prévues pour les plateformes ont été jugées contraires au droit européen, notamment au règlement sur les services numériques, le Digital Services Act (DSA). En théorie, les réseaux sociaux ne sont pas ouverts aux moins de 13 ans, en vertu de leurs conditions générales d'utilisation (CGU). Mais dans les faits, il n'y a aucun contrôle. D'après une enquête de la CNIL de 2021, la première inscription sur un réseau social se ferait en moyenne vers l'âge de 8 ans et demi.

Qu’est-ce que la modération sur les réseaux sociaux ? 

La modération désigne l’ensemble des actions mises en place par les plateformes de réseaux sociaux pour repérer, limiter ou supprimer les contenus publiés qui sont illégaux ou contraires aux règles de la plateforme. Elle s’appuie sur plusieurs outils :

  • l’intelligence artificielle, qui est capable de repérer et de supprimer automatiquement certains contenus nuisibles, tels que des mots-clés associés à des discours haineux ou des images contenant de la violence ou de la nudité ; 

  • des modérateurs humains, chargés d’examiner les cas plus complexes ;

  • les signalements des utilisateurs, qui permettent de faire remonter plus rapidement les contenus problématiques.

La modération vise avant tout à protéger les utilisateurs, et en particulier les mineurs, contre les contenus préjudiciables ou illicites (discours de haine, harcèlement, contenus pédopornographiques, désinformation, contrefaçons...). 

Un manque de modération 

La modération représente un défi colossal face au volume de contenus publiés chaque jour sur les réseaux sociaux. Les grandes plateformes sont souvent pointées du doigt pour leur manque de transparence et d’efficacité dans la lutte contre les contenus nuisibles ou illicites. Dans son rapport, la commission d'enquête sur les effets psychologiques de TikTok sur les mineurs estime que "malgré les profits records de la plateforme, l’investissement pour assurer une modération de qualité est dérisoire et bien en-deçà du volume de contenus qu’il faudrait traiter". Les effectifs de modérateurs, déjà limités, sont en baisse. Les plateformes s’appuient de plus en plus sur l’intelligence artificielle pour automatiser la modération, souvent au détriment de la formation et des conditions de travail des modérateurs humains. Mais les algorithmes ne sont pas infaillibles : les biais présents dans ces systèmes peuvent entraîner des décisions discriminatoires ou erronées. Ce déploiement de l'IA soulève des questions éthiques sur le respect de la liberté d’expression en ligne.
 

LES MOTS DANS L'ACTU
Contenu illicite

Il s'agit de toute information qui n’est pas conforme au droit de l’Union européenne ou au droit national d’un État membre (article 3 du règlement DSA). Sont notamment visés les discours haineux, à caractère terroriste ou discriminatoires, les escroqueries et fraudes commerciales, l’utilisation non autorisée de matériel protégé par le droit d’auteur... Il peut s’agir d’une vidéo, d’une photo, d’un commentaire, même partagé dans un cadre privé sur un réseau social. Un contenu préjudiciable peut être choquant ou nuisible sans être interdit par la loi, mais un contenu illicite est juridiquement répréhensible.

Plateforme en ligne

Définie par la loi du 7 octobre 2016 pour une République numérique comme toute personne physique ou morale proposant, à titre professionnel, de manière rémunérée ou non, un service de communication au public en ligne reposant sur :

- le classement ou le référencement, au moyen d'algorithmes informatiques, de contenus, de biens ou de services proposés ou mis en ligne par des tiers ;

- la mise en relation de plusieurs parties en vue de la vente d'un bien, de la fourniture d'un service ou de l'échange ou du partage d'un contenu, d'un bien ou d'un service.

Liberté d'expression sur les réseaux sociaux 

Les réseaux sociaux sont des espaces publics numériques où chacun est libre de s’exprimer et de diffuser ses idées. La liberté d'expression est un droit fondamental en France, mais elle comporte des limites pour prévenir les abus. Elle doit s’exercer dans le respect des droits d’autrui et de l’ordre public. Les réseaux sociaux ne sont pas une zone de non-droit. La loi du 29 juillet 1881 sur la liberté de la presse, qui encadre et garantit cette liberté d'expression, s’applique sur les réseaux sociaux. Elle réprime la provocation à la discrimination, à la haine ou à la violence, la diffamation et l'injure publiques. Les contenus publiés sont soumis au droit d'auteur, au droit à l'image et, plus largement, au droit pénal. En cas de contenu illicite, l'auteur peut être poursuivi et condamné par la justice. Mais l'utilisation de pseudonymes sur ces espaces complique les enquêtes menées pour identifier les auteurs d'infractions. Les autorités doivent souvent solliciter les réseaux sociaux concernés, ce qui retarde les poursuites. Or, les infractions liées à la diffamation et aux injures publiques ont un délai de prescription relativement court de trois mois (un an pour les injures ou diffamations racistes ou discriminatoires).

Une responsabilité limitée des plateformes 

La loi pour la confiance dans l’économie numérique de 2004 (LCEN) est la première loi qui encadre la responsabilité des plateformes face aux contenus illicites publiés en ligne. Le texte distingue les « éditeurs » qui ont un rôle actif sur les contenus qu'ils mettent en ligne, des « hébergeurs » dont la tâche consiste à rendre accessibles les contenus mis en ligne par des tiers. Les réseaux sociaux sont juridiquement considérés comme de simples hébergeurs et bénéficient d’un régime de responsabilité atténué. À ce titre, ils ne peuvent être tenus responsables des contenus qu'ils stockent s'ils n'avaient pas connaissance de leur caractère illicite et si, dès le moment où ils en ont eu connaissance, ils ont agi promptement pour retirer ces données ou en rendre l'accès impossible (article 6-I). En revanche, les hébergeurs doivent concourir à la lutte contre la diffusion des contenus haineux. La LCEN les soumet à trois obligations : 

  • mettre en place un dispositif facilement accessible et visible permettant à toute personne de porter à sa connaissance des contenus illicites ;
  • informer promptement les autorités publiques de toutes activités illicites ;
  • rendre publics les moyens qu'ils consacrent à la lutte contre ces activités illicites.
75%
LE CHIFFRE CLÉ

C'est le pourcentage d'internautes en France qui consultent un réseau social de manière quotidienne en 2024 (+3 points en un an), d'après le baromètre numérique 2025 du Crédoc. Les utilisateurs de réseaux sociaux n’utilisent qu’en partie les outils mis à leur disposition par les plateformes : 41% déclarent avoir lu les conditions générales d’utilisation (CGU) et seulement 44% ont déjà utilisé un dispositif pour signaler un compte ou un contenu inapproprié. Ces dispositifs sont toutefois jugés clairs (80%), simples à utiliser (83%) et facilement accessibles (84%).

Principale raison de l’absence de signalement de compte ou de contenu inapproprié en 2024
Risque de surcensure 

Pour lutter contre les propos haineux en ligne, la loi Avia a été votée en 2020. Le texte prévoyait de confier de nouvelles missions à l’Autorité de régulation de la communication audiovisuelle et numérique (Arcom) et de renforcer les obligations des plateformes. Dans sa décision du 18 juin 2020, le Conseil constitutionnel a censuré certaines dispositions, notamment celle qui obligeait les plateformes à retirer dans un délai de 24 heures les contenus illicites qui leur sont signalés, tels que les incitations à la haine, les injures à caractère raciste ou anti-religieuses. Le délai devait être d'une heure pour les contenus terroristes ou pédopornographiques. Le Conseil a jugé que les atteintes à la liberté d’expression n’étaient ni adaptées, ni nécessaires, ni proportionnées au but poursuivi, car les sanctions encourues par les plateformes risquaient de les inciter à retirer tous les contenus signalés, qu’ils soient ou non manifestement illicites. La texte promulgué le 24 juin 2020 se limite à la création d’un Observatoire de la haine en ligne, chargé de suivre et d'analyser l’évolution des contenus haineux en ligne. Toutefois, les plateformes ont des obligations de moyens et de transparence en matière de lutte contre la haine en ligne, et s’exposent à une sanction de l'Arcom si elles ne les respectent pas.

Vers une responsabilité renforcée des réseaux sociaux 

Au niveau européen, le Digital Services Act (DSA), adopté en 2022, a renforcé la responsabilité des plateformes dans la lutte contre les contenus illicites et imposé davantage de transparence dans les pratiques en ligne. Parmi les mesures clés du DSA :

  • les plateformes doivent proposer aux internautes un outil de signalement simple pour les contenus illicites. Une fois alertées, elles sont tenues de retirer ou de bloquer rapidement l'accès au contenu illégal. Elles coopèrent avec des « signaleurs de confiance », dont les signalements sont traités en priorité ; 

  • les plateformes doivent rendre plus transparentes leurs décisions en matière de modération des contenus et prévoir un système de traitement des réclamations permettant aux utilisateurs dont le compte a été suspendu ou résilié de contester cette décision. Pour régler les litiges, les utilisateurs peuvent faire appel à des organismes indépendants ou saisir la justice de leur pays.

Toute infraction à ce règlement peut-être sanctionnée par une amende. En décembre 2025, l'Union européenne a infligé au réseau social X une amende de 120 millions d'euros pour violation du DSA. D'autres enquêtes sont en cours, notamment sur des soupçons de non-respect des obligations en matière de contenus illégaux et de désinformation. 

Préserver le débat démocratique 

La modération vise aussi à préserver le débat démocratique en luttant contre la désinformation. Les « fake news », ces fausses informations partagées en masse sur les réseaux sociaux, circulent plus vite que les informations vérifiées, portées par des algorithmes qui favorisent les contenus les plus viraux. Articles inventés, comptes fictifs, images et vidéos truquées... Les « fake news » peuvent influencer l’opinion publique et promouvoir les discours de haine (racisme, sexisme, antisémitisme, glorification du terrorisme...). Les débats démocratiques et les processus électoraux sont de plus en plus manipulés par des acteurs étrangers qui utilisent les réseaux sociaux comme outil de propagande et de déstabilisation. Votée en 2018, la loi contre la manipulation de l’information a créé la possibilité de saisir le juge en urgence (référé) pour faire cesser la diffusion de fausses informations durant les trois mois précédant un scrutin national.

L'extrait de la Doc'
Une désinformation tous azimuts

Les élections présidentielles américaines de 2016 ont jeté une lumière crue sur les manipulations de l’information. Si celles-ci ne sont pas nouvelles, leur actualité est liée à la conjonction de deux facteurs : d’une part, les capacités inédites de diffusion rapide et de viralité offertes par les réseaux sociaux couplées, d’autre part, à la crise de confiance que vivent les démocraties et qui dévaluent la parole publique allant jusqu’à relativiser la notion même de vérité. La campagne électorale a mis en évidence le rôle des trolls – des individus réels qui relaient et saturent certains sites de commentaires et/ou harcèlent. Tout particulièrement, l’Internet Research Agency (IRA) russe, qualifiée de « ferme de trolls », est accusée d’avoir mené une opération d’influence au long cours dans la perspective de peser sur l’issue du scrutin.

Voir la publication
POUR EN SAVOIR +
PODCAST
Pour tout savoir sur
La liberté d'expression
En quoi consiste-t-elle et quelles sont ses limites ?
Écouter le podcast

Vous pouvez consulter les lettres thématiques déjà publiées
sur notre site www.vie-publique.fr