Le règlement DSA (pour Digital Services Act) du 19 octobre 2022 est, avec le règlement sur les marchés numériques (DMA), un des grands chantiers numériques de l’Union européenne (UE).
Depuis le 17 février 2024, les obligations prévues par ce texte sont applicables à tous les acteurs en ligne sur le marché européen. 19 très grandes plateformes et très grands moteurs de recherche étaient déjà concernés depuis le 25 août 2023.
Quels sont les objectifs du règlement DSA ?
La législation sur les services numériques (DSA) veut mettre en pratique le principe selon lequel ce qui est illégal hors ligne est illégal en ligne.
Elle fixe un ensemble de règles pour responsabiliser les plateformes numériques et lutter contre la diffusion de contenus illicites ou préjudiciables ou de produits illégaux : attaques racistes, images pédopornographiques, désinformation, vente de drogues ou de contrefaçons... Cette législation succède à la directive dite e-commerce du 8 juin 2000.
Les objectifs sont multiples :
- mieux protéger les internautes européens et leurs droits fondamentaux (liberté d'expression, protection des consommateurs et des enfants...) ;
- aider les petites entreprises de l'UE à se développer ;
- renforcer le contrôle démocratique et la surveillance des très grandes plateformes et atténuer leurs risques systémiques (manipulation de l'information...).
Quels sont les acteurs visés par le DSA ?
Le règlement DSA concerne tous les intermédiaires en ligne qui offrent leurs services (biens, contenus ou services) sur le marché européen. Peu importe que ces intermédiaires soient établis en Europe ou ailleurs dans le monde.
Sont notamment visés :
- les fournisseurs d'accès à internet (FAI) ;
- les services d'informatique en nuage (cloud) ;
- les plateformes en ligne comme les places de marché (market places), les boutiques d'applications, les réseaux sociaux, les plateformes de partage de contenus, les plateformes de voyage et d'hébergement ;
- les très grandes plateformes en ligne et les très grands moteurs de recherche, utilisés par plus de 45 millions d'Européens par mois, désignés par la Commission européenne.
Une première série de 19 grands acteurs en ligne a été publiée sur le site de la Commission le 25 avril 2023. Il s'agit de : AliExpress, Amazon Store, Apple AppStore, Bing, Booking, Facebook, Google Maps, Google Play, Google Search, Google Shopping, Instagram, LinkedIn, Pinterest, Snapchat, TikTok, Wikipedia, X (anciennement Twitter), Youtube et Zalando. Toutes ces entreprises ont dû se conformer au DSA dès le 25 août 2023.
Depuis, la Commission a désigné 6 autres acteurs : les 4 sites pornographiques Pornhub, Stripchat et XVideos le 20 décembre 2023 et XNXX le 10 juillet 2024 ainsi que les 2 places de marché en ligne chinoises, Shein le 26 avril 2024 et Temu le 31 mai 2024,
Au total, 25 acteurs sont considérés aujourd'hui comme des très grandes plateformes (VLOP) et des très grands moteurs en ligne (VLOSE).
À savoir : les très petites plateformes (entreprises de moins de 50 salariés et de moins de 10 millions d'euros de chiffre d’affaires annuel) sont exemptées de la plupart des obligations du DSA.
Que change le DSA ?
Le Digital Services Act prévoit de nombreuses mesures, graduées selon les acteurs en fonction de la nature de leurs services et de leur taille. Les très grandes plateformes et les très grands moteurs de recherche sont soumis à des exigences plus strictes. Tous les acteurs en ligne doivent désigner un point de contact unique ou, s'ils sont établis hors UE, un représentant légal. Ils doivent coopérer avec les autorités nationales en cas d'injonction. Les autres obligations peuvent être classées en trois catégories.
Lutte contre les contenus illicites
Les plateformes en ligne doivent proposer aux internautes un outil leur permettant de signaler facilement les contenus illicites. Une fois le signalement effectué, elles doivent rapidement retirer ou bloquer l'accès au contenu illégal. Dans ce cadre, elles coopèrent avec des "signaleurs de confiance". Ce statut est attribué dans chaque pays à des entités ou organisations en raison de leur expertise et de leurs compétences (voir pour la France). Leurs notifications sont traitées en priorité.
Les market places (tels Airbnb, Amazon, Shein, Temu) doivent mieux tracer les vendeurs qui proposent des produits ou services sur leur plateforme (recueil d'informations précises sur le professionnel avant de l'autoriser à vendre, vérification de la fiabilité de celles-ci) et mieux en informer les consommateurs.
Transparence en ligne
Les plateformes doivent rendre plus transparentes leurs décisions en matière de modération des contenus. Elles doivent prévoir un système interne de traitement des réclamations permettant aux utilisateurs dont le compte a été suspendu ou résilié (par exemple sur un réseau social) de contester cette décision. Pour régler le litige, les utilisateurs peuvent également se tourner vers des organismes indépendants et certifiés dans les pays européens ou saisir leurs juges nationaux.
Les plateformes ont, par ailleurs, l'obligation d'expliquer le fonctionnement des algorithmes qu'elles utilisent pour recommander certains contenus publicitaires en fonction du profil des utilisateurs. Les très grandes plateformes et les très grands moteurs de recherche doivent proposer un système de recommandation de contenus non fondé sur le profilage et mettre à disposition du public un registre des publicités contenant diverses informations (qui a parrainé l’annonce, comment et pourquoi elle cible tels individus...).
La publicité ciblée pour les mineurs est désormais interdite pour toutes les plateformes, de même que la publicité basée sur des données sensibles comme les opinions politiques, la religion ou l’orientation sexuelle.
Les interfaces trompeuses connues sous le nom de "pièges à utilisateurs" (dark patterns) et les pratiques visant à induire les utilisateurs en erreur (mise en avant de certains choix...) sont prohibées.
Atténuation des risques et réponse aux crises
Les très grandes plateformes et les très grands moteurs de recherche jouent un rôle très important et influent sur la sécurité en ligne, la diffusion de l'information, la formation de l'opinion publique et les transactions économiques. C'est pourquoi d'autres mesures leurs sont imposées, proportionnées aux risques sociétaux qu’ils représentent lorsqu’ils diffusent des contenus illicites ou préjudiciables. Ces grands acteurs doivent :
- analyser tous les ans les risques systémiques qu'ils génèrent (sur la haine et la violence en ligne, les droits fondamentaux, le discours civique, les processus électoraux, la santé publique...) et prendre les mesures nécessaires pour atténuer ces risques (respect de codes de conduite, suppression des faux comptes, visibilité accrue des sources d'information faisant autorité...) ;
- effectuer tous les ans des audits indépendants de réduction des risques, sous le contrôle de la Commission européenne ;
- fournir les algorithmes de leurs interfaces à la Commission et aux autorités nationales compétentes ;
- accorder un accès aux données clés de leurs interfaces aux chercheurs pour qu'ils puissent mieux comprendre l'évolution des risques en ligne ;
- mieux protéger les enfants en ligne.
Un mécanisme de réaction aux crises touchant la sécurité ou la santé publique est aussi prévu. La Commission européenne peut demander aux grands acteurs une analyse des risques que posent leurs interfaces lorsqu'une crise émerge ou est en cours (comme l'agression russe contre l'Ukraine) et leur imposer pendant un temps limité des mesures d’urgence.
Un outil permet de signaler de façon anonyme, dans les 24 langues de l'UE, les violations du DSA par les très grands plateformes et moteurs de recherche (modération des contenus, protection des droits de l'enfant, discours civique...).
Quelle surveillance et quelles sanctions en cas de non-respect du DSA ?
Dans tous les pays de l'UE, un "coordinateur des services numériques" (DSC) autorité indépendante désignée par chaque État membre, est mis en place. En France, le coordinateur national est l'Arcom, tel que l'a prévu la loi du 21 mai 2024 visant à sécuriser et réguler l’espace numérique. Dans d'autres pays, il s'agit aussi de l'autorité des médias.
Ces 27 coordinateurs sont chargés de contrôler le respect du règlement DSA dans leur pays et de recevoir les plaintes à l'encontre des intermédiaires en ligne. Ils coopèrent au sein d'un "comité européen des services numériques" qui rend des analyses, mène des enquêtes conjointes dans plusieurs pays et émet des recommandations sur l'application de DSA. Ce comité doit notamment conseiller la Commission sur l'activation du mécanisme de réponse aux crises.
Les très grandes plateformes en ligne et les très grands moteurs de recherche font l'objet d'une surveillance par la Commission européenne. Pour financer cette surveillance, des "frais de supervision" leur sont demandés. La Commission a déjà adressé des demandes d'informations, par exemple à Shein sur les produits illégaux. Elle a en outre ouvert plusieurs enquêtes et procédures, notamment contre :
- X sur son système de recommandation ;
- TikTok, à l'occasion de l'élection présidentielle roumaine de novembre 2024, marquée par des soupçons d'ingérence russe ;
- Pornhub, Stripchat, XNXX et XVideos, enquêtes qui se concentrent sur la protection des mineurs ;
- Temu, site où les consommateurs européens "sont très susceptibles de trouver des produits non conformes parmi les offres, tels que des jouets pour bébés et des petits appareils électroniques".
En cas de non-respect du DSA, des astreintes et des sanctions peuvent être prononcées. Pour les très grandes plateformes et les très grands moteurs de recherche, la Commission peut infliger des amendes pouvant aller jusqu'à 6% de leur chiffre d'affaires mondial.
En cas de violations graves et répétées au règlement, les plateformes peuvent se voir interdire leurs activités sur le marché européen.
Réseau national de coordination de la régulation des services numériques
Un décret du 15 avril 2025 liste les services de l'État membres du réseau national de coordination. Outre l'Arcom, la CNIL, l'Autorité de la concurrence ou l'Anssi, 20 autres services sont listés par le décret.
Codes de conduite et lignes directrices au titre du DSA
Des lignes directrices ont été publiées par la Commission européenne en mars 2024 concernant les mesures d'atténuation des risques pour les processus électoraux.
En février 2025, un code de bonnes pratiques contre la désinformation a été intégré dans le DSA. Il a été signé par une quarantaine d'acteurs : Google Search, YouTube, Instagram, Facebook, Bing, LinkedIn et TikTok, secteur de la publicité, médias, organismes de recherche et organisations de la société civile. Depuis le 1er juillet 2025, ce code de conduite est la référence permettant de déterminer si les plateformes signataires respectent le DSA en ce qui concerne les risques de désinformation. Un site, appelé centre de transparence, accessible à tous les citoyens, permet d’avoir une vue d’ensemble de la mise en œuvre des mesures du code.
Un autre code a été intégré dans la législation européenne : le code de conduite contre les discours de haine illégaux en ligne.
Plus récemment, le 14 juillet 2025, la Commission a présenté des lignes directrices sur la protection des mineurs en ligne. Ces lignes directrices précisent les mesures attendues de toutes les plateformes accessibles aux enfants et aux jeunes (comme les réseaux sociaux ou les plateformes de partage de vidéos) pour se conformer aux obligations posées par le DSA. Parmi les principales recommandations de la Commission figurent :
- la vérification de l’âge pour certaines plateformes (sites pornographiques, de jeux d'argent...) ou si les règles nationales fixent un âge minimal pour accéder à certains services ;
- l’encadrement des comptes pour mineurs. Par exemple, les comptes des enfants devront être définis par défaut en comptes privés afin que leurs informations personnelles et leurs données sur les réseaux sociaux soient masqués pour les inconnus. Autre exemple, les captures d’écran de contenus postés par les mineurs seront interdites. De même, les enfants devront pouvoir refuser d'être ajoutés à des groupes sans leur accord ;
- la désactivation de certaines fonctionnalités sensibles (notifications nocturnes, géolocalisation, accès au micro et à la caméra, lecture automatique des vidéos et du scrolling infini...) ;
- la limitation des contenus personnalisés et ceux conduisant à des comportements addictifs ;
- une meilleure information et protection en cas de recours à des agents conversationnels (chatbots) reposant sur l’intelligence artificielle (IA) ;
- une modération renforcée des contenus accessibles aux mineurs ;
- l’accès facilité aux dispositifs de signalement comme le 3018.
Les plateformes, qui ne respectent pas ces recommandations, s'exposent à des sanctions en cas de manquement au DSA.
Le 14 juillet 2025, la Commission européenne a également lancé un prototype de l’application européenne de vérification d’âge testé dans cinq pays membres, dont la France. Ce dispositif permet aux gouvernements européens de se doter d’une solution de vérification de l’âge, dans l'attente des portefeuilles européens d’identité numérique prévus d’ici la fin de 2026. Cette application permet aux utilisateurs de prouver leur majorité, tout en garantissant la non-divulgation de leurs données personnelles. Ce système garantit deux principes :
- le principe du tiers de confiance : pour accéder à une plateforme, l’utilisateur devra prouver son âge en présentant un document d’identité officiel auprès d’un tiers de confiance indépendant. Ce tiers vérifie la validité du document et l’âge de l’utilisateur ;
- le principe du double anonymat : une fois l’âge vérifié, la plateforme reçoit uniquement une confirmation de majorité, sans aucune donnée personnelle ni possibilité d’identifier ou de tracer l’utilisateur. Le tiers de confiance, de son côté, ne connaît pas l’identité de la plateforme destinataire de cette confirmation.
À l’issue de cette phase pilote, le dispositif sera déployé dans toute l’UE, chaque pays membre conservant la possibilité d’en adapter les modalités techniques en fonction de son cadre réglementaire. Cette approche ouvre la voie à une mise en œuvre effective de la majorité numérique, en laissant à chaque pays la liberté de définir le seuil d’âge qui lui paraît le plus approprié.
L'Arcom s'est félicitée en particulier de l’affirmation sans équivoque de l’obligation faite aux plateformes destinées aux adultes de vérifier l’âge de leurs utilisateurs partout dans l’UE. Cette vérification de l'âge pour accéder aux sites pornographiques, instaurée par la loi du 21 mai 2024 visant à sécuriser et à réguler l'espace numérique et précisée par le référentiel technique de l'Arcom en octobre 2024, est obligatoire depuis 2025 en France.
La ministre déléguée chargée de l’intelligence artificielle et du numérique, Clara Chappaz, a déclaré que ces lignes directrices vont ouvrir "la voie à l’interdiction des réseaux sociaux aux moins de 15 ans" en France. Une loi visant à instaurer une majorité numérique avait été promulguée le 7 juillet 2023 mais faute d'aval de la Commission européenne, elle n'a pu être appliquée.