Le règlement européen sur les services numériques (DSA) vise une responsabilisation des plateformes

Haine, manipulation, désinformation, contrefaçons... Ces dérives touchent de plus en plus les contenus en ligne. Pour mieux protéger les Européens, un nouveau règlement sur les services numériques (DSA) sera bientôt applicable. Il vise à encadrer les activités des plateformes, en particulier celles des GAFAM.

Le règlement DSA (pour Digital Services Act) du 19 octobre 2022 est, avec le règlement sur les marchés numériques (DMA), un des grands chantiers numériques de l’Union européenne (UE). Présenté fin 2020 par la Commission européenne, il a été définitivement voté par le Parlement européen en juillet 2022 et approuvé par le Conseil de l'UE le 4 octobre 2022. Il a été publié le 27 octobre 2022.

Le DSA sera applicable en février 2024, sauf pour les très grandes plateformes en ligne et les très grands moteurs de recherche qui seront concernés dès 2023. La Commission européenne doit encore prendre des actes délégués.

Quels sont les objectifs du règlement DSA ?

La législation sur les services numériques (DSA) veut mettre en pratique le principe selon lequel ce qui est illégal hors ligne est illégal en ligne.

Elle fixe un ensemble de règles pour responsabiliser les plateformes numériques et lutter contre la diffusion de contenus illicites ou préjudiciables ou de produits illégaux : attaques racistes, images pédopornographiques, désinformation, vente de drogues ou de contrefaçons... Cette législation doit succéder à la directive dite e-commerce du 8 juin 2000, devenue dépassée.

Les objectifs sont multiples :

  • mieux protéger les internautes européens et leurs droits fondamentaux (liberté d'expression, protection des consommateurs...) ;
  • aider les petites entreprises de l'UE à se développer ;
  • renforcer le contrôle démocratique et la surveillance des très grandes plateformes ;
  • atténuer des risques systémiques, tels que la manipulation de l'information ou la désinformation.

À noter

Sur le plan mondial, l'UE, les États-Unis et plusieurs autres États ont adopté le 28 avril 2022 une "déclaration pour l'avenir de l'internet". Cette charte n'a toutefois qu'une valeur politique.
Les 60 pays qui l'ont signée veulent "faire de l'internet un lieu sûr et un espace digne de confiance pour tous et de veiller à ce que l'internet serve notre liberté individuelle", a déclaré Ursula von der Leyen, présidente de la Commission européenne.

Quels sont les acteurs visés par le DSA ?

Le règlement DSA doit s'appliquer à tous les intermédiaires en ligne qui offrent leurs services (biens, contenus ou services) sur le marché européen. Peu importe que ces intermédiaires soient établis en Europe ou ailleurs dans le monde.

Sont notamment concernés :

  • les fournisseurs d'accès à internet (FAI) ;
  • les services d'informatique en nuage (cloud) ;
  • les plateformes en ligne comme les places de marché (market places), les boutiques d'applications, les réseaux sociaux, les plateformes de partage de contenus, les plateformes de voyage et d'hébergement ;
  • les très grandes plateformes en ligne et les très grands moteurs de recherche, utilisés par plus de 45 millions d'Européens par mois. Cette catégorie vise en particulier les GAFAM (Google, Apple, Facebook, Amazon et Microsoft), même s'ils ne sont pas directement nommés.

Tous ces intermédiaires devront respecter de nouvelles obligations, proportionnées à la nature de leurs services, à leur taille, à leur poids et aux risques et dommages sociétaux qu'ils peuvent causer. Cela signifie que les très grandes plateformes et les très grands moteurs de recherche seront soumis à des exigences plus strictes.

Les très petites entreprises et petites entreprises (moins de 50 salariés et moins de 10 millions de chiffre d’affaires annuel) n'atteignant pas 45 millions d'utilisateurs seront exemptées de certaines obligations.

Que va changer le DSA ?

Le Digital Services Act prévoit de nombreuses mesures, graduées selon les acteurs en ligne et leur rôle. Tous vont devoir désigner un point de contact unique ou, s'ils sont établis hors UE, un représentant légal et coopérer avec les autorités nationales en cas d'injonction. Les autres obligations peuvent être classées en trois catégories.

Lutte contre les contenus illicites

Les plateformes en ligne devront proposer aux internautes un outil leur permettant de signaler facilement les contenus illicites. Une fois le signalement effectué, elles devront rapidement retirer ou bloquer l'accès au contenu illégal.

Dans ce cadre, les plateformes devront coopérer avec des "signaleurs de confiance". Ce statut sera attribué dans chaque pays à des entités ou organisations en raison de leur expertise et de leurs compétences. Leurs notifications seront traitées en priorité.

Les market places (tels AirB'nB ou Amazon), qui jouent un rôle de plus en plus important dans la vie quotidienne des consommateurs (en 2020, 73% d'Européens ont acheté en ligne), devront mieux tracer les vendeurs qui proposent des produits ou services sur leur plateforme (recueil d'informations précises sur le professionnel avant de l'autoriser à vendre, vérification de la fiabilité de celles-ci) et mieux en informer les consommateurs.

Transparence en ligne

Les plateformes devront rendre plus transparentes leurs décisions en matière de modération des contenus. Elles devront prévoir un système interne de traitement des réclamations permettant aux utilisateurs dont le compte a été suspendu ou résilié (par exemple sur un réseau social) de contester cette décision. Pour régler le litige, les utilisateurs pourront également se tourner vers des organismes indépendants et certifiés dans les pays européens ou saisir leurs juges nationaux.

Les plateformes devront par ailleurs expliquer le fonctionnement des algorithmes qu'elles utilisent pour recommander certains contenus publicitaires en fonction du profil des utilisateurs. Les très grandes plateformes et les très grands moteurs de recherche auront l'obligation de proposer un système de recommandation de contenus non-fondé sur le profilage. Elles devront en outre mettre à disposition du public un registre des publicités contenant diverses informations (qui a parrainé l’annonce, comment et pourquoi elle cible tels individus...).

La publicité ciblée pour les mineurs sera interdite pour toutes les plateformes, de même que la publicité basée sur des données sensibles comme la religion ou l’orientation sexuelle (sauf consentement explicite).

Les interfaces trompeuses connues sous le nom de "pièges à utilisateurs" (dark patterns) et les pratiques visant à induire les utilisateurs en erreur (mise en avant de certains choix...) seront prohibées.

Atténuation des risques et réponse aux crises

Les très grandes plateformes et les très grands moteurs de recherche jouent un rôle très important et influent sur la sécurité en ligne, la diffusion de l'information, la formation de l'opinion publique et les transactions économiques. C'est pourquoi d'autres mesures leurs sont imposées, proportionnées aux risques sociétaux qu’ils représentent lorsqu’ils diffusent des contenus illicites ou préjudiciables, comme la désinformation.

Ces grands acteurs, dont la liste sera publiée par la Commission européenne, devront :

  • analyser tous les ans les risques systémiques qu'ils génèrent (sur la haine et la violence en ligne, les droits fondamentaux, le discours civique, les processus électoraux, la santé publique...) et prendre les mesures nécessaires pour atténuer ces risques (respect de codes de conduite, suppression des faux comptes, visibilité accrue des sources d'information faisant autorité...) ;
  • effectuer tous les ans des audits indépendants de réduction des risques, sous le contrôle de la Commission européenne ;
  • fournir les algorithmes de leurs interfaces à la Commission et aux autorités nationales compétentes ;
  • accorder un accès aux données clés de leurs interfaces aux chercheurs agréés afin qu'ils puissent mieux comprendre l'évolution des risques en ligne ;
  • mieux protéger les mineurs en ligne.

Un mécanisme de réaction aux crises touchant la sécurité ou la santé publique est enfin prévu. La Commission européenne pourra demander aux grands acteurs une analyse des risques que posent leurs interfaces lorsqu'une crise émerge (comme la récente agression russe contre l'Ukraine) et leur imposer pendant un temps limité des mesures d’urgence.

Quelle surveillance et quelles sanctions en cas de non-respect du DSA ?

Dans tous les pays de l'UE, un "coordinateur des services numériques", autorité indépendante désignée par chaque État membre, sera mis en place. Dans plusieurs pays, le coordinateur national sera l'autorité des médias (qui correspond à l'Arcom en France).

Ces 27 coordinateurs seront chargés de contrôler le respect du règlement DSA dans leur pays et de recevoir les plaintes à l'encontre des intermédiaires en ligne. Ils coopéreront au sein d'un "comité européen des services numériques" qui rendra des analyses, mènera des enquêtes conjointes dans plusieurs pays et émettra des recommandations sur l'application de la nouvelle réglementation. Ce comité devra notamment recommander la Commission sur l'activation du mécanisme de réponse aux crises.

Les très grandes plateformes en ligne et les très grands moteurs de recherche seront surveillés par la Commission européenne. Pour financer cette surveillance, des "frais de supervision" leur seront demandés, dans la limite de 0,05% de leur chiffre d’affaires annuel mondial. Elles devront désigner un ou plusieurs responsables de la conformité au règlement.

En cas de non-respect du DSA, les coordinateurs des services numériques et la Commission pourront prononcer des astreintes et des sanctions. Pour les très grandes plateformes et les très grands moteurs de recherche, la Commission pourra infliger des amendes pouvant aller jusqu'à 6% de leur chiffre d'affaires mondial.

En cas de violations graves et répétées au règlement, les plateformes pourront se voir interdire leurs activités sur le marché européen.