DSA : Des obligations visant à protéger les utilisateurs contre les contenus illégaux

Contactez-moi

Ce qu'il faut retenir

Après deux ans d’attente, et à la suite de l’adoption par l’UE et d’autres Etats le 28 avril 2022 d’un engagement politique nommé « Déclaration pour l’avenir d’internet » [1], le Règlement européen sur les services numériques dit « Digital Services Act » (DSA), proposé en 2020 par la Commission européenne, vient d’être adopté le 19 octobre 2022, publié le 27 octobre 2022 au Journal Officiel de l’Union Européenne.

Ce Règlement a vocation à définir les responsabilités des intermédiaires numériques quant aux contenus qu’ils diffusent et de garantir les droits fondamentaux des utilisateurs. Il met à la charge de ces intermédiaires un certain nombre d’obligations proportionnelles à leurs activités, leur taille, leur poids et leurs risques et les entreprises ont jusqu’en février 2024 pour se mettre en conformité.

Pour approfondir

Malgré une évolution toujours plus importante des services numériques, le cadre juridique européen demeurait inchangé depuis la Directive sur le commerce électronique de 2000 [2]. En décembre 2020, la Commission européenne, par le biais de son droit d’initiative, présentait deux propositions législatives, dont l’objectif était de réguler le numérique :

Le Règlement sur les services numériques (DSA) du 19 octobre 2022, publié au Journal Officiel de l’Union Européenne le 27 octobre 2022, entrera en vigueur 15 mois après, soit début février 2024.

Objectifs

Le DSA a pour objectif de protéger les européens contre les dérives qui touchent de plus en plus les contenus sur les réseaux, d’aider les petites entreprises à s’implanter dans l’Union européenne, de renforcer le contrôle démocratique et la surveillance des « très grandes plateformes » et « très grands moteurs de recherches », et d’atténuer les risques systémiques comme la désinformation. Il veut mettre en pratique le principe selon lequel « ce qui est illégal hors ligne est illégal en ligne ».

Ainsi, les plateformes numériques vont désormais avoir leur part de responsabilité dans la lutte contre la diffusion de contenus illicites et préjudiciables ou de produits illégaux (injure raciste ou discriminatoire, image pédopornographiques, désinformation, vente de drogues, contrefaçon, etc.).

La définition des intermédiaires

Le DSA s’applique à l’ensemble des intermédiaires qui offrent leurs services (biens, contenus ou services) sur le marché européen, peu importe qu’ils soient établis en Europe ou en dehors. On retrouve parmi eux les fournisseurs d’accès à internet, les services cloud, les places de marché, les boutiques d’application, les réseaux sociaux, les plateformes de partage de contenus, les plateformes de voyage et d’hébergement, etc. Cela vise également les « très grandes plateformes en ligne » et « très grands moteurs de recherches » utilisés par plus de 45 millions d’européens chaque mois (notamment les GAFAM).

Les entreprises de moins de 50 salariés et réalisant moins de 10 millions d’euros de chiffre d’affaires seront exemptées de certaines obligations si elles n’atteignent pas le seuil de 45 millions d’utilisateurs par mois.

Les obligations des intermédiaires

Chaque intermédiaire devra respecter des obligations proportionnées à la nature de ses services, à sa taille, à son poids dans le marché et à ses risques.

Ils devront désigner un point de contact unique ou un représentant légal (pour ceux établis hors d’Europe) et coopérer avec les autorités nationales en cas d’injonction.

Les obligations mises à la charge des intermédiaires recouvrent trois catégories :

 Les intermédiaires doivent :

  1. Mettre en place un outil permettant aux utilisateurs de signaler facilement les contenus illicites. Les contenus illicites doivent être retirés ou bloqués rapidement ;
  2. Coopérer avec des « signaleurs de confiance » : statut attribué à des entités ou organisations à raison de leurs compétences. Leurs notifications seront traitées en priorité.
  3. Faire preuve de vigilance à l’égard des vendeurs qui proposent des produits ou services sur leur plateforme (identification des vendeurs, fiabilité, etc.) et informer les consommateurs.

Les intermédiaires doivent :

  1. Rendre plus transparentes leurs décisions en matière de modération des contenus ;
  2. Prévoir un système interne de traitement des réclamations pour les utilisateurs dont le contenu est supprimé ou le compte est suspendu ou résilié : les litiges pourront également être réglé par des organismes nationaux indépendants ou les juges nationaux ;
  3. Expliquer le fonctionnement des algorithmes de recommandations des contenus publicitaires ;
  4. Pour les « très grandes plateformes » et « très grands moteurs de recherches », proposer un système de recommandation de contenus non fondé sur le profilage ;
  5. Mettre à disposition un registre des publicités (parrainage de l’annonce, cible client, etc.).

Les intermédiaires auront interdiction de faire de la publicité ciblée pour les mineurs ou de la publicité basée sur des données sensibles (religion, orientation sexuelle, etc.). Enfin, les interfaces trompeuses (pièces à utilisateurs) et les pratiques induisant en erreur (mise en avant de certains choix) seront prohibées.

Les « très grandes plateformes » et « très grands moteurs de recherches », dont la liste est publiée par la Commission européenne, ont un impact considérable sur la société, ce pourquoi sont mis à leur charge un certain nombre d’obligations supplémentaires :

  1. Analyser tous les ans les risques systémiques qu’ils génèrent (haine, violence, droits fondamentaux, discours civique, processus électoraux, santé publique, etc.) ;
  2. Prendre les mesures nécessaires pour atténuer les risques (codes de conduite, suppression de faux comptes, mise en avant des sources d’information fiables, etc.) ;
  3. Effectuer tous les ans des audits indépendants de réduction des risques ;
  4. Fournir leurs algorithmes à la Commission européenne et aux autorités nationales ;
  5. Accorder un accès aux données clés de leurs interfaces aux chercheurs ;
  6. Protéger efficacement les mineurs.

Ces plateformes devront enfin mettre en place un mécanisme de gestion de crises lorsqu’elles touchent à la sécurité et la santé et la Commission européenne pourra leur demander une analyse des risques en cas de crise majeure et leur imposer des mesures d’urgence.

Autorités de contrôle

Dans chaque Etat, un « coordinateur des services numériques », à savoir une autorité indépendante, sera mis en place (l’ARCOM pour la France). Cette autorité aura la charge du contrôle de la conformité des plateformes avec le DSA dans leur pays, de recevoir les plaintes à l’encontre des intermédiaires.

Les 27 coordinateurs réunis en un Comité européen des services numériques rendra des analyses, mènera des enquêtes conjointes et émettra des recommandations. Il donnera également un avis à la Commission européenne sur l’activation du mécanisme de réponse aux crises.

S’agissant des « très grandes plateformes » et « très grands moteurs de recherches », l’autorité de surveillance sera la Commission européenne, ce pourquoi des « frais de supervision » leur seront demandés dans la limite de 0,05 % de leur chiffre d’affaires annuel mondial. Ils devront par ailleurs nommer un Responsable de la conformité au règlement DSA.

 

Sanctions

En cas de non-respect du DSA, les autorités nationales et la Commission européenne peuvent prononcer des astreintes et infliger des sanctions - l’amende pouvant aller jusqu’à 6 % de leur chiffre d’affaires mondial.

En cas de violations graves et répétées du Règlement DSA, une sanction d’interdiction d’exercer sur le marché européen pourrait être prononcée.


[1] Déclaration pour l’avenir de l’internet, 28 avril 2022

[2] Directive 2000/31/CE du Parlement européen et du Conseil du 8 juin 2000 relative à certains aspects juridiques des services de la société de l'information, et notamment du commerce électronique, dans le marché intérieur (« directive sur le commerce électronique »)

[3] RÈGLEMENT(UE) 2022/1925 DU PARLEMENT EUROPÉEN ET DU CONSEIL du 14 septembre 2022 relatif aux marchés contestables et équitables dans le secteur numérique et modifiant les directives (UE) 2019/1937 et (UE) 2020/1828 (règlement sur les marchés numériques)

Responsabilité pénale de la personne morale : le représentant doit avoir une délégation

23/6/2023

Devoir de vigilance : une nouvelle directive européenne adoptée

20/6/2023

Responsabilité pénale des personnes morales : impossibilité de reconnaitre la faute délibérée après la relaxe du dirigeant

28/3/2023

Enquête interne : Nouveau guide de l'AFA et résolution du barreau de Paris

19/4/2023