AccueilDroitActualité du droitLe Digital Services Act et la modération de contenus : quelle protection de la liberté d’expression des utilisateurs ?
« The bird is freed ».

Le Digital Services Act et la modération de contenus : quelle protection de la liberté d’expression des utilisateurs ?

« The bird is freed ». Le 25 avril 2022, Elon Musk annonçait par ce tweet le rachat officiel du réseau social Twitter pour 44 milliards de dollars.
Edoardo Brizio et Grégoire Gennetais, étudiants en dernière année à l’EDHEC Business School, LLM Law & Tax Management
© EDHEC - Edoardo Brizio et Grégoire Gennetais, étudiants en dernière année à l’EDHEC Business School, LLM Law & Tax Management

DroitActualité du droit Publié le , Edoardo Brizio et Grégoire Gennetais, étudiants en dernière année à l’EDHEC Business School, LLM Law & Tax Management

Ainsi qu’il l’a répété durant tout le processus d’acquisition, son ambition est de favoriser au maximum la liberté d’expression sur la plateforme et, par conséquent, d’en limiter la modération. Une telle position implique un questionnement légitime à l’heure où la désinformation et la diffusion de contenus haineux sont facilitées par le manque d’efficacité de la modération. Ces phénomènes conduisent à un renforcement de la défiance envers les géants du numérique, également dû à la prise de conscience par les utilisateurs des potentielles atteintes portées à leurs droits et libertés fondamentaux et notamment l’utilisation de leurs données personnelles[1].

L’apport du DSA en matière de liberté d’expression des utilisateurs

La modération de contenus est une problématique centrale car elle permet de contrôler directement tout ce qui peut être publié sur une plateforme numérique. Les modérateurs ayant la responsabilité de déterminer, sur la base de la politique interne édictée par la plateforme, quel contenu doit - ou ne doit pas - être publié, ils déterminent directement l’étendue de la liberté d’expression des utilisateurs. Mark Zuckerberg, co-fondateur de Meta, décrivait lui-même le fonctionnement du réseau social Facebook « plus comme un gouvernement que comme une entreprise traditionnelle. Nous avons cette grande communauté de personnes, et plus que d'autres entreprises technologiques, nous définissons vraiment des politiques »[2]. L’Union européenne a donc pris des mesures visant à mettre en place un contrôle effectif de l’activité de ces géants du numérique.

L’inscription du DSA dans un cadre juridique plus large

Le Digital Markets Act[3] (« DMA ») a été la première avancée significative européenne en matière de régulation des GAMAM (Google, Apple, Meta, Amazon, Microsoft) et autres géants du numérique. L’objectif de cette règlementation était de permettre de contrôler et d’endiguer les pratiques anticoncurrentielles de ces sociétés, ce texte ayant déjà fait l’objet d’une publication[4]. Avec le Digital Services Act[5] (« DSA »), élaboré en parallèle du DMA, l’Union européenne a mis l’accent sur la protection des données personnelles et plus largement des droits et libertés fondamentaux des utilisateurs de services numériques. L’objectif est clair : empêcher ces sociétés de déterminer trop librement leur politique de modération de contenus et limiter leur pouvoir d’influence. C'est dans cette optique que le secrétaire d’Etat chargé de la transition numérique en France au moment du rachat de Twitter, Cédric O, a tenu à rappeler dans un tweet que « le Digital Services Act – et donc l’obligation de lutter contre la désinformation, la haine en ligne, etc. – s’appliquera quelle que soit l’idéologie son propriétaire » (i.e Elon Musk)[6]. Le DSA est entré en vigueur le 19 octobre 2022 mais les sociétés concernées ne seront contraintes de respecter les obligations qu’il met en place qu’à compter du 17 février 2024.

Il apparaît donc nécessaire de déterminer l’étendue des garanties de la liberté d’expression ainsi que la nécessité de mettre en place une modération de contenus fiable et d’évaluer l’effectivité du régime de responsabilité proposé par le DSA.

Le DSA est présenté comme un ensemble de règles visant à renforcer la protection des utilisateurs de services numériques au sein de l’Union européenne[7]. Afin de mieux comprendre les nouveautés introduites par cette réglementation, il est nécessaire de rappeler les trois objectifs principaux du législateur européen[8] :

        • « Mieux protéger les consommateurs et leurs droits fondamentaux en ligne
        • Mettre en place un cadre solide pour la transparence des plateformes en ligne et clair en ce qui concerne leur responsabilité
        • Favoriser l’innovation, la croissance et la compétitivité au sein du marché unique »

Ainsi, plusieurs obligations incombent aux fournisseurs de services intermédiaires, dont certaines portent directement sur la modération de contenus.

La modération est un point essentiel pour les utilisateurs en ce qu’elle influe directement sur leur liberté d’expression. À ce sujet, Ursula von der Leyen, Présidente de la Commission Européenne, a déclaré que « La législation sur les services numériques améliorera les règles de base applicables à tous les services en ligne dans l'UE. Elle fera en sorte que l'environnement en ligne reste un espace sûr, préservant la liberté d'expression et les possibilités offertes aux entreprises numériques »[9].

La liberté d’expression, telle que définie par l’article 19 de la Déclaration universelle des droits de l’homme[10], reconnait pour tout individu le droit à la liberté d'opinion et d'expression, ce qui implique le droit de ne pas être inquiété pour ses opinions et celui de chercher, de recevoir et de répandre, sans considérations de frontières, les informations et les idées par quelque moyen d'expression que ce soit – ceci incluant ainsi les plateformes numériques telles que les réseaux sociaux. Il s’agit d’une liberté faisant l’objet d’une protection importante, tant au niveau conventionnel (art. 10 de la CEDH[11] et 25 du PIDCP[12]) qu’au niveau constitutionnel (art. 11 de la DDHC[13]).

Le DSA précise que la modération comprend « les activités, qu’elles soient automatisées ou non, entreprises par des fournisseurs de services intermédiaires qui sont destinées, en particulier, à détecter et à identifier les contenus illicites ou les informations incompatibles avec leurs conditions générales, fournis par les destinataires du service, et à lutter contre ces contenus ou ces informations (…) »[14].

La question de la modération sur les plateformes numériques, et notamment les réseaux sociaux, est d’actualité du fait de la rapidité de publication, à l’échelle mondiale, de contenu visible par des millions d’utilisateurs. En effet, les réseaux sociaux ont le devoir de protéger les utilisateurs contre les discours haineux et les informations erronées, tout en respectant la liberté d'expression, l’équilibre étant parfois difficile à trouver.

La nécessité pour les fournisseurs de services intermédiaires de repenser leurs conditions générales

En pratique, en prenant pour exemple Facebook, le contenu sera signalé soit par une technologie d’intelligence artificielle, soit par un utilisateur. Il sera transmis à l'un des modérateurs de Facebook, qui aura alors la responsabilité de décider si ce contenu peut rester en ligne ou s'il doit être retiré. Une fois qu'un contenu est considéré comme violant les normes de communauté, il sera retiré de la plateforme et l'utilisateur qui l’a publié pourra faire appel.

Le risque principal pour la liberté d’expression réside dans le fait que la même entité (dans l’illustration présente Facebook) soit à la fois responsable de la rédaction des normes de communauté et de leur application. Elle dispose, toutes proportions gardées, de tous les pouvoirs.

Cela implique de déterminer comment le DSA pourrait impacter cette modération et la rendre plus favorable pour les utilisateurs, notamment par le biais de l’information et la transparence.

Si un bon nombre d’utilisateurs ne lisent pas attentivement les conditions générales d’utilisation d’une plateforme au moment de l’inscription, elles restent néanmoins un moyen pertinent pour informer l’utilisateur puisqu’il est contraint d’y consentir s’il veut bénéficier du service de la plateforme. Le DSA prévoit que ces conditions générales devront contenir des informations relatives aux trois axes de la modération de contenus que sont les outils utilisés pour la modération (moyens technologiques et/ou humains), les normes édictées par le fournisseur de service auquel le contenu doit se conformer (politiques) et le traitement des réclamations[15].

Cette nouvelle obligation force les fournisseurs de services intermédiaires à réfléchir au sujet de la modération de contenus de manière plus structurée et transparente. Ainsi, même si ces fournisseurs décident de déléguer à des entités tierces la responsabilité de gérer la modération sur leurs plateformes, ils auront tout de même la responsabilité de fournir des informations aux utilisateurs sur la manière dont la modération est exécutée. De plus, la divulgation de ce genre d’informations dans les conditions générales va permettre à l’Union européenne, et plus généralement toute personne intéressée, d’avoir une meilleure connaissance du fonctionnement de la modération, permettant donc au législateur d’éventuellement adapter le texte.

Néanmoins, l’effectivité de cette mesure, prise individuellement, est à nuancer car les conditions générales restent un document auquel les utilisateurs portent faible attention. Il pourrait s’agir d’une tentative de la part du législateur européen de responsabiliser les utilisateurs, en renforçant la pertinence des informations figurant dans ce document à leur égard.

Afin de palier ce faible taux de lecture des conditions générales d’utilisation par les utilisateurs, le DSA a élargi cette obligation de transparence de la part des fournisseurs de services intermédiaires en leur imposant la rédaction et la publication de rapports.

De l’obligation de transparence au risque de mise en jeu de la responsabilité des fournisseurs de services intermédiaires

Outre des rapports de transparence, les fournisseurs de services intermédiaires vont devoir élaborer des mesures d’atténuation des risques liés à la liberté d’expression.

Rapports de transparence et atténuation des risques

Ces rapports de transparence devront respecter des obligations de clarté et d’intelligibilité sur des éventuelles activités de modération de contenus, tant sur le plan de la modération automatisée que celui de la modération humaine[16].

Concernant la modération automatisée, des spécificités techniques devront être fournies et divulguées. Cela comprend une description qualitative, une indication précise des objectifs, des indicateurs de la précision et du taux d’erreur possible des moyens utilisés[17]. Ces dispositions permettent de contraindre les fournisseurs à utiliser des algorithmes performants et résolvent le problème de lecture des conditions générales de vente puisque ces rapports permettront de mettre en lumière d’éventuels abus sans que les utilisateurs n’aient à les déceler. Au contraire, les autorités de contrôle pourront se charger de cette mission. Toutefois, ce système ne peut fonctionner qu’à la condition que les informations fournies soient justes, ce qui n’est pas garanti.

Concernant la modération humaine, les informations devant être fournies dans ce rapport imposent aux fournisseurs de services intermédiaires de détailler les mesures prises pour former et assister les modérateurs[18]. Cette obligation est la réaction directe à une tendance observée chez de nombreuses plateformes qui ont recours à des sociétés tierces pour modérer leurs contenus. Elles tentent ainsi de se dégager de toute responsabilité. A titre d’exemple, Arun Chandra, Vice President of Scale Operations au sein de Meta, confiait à la presse « Nous ne dirigeons pas les activités quotidiennes des modérateurs (...) car, en fin de compte, la gestion quotidienne est assurée par les partenaires eux-mêmes. »[19]. Cette pratique pose de nombreux problèmes concernant l’efficacité de la modération car il est fréquent que les modérateurs ne soient pas suffisamment entrainés ou ne soient pas en mesure de parler toutes les langues supportées par la plateforme. Par exemple, en 2020, les modérateurs de Facebook couvraient collectivement plus de 50 langues, alors que le nombre de langues disponibles sur la plateforme était supérieur à 100[20].

Cela force ainsi les fournisseurs mondialement présents à prendre ce sujet en main en vue d’assurer une modération juste et effective, malgré le fait que bon nombre d’entre eux décident de sous-traiter leurs activités à des entités tierces.

Ces obligations de transparence sont d’autant plus lourdes pour les entreprises que le DSA considère comme des « fournisseurs de très grandes plateformes en ligne et de très grands moteurs de recherche en ligne » qui doivent, au sein de ce même rapport, préciser[21] :

        • les ressources humaines qu’il consacrent à la modération de contenus pour les services proposés dans l’Union, ventilées par langue officielle concernée des États membres, et
        • les qualifications et compétences linguistiques des personnes accomplissant les activités de modération ainsi que la formation et l’accompagnement qui leur sont apportés.

Le DSA demande aussi aux fournisseurs de services intermédiaires, en plus des obligations de transparence mentionnées plus haut, d’identifier et élaborer des mesures d’atténuation des risques. Parmi ces risques, le législateur européen vise expressément la modération de contenus, risque corrélé à la liberté d’expression des utilisateurs. Le texte qualifie d’ailleurs de risque systémique l’atteinte avérée ou prévisible aux droits et libertés fondamentaux des utilisateurs et vise, de manière explicite, la liberté d’expression et d’information[22].

Ainsi, tant au niveau de l’identification que de l’atténuation des risques, les fournisseurs de services numériques doivent prendre en compte la modération de contenus[23]. Toutefois, ne sont pas visés ici tout fournisseur de services numériques mais uniquement les « fournisseurs de très grandes plateformes en ligne et de très grands moteurs de recherche en ligne », ce qui vise in fine, sans les citer, les GAMAM. En effet, afin d’atteindre l’objectif du Règlement d’assurer un environnement en ligne sûr, prévisible et fiable, et permettre aux citoyens de l’Union d’exercer leur liberté d’expression et d’information[24], il est indispensable d’appliquer ces règles supplémentaires aux GAMAM qui représentent la majorité des fournisseurs de services numériques.

Cette protection peut prendre plusieurs formes et nécessite, notamment, de veiller à ce que chaque utilisateur puisse s’exprimer librement, sans pour autant porter une atteinte excessive aux droits et libertés fondamentaux d’autres citoyens. Une modération proportionnée est donc requise. En fin de compte, tout dépend de l’efficacité des contrôles qui seront menés par la Commission Européenne et plus spécifiquement les coordinateurs de services numériques à l’échelle des États membres.

Enfin, l’efficacité d’une telle protection de la liberté d’expression, et plus largement des droits et libertés fondamentaux, fera l’objet d’un rapport établi au plus tard en novembre 2027 par la Commission Européenne qui évaluera le DSA et notamment « l’incidence sur le respect du droit à la liberté d’expression et d’information »[25].

Le risque de mise en jeu de la responsabililité pour les fournisseurs de services intermédiaires

Le régime de responsabilité des fournisseurs de services intermédiaires est détaillé au chapitre 2 du DSA, qui présente successivement les régimes s’appliquant à chaque type de services. Ce régime de responsabilité s’est inspiré de celui prévu dans la directive de 2000 sur le commerce électronique[26]. Il s’articule autour des différents types de services assurés par les intermédiaires : les opérations de simple transmission d’informations à des fournisseurs, la mise en cache ou encore l’hébergement de données[27]. Plus particulièrement, afin de favoriser la mise en place d’une politique de modération de contenus conforme aux exigences du DSA, les autorités judiciaires ou administratives nationales compétentes auront la possibilité d’envoyer des injonctions d’agir contre des contenus illicites.

Outre la détermination des conditions d’engagement de la responsabilité des intermédiaires, la bonne application du DSA est subordonnée à l’adoption de sanctions et la mise en place d’un contrôle effectif. C’est pourquoi le DSA prévoit que les États membres déterminent eux-mêmes le régime des sanctions applicables aux infractions au présent règlement, sanctions qui doivent être « effectives, proportionnées et dissuasives »[28]. Des amendes pourront être attribuées dans la limite de 6% du chiffre d’affaires de la société concernée[29]. En cas de violations graves et répétées au Règlement, les plateformes pourront se voir interdire leurs activités sur le marché européen. Afin de prévenir et de déceler d’éventuelles violations, la Commission Européenne tiendra un rôle de contrôle important. Le DSA prévoit par exemple une surveillance particulière des grandes plateformes en ligne et des très grands moteurs de recherche. À cela s’ajoute la désignation d’un coordinateur de services numériques, une autorité indépendante désignée par chaque État membre qui devra se faire au plus tard le 17 février 2024.

L’ensemble des mesures présentes dans le DSA montrent que l’importance de l’établissement d’un contrôle de l’effectivité a bien été pris en compte par le législateur européen. La marge de manœuvre laissée aux États membres dans le choix des sanctions à appliquer en cas de manquement permet d’éviter que les petits fournisseurs de services intermédiaires ne se voient appliquer des sanctions trop importantes pour leurs moyens. Néanmoins, le plafonnement des amendes attribuables à 6% du chiffre d’affaires risque de ne pas être suffisant pour motiver les GAMAM à appliquer scrupuleusement les dispositions du DSA. En comparaison, les sanctions appliquées en droit de la concurrence en cas de prise d’accords anti-concurrentiels ne peuvent être supérieures à 10% du chiffre d’affaires annuel alors que l’on constate souvent que le profit tiré de ce même accord surpasse la perte due à la sanction infligée[30]. Ces sanctions risquent en somme de ne pas être assez dissuasives alors même que le texte du DSA le requiert[31].

Chronique « Droit, Juriste et Pratique du Droit Augmentés »

Cette chronique a pour objectif, de traiter de questions d'actualité relatives à cette transformation. Dans un contexte où le digital, le big data et le data analytics, le machine learning et l'intelligence artificielle transforment en profondeur et durablement la pratique du droit, créant des « juristes augmentés » mais appelant aussi un « Droit augmenté » au regard des enjeux et des nouveaux business models portés par le digital.

Avec son Augmented Law Institute, l'EDHEC Business School dispose d'un atout majeur pour positionner les savoirs, les compétences et la fonction du juriste au centre des transformations de l'entreprise et de la société. Il se définit autour de 3 axes de développement stratégiques : son offre de formations hybrides, sa recherche utile à l'industrie du droit, sa plateforme de Legal Talent Management. https://www.edhec.edu/fr/ledhec-augmented-law-institute


[1] P. Bailly, « Données personnelles : le sujet vaut mieux qu’un simple « marketing de la peur », 6 novembre 2020, https://www.lefigaro.fr/blogs/philippe-bailly/2020/11/donnees-personnelles-le-sujet-vaut-mieux-quun-simple-marketing-de-la-peur.html

[2] D. Kirkpatrick, “The Facebook Effect: The Real Inside Story of Mark Zuckerberg and the World’s Fastest Growing Company”, Simon & Schuster, 2010

[3] Règlement (UE) 2022/1925 du Parlement Européen et du Conseil du 14 septembre 2022, relative aux marchés contestables et équitables dans le secteur numérique et modifiant les directives (UE) 2019/1937 et (UE) 2020/1828 (règlement sur les marchés numériques).

[4] L. Finger et L. Moral, « Le Digital Markets Act, un nouvel allié pour le droit de la concurrence face aux géants du numérique ? » Affiches Parisiennes, 10 décembre 2021, https://www.affiches-parisiennes.com/le-digital-markets-act-un-nouvel-allie-pour-le-droit-de-la-concurrence-face-aux-geants-du-numerique-92220.html

[5] Règlement (UE) 2022/2065 du Parlement Européen et du Conseil du 19 octobre 2022, relative à un marché unique des services numériques et modifiant la directive 2000/31/CE (règlement sur les services numériques)

[6] E. Pommiers et O. Clairoin, « Rachat de Twitter par Elon Musk : pourquoi la « liberté d’expression » défendue par le milliardaire inquiète ? », Le Monde, 26 avril 2022, https://www.lemonde.fr/pixels/article/2022/04/26/rachat-de-twitter-par-elon-musk-pourquoi-la-liberte-d-expression-defendue-par-le-milliardaire-inquiete_6123757_4408996.html

[11] Cour européenne des droits de l’homme

[12] Pacte international relatif aux droits civils et politiques

[13] Déclaration des droits de l’homme et du citoyen

[14] Article 1 (f) du DSA

[15] Considérant (45) et Article 14 du DSA

[16] Article 15 du DSA

[17] Article 15 1. (e) du DSA

[18] Article 15 1. (b) du DSA

[19] P. M. Barret, “Who Moderates the Social Media Giants? A Call to End Outsourcing”, NYU/STERN Center for Business and Human Rights, juin 2020, https://bhr.stern.nyu.edu/tech-content-moderation-june-2020?_ga=2.144607421.986653883.1677088884-996349869.1677088884

[20] P. M. Barret, réf. préc.

[21] Article 42 du DSA

[22] Article 34 2. (b) du DSA

[23] Articles 34 et 35 du DSA

[24] Considérant (3) du DSA

[25] Article 94 2. du DSA

[26] Directive 2000/31/CE du Parlement européen et du Conseil du 8 juin 2000 « directive sur le commerce électronique » chapitre 2 section 4

[27] Article 4, 5 et 6 du DSA

[28] Article 52 du DSA

[29] Article 52 et 74 (pour les très grandes plateformes ou moteurs de recherche en ligne) du DSA

[30]http://emmanuelcombe.fr/wp-content/uploads/2017/09/sanction2006.pdf sur la théorie de la « sanction optimale » contre les cartels

[31] Sur les sanctions applicables dans le cas des pratiques de modération de Twitter, voir F. G’ Sell, « Twitter pourrait-il être sanctionné du fait de ses pratiques de modération ? », Dalloz actualité, 19 décembre 2022, https://www.dalloz-actualite.fr/node/twitter-pourrait-il-etre-sanctionne-du-fait-de-ses-pratiques-de-moderation#.Y_ZbNx-ZM2w

Partager :
Abonnez-vous
  • Abonnement intégral papier + numérique

  • Nos suppléments et numéros spéciaux

  • Accès illimité à nos services

S'abonner
Journal du 24 mars 2023

Journal du24 mars 2023

Journal du 17 mars 2023

Journal du17 mars 2023

Journal du 10 mars 2023

Journal du10 mars 2023

Journal du 03 mars 2023

Journal du03 mars 2023

S'abonner
Envoyer à un ami
Connexion
Mot de passe oublié ?