Fermer la publicité
Journal d'information juridique et d'annonces légales

Liberté d'expression sur les réseaux sociaux et contrôle du contenu

le - - Droit - Actualité du droit

Liberté d'expression sur les réseaux sociaux et contrôle du contenu
© DR

Début janvier, les comptes Twitter et Facebook du président américain Donald Trump ont été suspendus pour respectivement 12 heures et 2 semaines jusqu'à l'investiture de Joe Biden. Cela fait suite à l'invasion du Capitole par des partisans de Donald Trump le 6 janvier 2021.

Par cet acte, ils ont interrompu la session confirmant les résultats de l'élection présidentielle qui aurait, selon eux, été « truquée ». Cette théorie a largement été relayée par Donald Trump sur les réseaux sociaux, ce qui a mené à cet évènement sans précédent ébranlant la démocratie américaine. Jusqu'ici, le régulateur prônait le « laisser faire » sur les réseaux sociaux au nom de la liberté d'expression. La question de l'encadrement de la liberté d'expression sur les réseaux sociaux constitue l'un des grands enjeux actuels. Cette tâche complexe doit-elle être confiée aux entités privées ayant les moyens techniques d'agir sur ses plateformes ou bien au régulateur pour garantir la liberté d'expression essentielle à une société démocratique ?

La liberté d'expression et ses limites sur les réseaux sociaux

Les réseaux sociaux, un espace pour promouvoir la liberté d'expression

Aujourd'hui, les réseaux sociaux sont de plus en plus présents dans notre environnement en raison du nombre croissant d'utilisateurs et de la multiplication des contenus postés. En Juin 2020, Facebook comptait notamment 2,7 milliards d'utilisateurs mensuels actifs dans le monde, soit une augmentation de 12% par rapport à l'année précédente[1]. En conséquence, les réseaux sociaux jouent aujourd'hui un rôle prépondérant vis-à-vis de la liberté d'expression puisqu'un nombre croissant de personnes expriment et partagent sur ces plateformes leurs expériences, idées, sentiments, opinions, revendications ou encore des informations.

A cet égard, différentes plateformes telles que Facebook ou Twitter reconnaissent leur statut particulier face à la liberté d'expression. Mark Zuckerberg a notamment déclaré dans l'une de ses publications[2] que Facebook est une institution attachée à la liberté d'expression qui souhaite permettre autant d'expressions que possible, à moins qu'elles ne causent un risque imminent de préjudices ou de dangers spécifiques énoncés dans des termes clairs. En 2018, face au Sénat américain[3], le fondateur et directeur général de Twitter, Jack Dorsey, définissait déjà Twitter comme « une place publique numérique », insistant sur l'importance des échanges libres et ouverts.

Les abus commis sur les réseaux sociaux au nom de la liberté d'expression

Toutefois, l'utilisation toujours plus grande de ces réseaux sociaux s'accompagne d'abus. Le fait d'être sur internet renforce un sentiment d'impunité dû à l'anonymat. Ces abus peuvent prendre des formes multiples telles que le non-respect des droits d'auteur, le cyber harcèlement, l'atteinte aux mineurs, l'incitation à la haine ou la mise en danger d'autrui par le partage de données personnelles. Et, même si ces actions sont commises en ligne, elles peuvent avoir des conséquences bien réelles à l'image du meurtre de Samuel Paty à la suite de la divulgation sur internet de son nom et de l'établissement dans lequel il enseignait.

L'instantanéité et la viralité du contenu publié rendent la modération particulièrement complexe. En effet, comment identifier efficacement les publications nuisibles sans mettre en place une censure systématique ? Une publication est-elle fondamentalement nuisible ou cela dépend-il de la personne y ayant accès ainsi que de la situation géographique. Des lois existent pour condamner ces délits commis y compris par voie électronique. En revanche, pour toutes ces raisons, leur application est très difficile. C'est pourquoi, cette tâche pourtant essentielle au maintien de la démocratie a été tacitement confiée aux entités gérant ces plateformes, faute de contrôle régalien.

La lutte de ces plateformes contre les abus

Pour promouvoir, maintenir et encadrer la liberté d'expression sur leurs plateformes, les réseaux sociaux définissent au sein de leur communauté des standards par lesquels ils tentent d'offrir un espace de liberté d'expression tout en écartant les éventuels abus liés à l'utilisation de leurs services.

En vertu des standards de Facebook[4], peuvent notamment être classés comme inacceptables les différents messages et contenus rentrant dans les catégories suivantes : "Violence et comportement criminel", "Sécurité", "Contenu répressible", "Intégrité et authenticité", "Respect de la propriété intellectuelle" et "Décisions et demandes relatives au contenu". Facebook se réserve ainsi le droit de limiter la liberté d'expression sur sa plateforme dès lors qu'un tel contenu serait identifié. En ce qui concerne la violence et les comportements criminels, Facebook s'engage à prévenir tout risque de danger hors ligne potentiellement lié au contenu figurant sur sa plateforme. De ce fait, Facebook interdit et censure sur sa plateforme toute menace ou appel à la violence considéré comme une menace crédible pour la sécurité publique ou personnelle tandis que les autres formes de déclarations insignifiantes sont tolérées.

Comment la législation articule la liberté d'expression sur les réseaux sociaux

Liberté d'expression sur les réseaux sociaux et responsabilité du contenu

Les réseaux sociaux se retrouvent en première ligne face à la question de la liberté d'expression. Tandis que certains prônent un laisser faire et la libre d'expression de chacun, d'autres soutiennent que les réseaux sociaux devraient exercer un contrôle et une censure plus accrue face à des contenus potentiellement dangereux. Ainsi, il convient de s'interroger sur la censure effectuée par les réseaux sociaux et ses possibles conséquences juridiques au regard de la liberté d'expression. Par ailleurs, le régime de responsabilité de ces plateformes vis-à-vis de leur contenu est également intéressant à étudier pour mieux comprendre et délimiter le niveau de modération et de contrôle nécessaire n'entravant pas la liberté d'expression des utilisateurs.

La Convention Européenne des Droits de l'Homme, ratifiée par tous les Etats de l'Union Européenne définit à l'article 10 le droit à la liberté d'expression : “Toute personne a droit à la liberté d'expression […] sans qu'il puisse y avoir ingérence d'autorités publiques”[5]. Par construction, cette définition est opposable aux autorités publiques mais pas aux entités privées. C'est pourquoi, a priori, la modération sur les réseaux sociaux échappe à ce principe de non-ingérence. Cela se vérifie dans la pratique avec un nombre très limité de cas dans lesquels des utilisateurs poursuivent ces réseaux pour atteinte à leur liberté d'expression. Quant à leur responsabilité vis-à-vis du contenu publié, la Directive européenne 2000/31/CE du 8 juin 2000[6], transposée en France par la loi n°2004-575[7] du 21 juin 2004 pour la confiance dans l'économie numérique, établit un régime de responsabilité limitée à l'égard des hébergeurs. En effet, les hébergeurs ne sont qu'un simple canal de transmission ; ils ne sont pas à l'origine du contenu (contrairement aux éditeurs) ne sélectionnant pas les destinataires et ne modifiant pas les informations communiquées. Ainsi, les hébergeurs ne peuvent pas voir leur responsabilité engagée s'ils n'avaient pas connaissance du caractère illicite du message posté par un internaute ou s'ils ont agi promptement pour retirer le contenu publié dès lors qu'ils ont pris connaissance de son caractère illicite. La responsabilité incombant aux hébergeurs ne peut alors pas s'entendre comme une obligation générale de surveillance face au contenu figurant sur leur plateforme. Les Etats membres ne peuvent pas non plus imposer aux hébergeurs de rechercher des informations relevant d'activité illicite. Toutefois, la CJUE estime qu'en dépit de l'absence d'obligation générale de surveillance, l'hébergeur peut se voir enjoindre de supprimer ou de bloquer l'accès à tout contenu qui serait identique ou équivalent à un contenu précédemment jugé illicite par les tribunaux, l'obligation pouvant être étendue au niveau mondial[8].

Aux Etats-Unis, le 1er amendement de la Constitution[9] garantit la liberté d'expression et de parole. Cependant, les dispositions de cet amendement ne garantissent qu'une protection de la liberté d'expression contre l'action de l'Etat et ne s'appliquent pas aux acteurs privés tels que les réseaux sociaux. A cet égard, les tribunaux américains ont rejeté différentes affaires dans lesquelles les plaignants faisaient valoir que différents réseaux sociaux devaient être traités comme des acteurs étatiques soumis au premier amendement lorsque ces derniers suppriment ou limitent l'accès à leur plateforme, réduisant ainsi la liberté d'expression de leurs utilisateurs. Le simple fait de fournir un réseau ouvert à l'usage du public est insuffisant pour caractériser la fourniture d'un « forum public », de même que la diffusion de nouvelles ou l'encouragement du débat ne rentrent pas dans la catégorie des fonctions publiques, traditionnellement et exclusivement assurées par le gouvernement[10].

Par le passé, les juridictions américaines ont également rejeté l'argument selon lequel America Online, une société américaine de service internet, devait être considérée comme un acteur étatique en raison du "service quasi-public" qu'elle fournit et qui "implique une confiance du public"[11]. Ainsi, aux Etats-Unis, la possible violation des droits relatifs à la liberté d'expression n'est pas une cause d'action contre une entité privée. Au surplus, la section 230 du Communications Decency Act (« CDA »)[12] offre un régime de responsabilité limitée pour les plateformes numériques, ces dernières engageant leur responsabilité ni vis-à-vis du contenu figurant sur leur plateforme, ni à l'égard de la censure et du contrôle opérés sur leur plateforme. En effet, face à la modération du contenu, la responsabilité des plateformes numériques ne peut être engagée pour les actions prises "volontairement" et "de bonne foi" pour restreindre l'accès à du matériel "obscène, lascif, dégoûtant, excessivement violent, harcelant ou autrement répréhensible". Toutefois, ce régime de responsabilité limitée ne s'applique pas en cas d'intervention éditoriale telle que l'apposition de labels sur des tweets au motif qu'ils seraient mensongers. Ce régime ne protège pas non plus les plateformes numériques en cas d'affaires pénales, de revendication de droits d'auteur ou d'exploitation sexuelle des enfants et de crimes sexuels.

En somme, tant aux Etats Unis qu'en Europe, les réseaux sociaux ont une importante latitude leur permettant de réguler à leur guise le contenu publié sur leurs plateformes sans risquer d'être inquiétés pour entrave à la liberté d'expression. Cette latitude est d'autant plus encouragée par le régime limité de responsabilité offert aux hébergeurs en Europe et la quasi-absence totale de responsabilité des plateformes numériques aux Etats-Unis. C'est donc pour cette raison que les réseaux sociaux tels que Facebook, Twitter ou YouTube ont développé leurs propres systèmes de modération pour réguler le contenu figurant sur leurs plateformes et offrir à leurs utilisateurs un espace leur permettant de s'exprimer librement et sereinement tout en les tenant à l'égard des contenus potentiellement dangereux.

L'évolution de la législation dans l'Union européenne

Dernièrement la législation, tant au niveau des Etats membres que de l'Union Européenne, a évolué pour accroitre la responsabilité de ces plateformes.

Une loi en ce sens est entrée en vigueur en Allemagne en 2018[13]. Celle-ci contraint les réseaux sociaux à supprimer sous 24 heures tout contenu ayant notamment un caractère raciste, pédopornographique, faisant l'apologie du terrorisme ou visant à répandre de fausses informations. Les contrevenants ainsi que les personnes physiques responsables au sein de ces entreprises s'exposent à des sanctions pouvant atteindre jusqu'à 50 millions d'euros et 5 millions d'euros. D'autres pays européens se sont inspirés de cette mesure comme la France avec l'application de la loi Avia depuis le 1er janvier 2021[14].

Au niveau de l'Union Européenne, un projet législatif européen porté par le commissaire français Thierry Breton est actuellement à l'étude. Il s'agit du « Digital Services Act[15] » qui a notamment pour but de normaliser les obligations et responsabilités des réseaux sociaux sur le marché unique. L'objectif est de limiter la publication de tout contenu illégal. Ce projet consiste donc en la mise en place de mécanismes pour les Etats membres afin qu'ils puissent faire respecter leurs lois et valeurs sur internet. Le caractère illégal du contenu demeure donc défini au niveau national. Les plateformes les plus grandes sont spécifiquement ciblées, c'est-à-dire celles qui comptent plus de 45 millions d'utilisateurs actifs par mois. Une fois en vigueur, la responsabilité des entités gérant des réseaux sociaux pourra être engagée si elles ont connaissance de contenu illégal qu'elles ne parviennent pas ou refusent de supprimer. Leur responsabilité pourrait être d'autant plus facilement engagée qu'elles auront dorénavant l'obligation de coopérer et de partager avec les autorités, ainsi que de se soumettre à des audits par des cabinets indépendants. Cela permet d'assurer la liberté d'expression tout en en limitant ses abus. Quant à l‘engagement de leur responsabilité lors de la modération de contenu publié, ce nouveau cadre législatif permettra aux utilisateurs de plus facilement agir contre ces plateformes.

L'évolution de la législation aux Etats-Unis

Les réseaux sociaux jouent un rôle de plus en plus important dans la communication avec la multiplication des discours en ligne. En 2017, la Cour suprême des Etats-Unis reconnaissait notamment que « si, dans le passé, il pouvait être difficile d'identifier les lieux les plus importants (au sens spatial) pour l'échange de points de vue, aujourd'hui la réponse est claire. Il s'agit des cyberespaces - les "vastes forums démocratiques de l'Internet" en général, et des médias sociaux en particulier ».[16]

En raison de l'énorme pouvoir et de l'influence que les entreprises privées en ligne telles que Facebook, Twitter et Youtube exercent sur la communication et le contenu public, certains acteurs plaident pour l'application des principes du premier amendement à ces derniers[17]. Cette revendication repose notamment sur la théorie du marché des idées (« market place of ideas ») et de l'épanouissement individuel. La théorie du marché des idées postule que le gouvernement ne doit pas fausser le marché et s'engager dans le contrôle du contenu, laissant ainsi les gens apprécier par eux-mêmes les idées et concepts différents. L'épanouissement individuel, souvent associé à la théorie de la liberté, postule que les gens ont besoin et aspirent à la capacité de s'exprimer pour devenir des individus pleinement fonctionnels. Ainsi, dès lors que les réseaux sociaux s'engagent dans la censure, ces derniers empêchent les individus de participer au marché des idées et les privent de leur liberté de s'épanouir individuellement, tout comme pourrait le faire une entité gouvernementale.

A cet égard, certains Etats américains ont commencé à reconnaître l'élargissement de la portée du premier amendement aux acteurs privés. La Cour suprême du New Jersey a ainsi appliqué la disposition relative à la liberté d'expression de sa Constitution d'État pour permettre aux particuliers de contester les dispositions restrictives des règlements des associations de propriétaires privés estimant que "Dans le New Jersey, le droit positif d'un individu de s'exprimer librement est protégé non seulement contre les restrictions du gouvernement, mais aussi contre les comportements déraisonnablement restrictifs et oppressifs des entités privées dans certaines situations"[18].

Par ailleurs, l'immunité accordée au réseaux sociaux par la section 230 du CDA est également remise en question par les politiques aux Etats-Unis. En effet, certains républicains considèrent que les réseaux sociaux ne devraient plus bénéficier d'une telle protection car la censure qu'ils effectuent vis-à-vis des conservateurs est en contradiction avec l'esprit de loi, Internet devant être « un forum pour une véritable diversité de discours politiques ». D'autre part, les démocrates remettent en cause le manque de sérieux des réseaux sociaux quand il s'agit de supprimer des contenus problématiques ou de lutter contre le harcèlement, ces derniers étant protégés par l'article 230 du CDA. Ron Wyden, sénateur démocrate, considère notamment que le CDA, initialement pensé pour fournir « une épée et un bouclier » afin de protéger la responsabilité des réseaux sociaux face au contenu des utilisateurs et d'écarter tout contenu néfaste sur ces réseaux, est mal utilisé. En effet, l'épée n'est que trop peu utilisée face au bouclier. Nancy Pelosi, présidente de la chambre des représentants, qualifie ainsi la section 230 de « cadeau » offert aux entreprises technologiques « qui pourrait être supprimé »[19].

Ainsi, l'immunité des réseaux sociaux est à la fois remise en question par les républicains qui prônent une réduction de la censure sur les réseaux sociaux au titre de la liberté d'expression, et par les démocrates qui réclament une responsabilité accrue des réseaux sociaux face au contenu publié afin de les contraindre à davantage surveiller les contenus disponibles sur leurs plateformes.

A cet égard, le président Trump avait publié un décret en Mai 2020 sur la prévention de la censure en ligne[20] mettant en avant la liberté d'expression et cherchant à faire des réseaux sociaux des acteurs neutres. Toutefois, ce décret cherchant à réduire le pouvoir des grandes plateformes de médias sociaux et à réinterpréter le CDA, a été critiqué. En effet, il pourrait être inconstitutionnel à deux titres. D'une part, car il empiète sur les droits conférés aux entreprises privées en vertu du premier amendement. D'autre part, car il tente de contourner les deux autres branches du gouvernement. Suite à cela, le sénateur Josh Hawley, a proposé en Juin 2020 un projet de loi visant à éliminer l'immunité prévue par la section 230, à moins que les entreprises technologiques ne soumettent à un audit externe le fait que leurs pratiques de modération de contenu sont politiquement neutres.

Le nouveau président américain Joe Biden définissait également comme l'un de ses objectifs majeurs de campagne la révocation de la section 230 du CDA pour se débarrasser de la disposition qui protège depuis longtemps les réseaux sociaux de la responsabilité vis-à-vis des publications des utilisateurs[21].

Ainsi, les différentes visions de l'Europe et des Etats-Unis face à la liberté d'expression sur les réseaux sociaux et la modération du contenu effectuée par les hébergeurs, semblent claires. En effet, tandis que les dernières régulations et projets européens tendent vers un accroissement de la responsabilité des réseaux sociaux vis-à-vis du contenu publié et du contrôle effectué, les Etats-Unis semblaient prôner le laisser-faire et l'absence de contrôle. Toutefois, la nouvelle présidence démocrate pourrait changer la donne et induire une fin de l'immunité des réseaux sociaux, requérant alors davantage de contrôle des contenus. Cependant, la contrepartie pourrait être la réduction de la liberté d'expression des utilisateurs. En effet, suite à la signature du décret par Trump en Mai 2020, Liz Bourgeois, porte-parole de Facebook, exprimait sa crainte énonçant notamment « qu'en exposant les entreprises à une responsabilité potentielle pour tout ce que disent des milliards de personnes dans le monde, cela pénaliserait les entreprises qui choisissent d'autoriser des discours controversés et encouragerait les plateformes à censurer tout ce qui pourrait offenser quiconque[22] ».

Chronique « Droit, Juriste et Pratique du Droit Augmentés »

Cette chronique a pour objectif, de traiter de questions d'actualité relatives à cette transformation. Dans un contexte où le digital, le big data et le data analytics, le machine learning et l'intelligence artificielle transforment en profondeur et durablement la pratique du droit, créant des « juristes augmentés » mais appelant aussi un « Droit augmenté » au regard des enjeux et des nouveaux business models portés par le digital.

Avec son Augmented Law Institute, l'EDHEC Business School dispose d'un atout majeur pour positionner les savoirs, les compétences et la fonction du juriste au centre des transformations de l'entreprise et de la société. Il se définit autour de 3 axes de développement stratégiques : son offre de formations hybrides, sa recherche utile à l'industrie du droit, sa plateforme de Legal Talent Management. https://www.edhec.edu/fr/ledhec-augmented-law-institute

[1] “Facebook Reports Second Quarter 2020 Results”, Juillet 2020
[2] Publication Facebook de Mark Zuckerberg, 20 mai 2020
[3] Témoignage de Jack Dorsey dans le cadre d'un comité spécial du Sénat américain sur le renseignement, 5 septembre 2018
[4] Standard de la Communauté, Facebook
[5] Convention Européenne des Droits de l'Homme
[6] Directive sur le commerce électronique, 2000/31/CE, 8 Juin 2000
[7] Loi n°2004-575 du 21 juin 2004 pour la confiance dans l'économie numérique
[8] CJUE, 3 Octobre 2019, Facebook Ireland Limited c/ Eva Glawischnig-Piesczek, aff. C-18/18
[9] Premier Amendement, Constitution américaine
[10] Nyabwa v. Facebook, Civil action NO. 2:17-CV-24, 01-26-2018
[11] Howard v. Am. Online, Inc., 208 F.3d 741, 754 (3d Cir. 2000)
[12] Section 230, Communications Decency Act
[13] Le Monde, “L'Allemagne vote une loi obligeant les réseaux sociaux à supprimer les contenus haineux », Juillet 2017
[14] Numerama, “La très contestée Loi Avia contre la cyber haine devient réalité », Mai 2020
[15] Digital Services Act, “ensuring a safe and accountable online environment” et Digital Services Act: Questions and Answers, Décembre 2020
[16] Packingham v. North Carolina, 137 S.Ct. 1730, 1735 (2017)
[17] David L Hudson Jr, In the Age of Social Media, Expand the Reach of the First Amendment, Human Rights Magazine, American Bar Association
[18] Mazdabrook Commons Homeowners Association v. Khan, 210 N.J. 482, 493 (2012)
[19] Interview de Nancy Pelosi en podcast par Kara Swisher
[20] Décret américain sur la prévention de la censure en ligne, 28 Mai 2020
[21] CNBC, “Biden wants to get rid of law that shields companies like Facebook from liability for what their users post”, Janvier 2020
[22] Déclaration de Facebook par Liz Bourgeois sur Twitter suite au Décret visant à annuler l'immunité des réseaux sociaux, 29 mai 2020




Ses derniers articles

Abonnez-vous à l'offre Papier + Numérique

Affiches Parisiennes Journal d'information juridique et d'annonces légales

  • ›   Pour plus de contenu, papier + web
  • ›   l’accès aux annonces légales,
  • ›   l’accès aux ventes aux enchères.
Je m'abonne

À lire également


Réagir à cet article

Message déjà envoyé Adresse e-mail non valide


Fermer
En poursuivant votre navigation sur ce site, vous acceptez l'utilisation de cookies et de technologies similaires par notre société ainsi que par des tiers, afin de réaliser des statistiques d'audiences et de vous proposer des services éditoriaux et la possibilité de partager des contenus sur des réseaux sociaux. En savoir plus / paramétrer