En France, le Conseil français du culte musulman a déposé plainte contre Facebook France et YouTube France pour diffusion de message à caractère violent incitant au terrorisme ou de nature à porter gravement atteinte à la dignité humaine et susceptible d'être vu ou perçu par un mineur (C. pén., art. 227-24).
La responsabilité pénale des réseaux sociaux est un enjeu majeur de la modération. Ce risque pénal s'inscrit dans le régime dérogatoire des hébergeurs de contenu prévu par la loi pour la confiance dans l'économie numérique du 21 juin 2004 (LCEN) (I).
La multiplication exponentielle des contenus sur les réseaux sociaux et les nombreux scandales portant sur la publication de contenus illicites interrogent sur l'avenir de la modération, tant sur le plan de la réglementation des réseaux sociaux que les institutions politiques appellent de leurs vœux (II), que sur celui des moyens techniques mis en place pour une modération efficace (III).
Le régime dérogatoire des hébergeurs de contenu
Les réseaux sociaux hébergent du contenu publié par les utilisateurs. A ce titre, ils contrôlent ce contenu pour s'assurer que le contenu n'est pas illicite. Or, les hébergeurs bénéficient d'un régime de responsabilité pénale dérogatoire au régime applicable à l'éditeur de contenu au sens de l'article 6-III de la LCEN. L'article 6-I-2 définit les hébergeurs comme « les personnes physiques ou morales qui assurent, même à titre gratuit, pour mise à disposition du public par des services de communication au public en ligne, le stockage de signaux, d'écrits, d'images, de sons ou de messages de toute nature fournis par des destinataires de ces services ».
La Cour de cassation a précisé la définition de l'hébergeur, qui, à l'inverse de l'éditeur, « ne joue pas un rôle actif de connaissance ou de contrôle des données stockées (arrêt Fuzz, Cass. civ. 1ère, 17 fév. 2011, n°09-13202). Dans l'arrêt Dailymotion (Cass. civ. 1ère, 17 fév. 2011, n°09-67896), la Cour applique la même interprétation en considérant que l'hébergeur, même lorsqu'il exploite le site par la commercialisation d'espace publicitaire, n'est qu'un intermédiaire technique qui se borne à la « mise à disposition d'outils (…) justifié(e) par la seule nécessité (…) de rationaliser l'organisation du service et d'en faciliter l'accès à l'utilisateur sans pour autant commander un quelconque choix quant au contenu qu'il entend mettre en ligne ».
Face à une telle définition, YouTube peut bénéficier de cette qualification comme l'a indiqué la Cour d'appel de Paris (CA Paris, 21 juin 2013) et c'est sans doute aussi le cas des réseaux sociaux. C'est l'interprétation retenue par le Tribunal de grande instance de Paris dans une ordonnance de référé du 13 avril 2010 dans laquelle Facebook est qualifié d'hébergeur.
En revanche, la jurisprudence considère que eBay, en fournissant notamment aux vendeurs des informations pour leur permettre d'optimiser leurs ventes et en les assistant dans la définition des objets mis en vente, a joué un rôle actif de nature à lui conférer la connaissance ou le contrôle des données stockées (Cass. com. 3 mai 2012, n°11-10508).
Une fois la qualification d'hébergeur retenue, sa responsabilité pénale quant au contenu hébergé ne peut donc être engagée qu'à la double condition que le contenu soit illicite et que l'hébergeur ait eu une connaissance effective du caractère illicite du contenu ou que, dès qu'il en a eu connaissance, il n'ait pas agi promptement pour retirer le contenu (art. 6-I-3 de la LCEN). En outre, par une décision du 10 juin 2004, le Conseil constitutionnel a précisé que la connaissance du caractère illicite ne sera acquise que lorsque le contenu aura été jugé illicite par une juridiction compétente ou lorsqu'il est manifestement illicite.
Les hébergeurs ne sont, du reste, pas soumis à une obligation générale de surveillance ou de recherche de contenu illicite mais ils doivent, d'une part, mettre en place, pour certaines infractions, un système de signalement à l'usage des utilisateurs et, d'autre part, informer promptement les autorités publiques des activités illicites et rendre publics les moyens utilisés pour lutter contre ces infractions (art. 6-I-7 de la LCEN).
En somme, les réseaux sociaux bénéficieraient de la qualification d'hébergeur et, ainsi, de l'« irresponsabilité pénale » de principe prévue par la LCEN. Par ailleurs, même lorsque les plateformes ont eu connaissance du contenu manifestement illicite, le flou sur la détermination du délai de réaction accordé aux plateformes reste en suspens.
En effet, dans l'arrêt AMEN (Cass. civ. 1ère, 17 février 2011, n°09-15857), la Cour de cassation précise que l'hébergeur doit bénéficier d'un délai raisonnable d'analyse du contenu qui lui est signalé pour vérifier son caractère manifestement illicite. Dans cette espèce, le délai d'une journée a été jugé trop court.
Les réseaux sociaux semblent donc bénéficier – pour l'instant – d'un régime favorable. Cependant, le risque réputationnel est, lui, bien réel !
Les réformes envisagées
Dans un rapport d'information fait au nom de la commission des lois du 9 février 2011, MM. Laurent Béteille et Richard Yung décrivent un régime de responsabilité « relativement clément » et dénoncent le flou juridique associé à la notion d'hébergeur dans la mesure où, depuis la publication de la LCEN, « certains hébergeurs abandonnent leur rôle de stockage passif pour adopter une démarche plus active ». Ils recommandaient alors la création d'un troisième statut, entre celui d'éditeur et d'hébergeur pour lui appliquer un régime de responsabilité intermédiaire.
En 2018, la Commission européenne annonçait un projet de règlement qui imposerait aux réseaux sociaux un délai d'une heure pour retirer, sur ordre d'une autorité judiciaire, tout contenu qui inciterait au terrorisme ou en ferait l'apologie, en assortissant cette obligation d'une sanction pouvant s'élever jusqu'à 4 % du chiffre d'affaires annuel.
En France, dans le cadre d'un programme de lutte contre le cyberharcèlement, le Gouvernement souhaite créer un nouveau statut pour les plus grandes plateformes en ligne en l'assortissant d'un régime plus strict que celui des hébergeurs : les réseaux sociaux auraient vingt-quatre heures pour retirer les contenus « manifestement racistes ou antisémites ».
Face à cette volonté de réformer le droit applicable aux réseaux sociaux, trois remarques peuvent être soulevées : d'abord, on peut s'interroger sur le choix des contenus visés par les auteurs et l'ASIC s'est inquiétée du fait qu'une obligation de surveillance qui ne porterait que sur des contenus racistes ou discriminatoires risqueraient d'encourager les plateformes à se concentrer sur la modération de ces contenus « au détriment de la lutte contre le terrorisme ou la pédopornographie ».
Ensuite, ces textes pourraient être remis en cause pour atteinte à la liberté d'expression qui servait déjà de fondement au recours contre la LCEN devant le Conseil constitutionnel en 2004.
Enfin, on s'interroge sur la faisabilité humaine et technique d'assurer une surveillance effective de la pléthore de contenus stockés et partagés sur les réseaux sociaux
Le machine learning permettrait-il une modération plus efficace ?
Pour réagir à ces démarches visant à renforcer la responsabilité des hébergeurs, pourrait-on améliorer l'efficacité de la modération grâce à de nouveaux outils ? Le Machine learning est une branche de l'intelligence artificielle (IA) déjà utilisée dans de nombreux domaines.
Si la modération de contenus reste principalement opérée par des humains (à 100 % pour Facebook, à l'exception de la lutte contre la pédophilie, selon L'Express), le machine learning pourrait révolutionner la modération. à titre d'exemple, le site Tutti.ch utilise Utopia Al Moderator, un outil de modération entièrement automatisé basé sur du machine learning.
Pour comprendre comment ces outils parviennent à modérer les contenus, nous avons interrogé Kévin Joannon, consultant en IT. Il nous a expliqué que la modération de contenus était automatisée en plusieurs étapes. La première phase, dite d'apprentissage, consiste à montrer à l'algorithme des exemples de contenus à modérer et déjà traités par l'homme de façon à lui apprendre à distinguer les contenus acceptables des contenus répréhensibles.
Il faut ensuite évaluer la qualité des résultats grâce à du contenu nouveau présenté à l'algorithme. Si les résultats sont concluants, l'algorithme sera capable de prendre une décision face à un nouveau contenu.
Cependant, la modération par machine learning fait face à de nombreuses difficultés que Kévin nous a soulignées. D'abord, le coût d'un tel système peut s'avérer très important du fait de la puissance de calcul nécessaire pour analyser le volume de données. Aussi, les entreprises mettent en rapport le coût de la modération et le montant de l'amende potentielle.
A titre d'exemple, le Content ID de YouTube (un algorithme qui détecte les contenus protégés par le droit d'auteur) compte tenu du coût du traitement, censure la vidéo litigieuse dès qu'il détecte la moindre apparition d'une œuvre protégée par un droit d'auteur, quel qu'en soit le contexte, puis accorde l'intégralité des revenus publicitaires issus de la vidéo à l'ayant-droit.
Par ailleurs, il est difficile d'obtenir des exemples en quantité et qualité suffisantes pour entretenir une IA. Par exemple, l'image d'une personne asiatique nue couverte d'un voile transparent est parvenue à tromper les algorithmes qui n'avaient probablement pas analysé de contenus semblables auparavant.
Enfin, le contexte doit être pris en compte. L'effet sera différent selon l'auteur du contenu – si l'auteur est un artiste ou un journaliste, il devrait sans doute bénéficier d'une protection accrue de sa liberté d'expression et l'on pense notamment à l'affaire dans laquelle le compte d'un utilisateur de Facebook a été suspendu à cause de la publication d'une photo du tableau L'Origine du monde de Gustave Courbet – ou le pays dans lequel la publication est effectuée. Techniquement, cela reviendrait à ré-entrainer l'IA en modifiant le jeu de données pour l'adapter au contexte en question, ce qui serait long et coûteux.
Comme le souligne Kévin, si des bases de données sont constituées à partir des exemples de contenus traités par les modérateurs humains, avec le temps, celles-ci pourront alimenter l'IA qui pourra alors effectuer la modération d'elle-même. Afin d'accélérer – et d'affiner – ce processus d'apprentissage, il est possible pour les plateformes de dédier des ressources supplémentaires à la création d'exemples complexes fictifs que pourraient rencontrer les modérateurs afin d'entraîner les algorithmes.
En dernière analyse, si les réseaux sociaux bénéficient aujourd'hui du régime relativement clément des hébergeurs prévu dans la LCEN, des évolutions législatives pourraient changer cette situation. Ceci implique de mettre en place, dès à présent, de nouveaux outils pour une modération plus efficace, notamment au moyen du machine learning.
Chronique « Droit, Juriste et Pratique du Droit Augmentés »
Cette chronique a pour objectif, de traiter de questions d'actualité relatives à cette transformation. Dans un contexte où le digital, le big data et le data analytics, le machine learning et l'intelligence artificielle transforment en profondeur et durablement la pratique du droit, créant des « juristes augmentés » mais appelant aussi un « Droit augmenté » au regard des enjeux et des nouveaux business models portés par le digital.
L'EDHEC Business School dispose de deux atouts pour contribuer aux réflexions sur ces sujets. D'une part, son centre de recherche LegalEdhec, dont les travaux – reconnus – à l'intersection entre le droit et la stratégie, et portant sur le management des risques juridiques et la performance juridique, l'amènent aujourd'hui à lancer son nouveau projet A3L (Advanced Law, Lawyers and Lawyering). D'autre part, ses étudiants, et en particulier ceux de sa Filière Business Law and Management (en partenariat avec la Faculté de droit de l'Université Catholique de Lille) et de son LLM Law & Tax Management, dont la formation et les objectifs professionnels les placent au cœur de ces enjeux du digital.