AccueilDroitActualité du droitDeepfakes, ou la subjectivité du réel

Deepfakes, ou la subjectivité du réel

La manipulation d'image n'a rien de nouveau. Mais avec les progrès du deep learning, elle est devenue accessible, par sa simplicité d'usage, à Monsieur Toulemonde. Avec la rapidité à laquelle une information se propage sur Internet, la question de l'authenticité des propos circulant sur le net et relayés par des médias se pose.
Deepfakes, ou la subjectivité du réel
@ DR

DroitActualité du droit Publié le ,

De la propagande du temps de la Première guerre mondiale à celle de Staline durant la Grande Terreur, les images ont souvent permis aux politiques de faire et défaire le monde selon leurs intérêts. Mais la manipulation d'images n'a pas toujours été que politique. Hollywood et ses réalisateurs l'utilisent notamment pour parfaire leurs scénarios à l'écran (en intégrant Forest Gump dans plusieurs photographies historiques par exemple). Ce qui change ? Avant, il fallait faire des études de graphisme et savoir manipuler des logiciels techniques pour modifier des photos ou vidéos. Aujourd'hui, il suffit d'avoir un ordinateur ou un smartphone, et assez de données sur une même personne pour pouvoir créer un « deepfake » (ou hyper-trucage en français).

Le mot « deepfake » est une contraction des mots « deep learning » et « fake ». Sont appelés « deepfakes » des vidéos, images, audios ou mêmes textes créés à partir d'une technique de synthèse d'image (ou de textes, audios) basée sur le « deep learning », une méthode d'apprentissage automatique reproduisant le processus d'apprentissage cognitif humain par une imbrication artificielle de couches de programmes à l'image des réseaux de neurones cérébraux. Pour exemple, afin de réaliser une vidéo deepfake, il est nécessaire de faire visionner au logiciel utilisant la méthode deep learning une séquence vidéo véritable de la personne objet de la falsification, image par image, puis lui fournir un millier d'images de la personne, ainsi que des enregistrements audios. A partir de ces données, le programme est capable de produire une vidéo de la personne, en reproduisant ses mouvements et sa voix à l'identique (ou presque).

Si l'usage de deepfakes peut-être humoristique (l'acteur Nicolas Cage en fait les frais), il peut également porter atteinte à la dignité d'une personne (exemple de deepfakes pornographiques), présenter un risque pour les entreprises (cas de fraude au président dans une entreprise allemande, voir ci-après), faciliter l'usurpation d'identité (outils de reconnaissance faciale) ou encore, et c'est le plus craint en période électorale, véhiculer des propos diffamatoires concernant des personnalités politiques.

Deepfakes et vie privée

En septembre 2017, les premiers deepfakes apparaissent sur le réseau social Reddit et des programmes simples d'utilisation (Face2face, FakeApp) sont diffusés, permettant de remplacer un visage par un autre dans des vidéos ou des photos. Sans surprise, les programmes deepfakes sont rapidement utilisés pour créer des films pornographiques, en remplaçant les visages des acteurs et actrices originaux par ceux de personnages célèbres.

Les deepfakes pornographiques représentent actuellement 96% des deepfakes publiés sur le net selon Deeptrace[1], entreprise spécialisée dans la vérification d'authenticité de contenus médias. S'il existe une législation concernant le « revenge porn » en France (art. 226-1 et suivant du Code pénal), ce n'est pour l'instant pas le cas du deepfake pornographique. Un amendement serait-il à prévoir, afin de protéger les victimes de deepfakes pornographiques ?

Plus généralement, s'il n'existe pas en France de loi se rapportant au deepfake et à la vie privée, l'article 226-8 du Code pénal énonce que « Est puni d'un an d'emprisonnement et de 15 000 euros d'amende le fait de publier, par quelque voie que ce soit, le montage réalisé avec les paroles ou l'image d'une personne sans son consentement, s'il n'apparaît pas à l'évidence qu'il s'agit d'un montage ou s'il n'en est pas expressément fait mention ».

Aussi, les technologies évoluant, la reconnaissance faciale est de plus en plus utilisée pour vérifier l'identité d'un utilisateur. Que ce soit pour déverrouiller un smartphone ou un appartement, la reconnaissance faciale facilite désormais le processus.

Deepfake et business

Cependant, si l'on pense tout d'abord aux atteintes à la vie privée, le deepfake présente également un risque pour les entreprises.

Imaginez, à la veille d'une IPO (Introduction en Bourse) d'un grand groupe, une vidéo représentant le CEO dans une situation compromettante ou en train de donner des informations compromettantes sur la société. L'entrée en bourse en serait certainement impactée. Les groupes vont devoir redoubler de vigilance quant à leur image et aux propos qui peuvent circuler à leur encontre sur internet. Dans une autre mesure, les deepfakes sont également utilisés dans des cas de fraude au président. Cette escroquerie consiste en l'usurpation de l'identité d'un dirigeant à des fins de détournement de fonds. Les escrocs se faisant passer pour le dirigeant demandent à un employé de verser dans l'urgence et en toute discrétion une somme d'argent conséquente sur un compte bancaire, souvent situé à l'étranger. Si les entreprises sont de plus en plus vigilantes, notons tout de même que depuis 2010, les sociétés françaises ont subi des préjudices avoisinant les 485 millions d'euros[2]. Cette fraude au président devient facilitée par le deepfake audio, qui permet de reproduire la voix du dirigeant de manière quasi-exacte. Les systèmes de détection de fraude au président ne sont à ce jour pas capables de reconnaître les deepfakes audios.

Deepfake et vie politique

Le deepfake est la crème de la crème de la fake news : si l'on peut douter de propos relatés par un journaliste sur un site internet quelconque, comment douter d'une vidéo représentant une personnalité publique énonçant un texte en apparence cohérent avec le personnage ? Et lorsque que l'on connaît la vitesse à laquelle une information se propage sur Internet, on comprend aisément pourquoi cela peut représenter un danger pour la société. Sur le réseau social Twitter, une « fake news » aurait 70% de chance de plus qu'une information exacte d'être propagée (étude du MIT[3]). Imaginez, à la veille des élections présidentielles de 2022, une fausse vidéo représentant Emmanuel Macron dans une situation compromettante. Les conséquences se feraient ressentir dans les bulletins de vote.

C'est pour cette raison que de nombreux gouvernements ont tenté de réguler l'usage de deepfakes en période électorale, donnant lieu en France à la loi n° 2018-1202 du 22 décembre 2018 relative à la lutte contre la manipulation de l'information. Cette loi communément appelée « anti fake news » aspire à garantir une information juste et loyale aux citoyens pendant les élections, en fournissant des premières armes pour combattre la manipulation d'information : référé spécifique pour faire stopper en urgence la diffusion de fausses informations en période électorale ; plus grande transparence des sites internet ; pouvoirs de régulation accrus pour le Conseil Supérieur de l'Audiovisuel (en cas de diffusion d'informations fausses par la presse étrangère).

Bien que cette loi ne fasse pas référence explicitement au deepfake, le Secrétariat d'Etat au numérique observe qu'elle « s'applique dans l'ensemble de ses dispositions à la lutte contre toutes les fausses informations, y compris celles se fondant sur des hypertrucages »[4]. Le gouvernement laisse également entendre que c'est principalement aux entreprises du net (Facebook, Twitter) de réguler les informations circulant sur leurs réseaux (corroborant ainsi l'article 11 de la loi sur la manipulation de l'information). Ceux-ci ont entrepris la mise en place de systèmes permettant de différencier un deepfake d'une véritable vidéo/photo.

Deepfake et vérité

L'Homme a tendance à croire ce qu'il voit. Comment discerner le faux du vrai ? Actuellement, le niveau de précision est tel que le cerveau humain ne peut pas faire la distinction, et bientôt il sera tel que les IA elles-mêmes auront du mal à reconnaître l'authenticité d'un propos, d'une image, ou d'une vidéo.

Le risque que cela représente ne s'arrête pas aux sphères économiques et politiques. Le droit va devoir, lui aussi, s'adapter aux capacités offertes par l'IA : si aujourd'hui il est déjà difficile de discerner le faux du vrai, des scientifiques assurent que cela sera bientôt impossible, et il est possible qu'il y ait un laps de temps entre le moment où des deepfakes deviendront indiscernables par les IA actuelles et le moment où des IA seront capables de détecter les « fakes ». Qu'est-ce que cela insinue ? Que les vidéos utilisées comme preuves ou indices pourraient ne plus être acceptées, du fait qu'il ne serait pas possible de vérifier leur véracité et authenticité ? Alors sur quels éléments la justice pourra-t-elle se reposer ?

Enfin, les deepfakes mettent en exergue un travers de la société actuelle : celui de ne vérifier que trop peu les sources de nos informations. Est-ce que, comme le philosophe Manuel Cervera-Marzal le dit, on peut espérer que « la démocratisation du trucage d'images viendra sans doute avec un esprit critique plus affûté [5]» ? A méditer.

[1] Rapport Deeptrace de 2019 “The state of deepfake 2019” (https://deeptracelabs.com/mapping-the-deepfake-landscape/)
[2] https://www.police-nationale.interieur.gouv.fr/Actualites/Dossiers/Cybercrime/L-arnaque-au-president-ou-escroquerie-aux-faux-ordres-de-virement-FOVI
[3] Etude publiée sur Sciences le 09/03/2018, intitulée « The Science of fake news » (https://science.sciencemag.org/content/359/6380/1094)
[4] Réponse du Ministère du Numérique à la question n°16587, publiée au JO le 15/10/2019 (http://questions.assemblee-nationale.fr/q15/15-16587QE.htm)
[5] Dans son ouvrage « Post-vérité, pourquoi il faut s'en réjouir » (Le Bord de l'eau, 2018)

Chronique « Droit, Juriste et Pratique du Droit Augmentés »

Cette chronique a pour objectif, de traiter de questions d'actualité relatives à cette transformation. Dans un contexte où le digital, le big data et le data analytics, le machine learning et l'intelligence artificielle transforment en profondeur et durablement la pratique du droit, créant des « juristes augmentés » mais appelant aussi un « Droit augmenté » au regard des enjeux et des nouveaux business models portés par le digital.
L'EDHEC Business School dispose de deux atouts pour contribuer aux réflexions sur ces sujets. D'une part, son centre de recherche LegalEdhec, dont les travaux – reconnus – à l'intersection entre le droit et la stratégie, et portant sur le management des risques juridiques et la performance juridique, l'amènent aujourd'hui à lancer son nouveau projet A3L (Advanced Law, Lawyers and Lawyering). D'autre part, ses étudiants, et en particulier ceux de sa Filière Business Law and Management (en partenariat avec la Faculté de droit de l'Université Catholique de Lille) et de son LLM Law & Tax Management, dont la formation et les objectifs professionnels les placent au cœur de ces enjeux du digital.

Partager :
Abonnez-vous
  • Abonnement intégral papier + numérique

  • Nos suppléments et numéros spéciaux

  • Accès illimité à nos services

S'abonner
Journal du 30 septembre 2022

Journal du30 septembre 2022

Journal du 23 septembre 2022

Journal du23 septembre 2022

Journal du 16 septembre 2022

Journal du16 septembre 2022

Journal du 09 septembre 2022

Journal du09 septembre 2022

S'abonner
Envoyer à un ami
Connexion
Mot de passe oublié ?