AccueilDroitActualité du droitL'intelligence artificielle à l'épreuve des libertés et droits fondamentaux

L'intelligence artificielle à l'épreuve des libertés et droits fondamentaux

« Compte tenu de l'incidence potentiellement considérable de l'IA sur notre société et de la nécessité d'instaurer la confiance, il est capital que l'IA européenne soit fondée sur nos valeurs et nos droits fondamentaux », indique la Commission européenne dans son Livre blanc sur l'intelligence artificielle publié le 19 février 2020 .
L'intelligence artificielle à l'épreuve des libertés et droits fondamentaux
© DR

DroitActualité du droit Publié le ,

En effet, la place de l'intelligence artificielle dans nos vies est de plus en plus importante. Cette notion regroupe l'ensemble des théories et des techniques mises en œuvre en vue de réaliser des machines capables de simuler l'intelligence humaine. Par exemple, lorsqu'une boîte de messagerie électronique trie les courriers indésirables des courriers désirables, elle utilise l'intelligence artificielle. De même, une recherche sur internet fait appel à l'intelligence artificielle pour répertorier et déterminer l'ordre de présentation des différents sites internet selon les termes de la recherche. L'intelligence artificielle a ainsi été créée pour être au service de l'humain en lui simplifiant de nombreuses tâches.

Pourtant, son développement peut porter atteinte à plusieurs libertés et droits fondamentaux. En France, le préambule de la Constitution garantit les libertés et droits fondamentaux, en s'appuyant sur la Déclaration des droits de l'homme et du citoyen de 1789, sur le préambule de la Constitution de 1946, et sur la Charte de l'environnement, adossée à la Constitution en 2005. À l'échelle de l'Union européenne, les libertés et droits fondamentaux sont principalement protégés par la Convention européenne des droits de l'homme de 1950. Au niveau international, la Déclaration universelle des droits de l'homme et du citoyen de 1948 de l'Organisation des Nations Unies énonce les principaux droits fondamentaux et libertés. Chaque être humain peut en principe se prévaloir de ceux-ci. Il est donc nécessaire de trouver un équilibre entre le développement et l'utilisation de l'intelligence artificielle au service de l'humain, et la protection des libertés et droits fondamentaux.

L'utilisation grandissante de l'intelligence artificielle fragilise les libertés et droits fondamentaux

De nombreuses études ont démontré que l'intelligence artificielle porte atteinte aux libertés et droits fondamentaux[1], comme par exemple le droit au respect de la vie privée et à la protection des données personnelles[2], la liberté de circulation, le droit au travail, le droit à la santé, ou encore le droit à l'éducation. Seules les atteintes au principe de non-discrimination et à la liberté d'expression seront développées dans cet article.

D'une part, le principe de non-discrimination est inscrit à l'article 7 de la Déclaration universelle des droits de l'homme et à l'article 14 de la Convention européenne des droits de l'homme. Alors que le recours à l'intelligence artificielle est souvent expliqué par la neutralité de cette technologie, cette neutralité ne serait en réalité qu'une apparence. A priori, ce recours permettrait d'échapper aux préjugés et à la discrimination inconsciente effectuée par tout être humain car les décisions ne sont plus données par un être humain doté d'une opinion, mais par une machine. Toutefois, il ne faut pas oublier que cette machine a été imaginée et façonnée par un être humain. Au cours de la création d'une intelligence artificielle, l'être humain conçoit forcément cette technologie avec ses préjugés, qu'ils soient conscients ou inconscients. Ainsi, dès sa création, l'intelligence artificielle hérite d'un biais de la part de son créateur.

Selon une récente étude de l'agence américaine National Institute of Standards and Technology[3], un système de reconnaissance faciale se trompe entre 10 et 100 fois plus lors de l'identification de personnes d'origine afro-américaine ou d'origine asiatique, que lors de l'identification de personnes d'origine caucasienne. Pour cette étude, les chercheurs se sont appuyés sur plus de 18 millions de photos au total, représentant environ 8,5 millions de personnes, et utilisées par 189 algorithmes de reconnaissance faciale. Une erreur commise par un logiciel de reconnaissance faciale peut être très préjudiciable notamment si une telle technique est utilisée par les forces de l'ordre : cela pourrait entraîner de fausses accusations ou de fausses arrestations. La legal tech américaine Palantir a par exemple développé et testé des outils de police prédictive dès 2012 dans des villes comme Chicago, Los Angeles, la Nouvelle-Orléans et New York[4]. La police prédictive est le fait de prévoir qu'une infraction sera commise à un endroit précis, ou de prévoir si un suspect a des chances de commettre une infraction. L'emploi de l'intelligence artificielle comme un outil de police prédictive peut être considéré comme un bienfait pour la société dans son ensemble, car il permettrait une prévention et une répression des infractions plus efficace, mais cela présente un risque réel pour les libertés individuelles. Ces technologies sont également testées en France, mais les outils de police prédictive n'établissent pas de « fiches suspects » et se focalisent sur les endroits où il est probable qu'une infraction soit commise[5].

Dans le domaine de la justice, l'intelligence artificielle permet d'accélérer le traitement d'énormes quantités de données et de déterminer la durée des peines d'emprisonnement pour permettre des approches plus homogènes d'affaires comparables. Néanmoins, l'utilisation par les juges américains de l'algorithme d'intelligence artificielle COMPAS, servant à déterminer la probabilité de récidive d'un individu, a soulevé une controverse aux États-Unis. En 2016, une enquête de l'ONG ProPublica[6] a conclu que les données utilisées par l'algorithme COMPAS étaient biaisées, et donc que l'algorithme l'était également, au détriment d'individus issus de minorités. Si ces atteintes au principe de non-discrimination continuent, cela risque de réduire la confiance dans l'application de la loi suite à l'utilisation de l'intelligence artificielle, et donc de compromettre l'État de droit.

L'utilisation de l'intelligence artificielle dans un logiciel de recrutement d'Amazon a abouti à des résultats similaires[7]. En 2014, le géant du e-commerce a développé un programme informatique afin d'automatiser le processus de recrutement de ses salariés. Cependant, Amazon a dû y renoncer 3 ans plus tard car ce logiciel discriminait les femmes. L'objectif du logiciel était d'attribuer une note d'une à cinq étoiles en fonction du profil des candidats. Pour ce faire, l'intelligence artificielle s'appuyait sur les profils des candidats d'Amazon sur une période de 10 ans. À cause de la prédominance masculine dans le domaine des nouvelles technologies au cours de cette période, l'intelligence artificielle a déduit que les profils masculins étaient à favoriser, au détriment des profils mentionnant le mot « femme » ou « féminin ».

L'intelligence artificielle accentue donc la discrimination en l'ancrant dans la technologie. En réaction à cela, les ONG Amnesty International et AccessNow ont rédigé la Déclaration de Toronto[8]. Ce texte, publié le 16 mai 2018, a pour but de protéger le droit à l'égalité et à la non-discrimination dans les systèmes reposant sur l'apprentissage automatique.

D'autre part, la liberté d'expression est inscrite à l'article 19 de la Déclaration universelle des droits de l'homme, et également à l'article 10 de la Convention européenne des droits de l'homme. Toutefois, l'intelligence artificielle est régulièrement utilisée, notamment par les réseaux sociaux, pour contrôler le contenu diffusé par leurs utilisateurs. Cette technologie va en effet identifier le contenu qui n'est pas conforme aux conditions d'utilisation de ces plateformes.

Les gouvernements qui exercent des pressions sur les entreprises pour qu'elles s'attaquent au problème des contenus terroristes, des discours incitant à la haine et des fake news ont conduit à une utilisation accrue des systèmes automatisés. La loi allemande - récemment adoptée - NetzDG exige notamment que les réseaux sociaux suppriment de nombreux contenus entre 24 heures et 7 jours suivant leur signalement[9]. Cependant, puisque l'intelligence artificielle est imparfaite, et que les réseaux sociaux sont contraints de supprimer rapidement le contenu indésirable, une partie du contenu peut être supprimé par erreur. Par exemple, YouTube a supprimé plus de 100.000 vidéos documentant les atrocités commises en Syrie après qu'elles aient été signalées pour « incitation à la haine ». Pourtant, ces vidéos constituaient souvent la seule preuve des crimes et des violations des droits de l'homme commis dans ce pays : l'intelligence artificielle n'est pas parvenue à distinguer ces vidéos violentes, pour lesquelles YouTube prévoit des exceptions à cause de leur valeur éducative et documentaire, des vidéos violentes à des fins de propagande[10]. En France, la loi Avia, inspirée de la loi allemande NetzDG et prévoyant une obligation, pour les réseaux sociaux, de retirer en 24 heures les contenus illégaux, a été censurée par le Conseil constitutionnel le 18 juin 2020, par crainte des atteintes à la liberté d'expression[11].

En septembre 2020, le compte Instagram de plusieurs journalistes a été bloqué après qu'ils aient partagé la dernière couverture de Charlie Hebdo, suite à une campagne de signalements massifs. À cause des signalements, les programmes d'intelligence artificielle d'Instagram ont commis une forme de censure, portant atteinte à la liberté d'expression[12]. Il est effectivement difficile pour l'intelligence artificielle de distinguer des concepts comme l'humour, la satire, la dérision ou la provocation, qui sont véritablement propres à l'être humain. Des limites de l'intelligence artificielle sont donc constatées en ce qui concerne le respect des libertés et droits fondamentaux.

La nécessité d'une intelligence artificielle plus transparente

En dépit des atteintes aux libertés et droits fondamentaux, il ne faut pas rejeter l'avancée technologique que représente l'intelligence artificielle. En effet, d'après Salil Shetty, ancien secrétaire général d'Amnesty International, « il existe des possibilités et des bénéfices immenses à tirer de l'intelligence artificielle si les droits de l'homme sont au cœur de cette technologie »[13].

Pour développer l'intelligence artificielle tout en limitant son atteinte sur les libertés et droits fondamentaux, la première chose à faire est d'assurer une voie de recours effective que les individus pourront mettre en œuvre pour faire valoir leurs droits. L'article 8 de la Déclaration universelle des droits de l'homme, ainsi que l'article 13 de la Convention européenne des droits de l'homme, énoncent en effet que le droit à un recours effectif en cas de violation des libertés et droits fondamentaux est un impératif. En France, il existe une telle voie de recours appelée le référé liberté, prévue à l'article L. 521-2 du Code de justice administrative. Cette procédure existe au sein du tribunal administratif, et peut être initiée à trois conditions : il faut justifier d'une urgence, montrer qu'une liberté fondamentale est en cause, et montrer que l'atteinte à cette liberté est grave et manifestement illégale.

Deuxièmement, le Livre blanc de la Commission européenne sur l'intelligence artificielle a expliqué que « les particularités qui caractérisent de nombreuses technologies de l'IA, notamment l'opacité (« effet de boîte noire »), la complexité, l'imprévisibilité et le comportement partiellement autonome, peuvent rendre difficile la vérification de la conformité aux règles du droit de l'UE en vigueur destinées à protéger les droits fondamentaux et peuvent entraver le contrôle de l'application de celles-ci »[14]. Il apparaît donc nécessaire d'avoir des algorithmes plus transparents, afin de mieux comprendre les solutions qu'ils proposent, de pouvoir imputer la responsabilité de ces décisions à quelqu'un, et de pouvoir les contester plus facilement. La rétro-ingénierie, qui est la science qui décrypte les raisonnements d'une machine, est essentielle pour l'augmentation de la transparence des outils ayant recours à l'intelligence artificielle.

Enfin, la coopération entre les États, les entreprises privées, les universitaires, les ONG, les organisations internationales et les citoyens pourrait permettre d'aboutir au développement et à l'utilisation d'une intelligence plus respectueuse des libertés et droits fondamentaux. La sensibilisation des individus à l'intelligence artificielle, dès le plus jeune âge, est également primordiale afin que chacun ait un bon usage de ces technologies et comprenne leur influence dans nos vies.

Chronique « Droit, Juriste et Pratique du Droit Augmentés »

Cette chronique a pour objectif, de traiter de questions d'actualité relatives à cette transformation. Dans un contexte où le digital, le big data et le data analytics, le machine learning et l'intelligence artificielle transforment en profondeur et durablement la pratique du droit, créant des « juristes augmentés » mais appelant aussi un « Droit augmenté » au regard des enjeux et des nouveaux business models portés par le digital.

Avec son Augmented Law Institute, l'EDHEC Business School dispose d'un atout majeur pour positionner les savoirs, les compétences et la fonction du juriste au centre des transformations de l'entreprise et de la société. Il se définit autour de 3 axes de développement stratégiques : son offre de formations hybrides, sa recherche utile à l'industrie du droit, sa plateforme de Legal Talent Management. https://www.edhec.edu/fr/ledhec-augmented-law-institute

[1] https://www.accessnow.org/cms/assets/uploads/2018/11/AI-and-Human-Rights.pdf ; https://rm.coe.int/algorithms-and-human-rights-fr/1680795681

[2] https://www.affiches-parisiennes.com/les-enjeux-juridiques-du-big-data-10198.html

[3] https://www.nytimes.com/2019/12/19/technology/facial-recognition-bias.html

[4] https://cpr.unu.edu/ai-global-governance-turning-the-tide-on-crime-with-predictive-policing.html

[5] https://www.lemonde.fr/pixels/article/2018/10/09/a-los-angeles-l-ombre-de-palantir-sur-un-logiciel-decrie-de-police-predictive_5366955_4408996.html

[6] https://www.propublica.org/article/machine-bias-risk-assessments-in-criminal-sentencing

[7] https://www.lesechos.fr/industrie-services/conso-distribution/quand-le-logiciel-de-recrutement-damazon-discrimine-les-femmes-141753

[8] https://www.torontodeclaration.org/declaration-text/francais/

[9] https://www.bbc.com/news/technology-42510868

[10] https://www.lepoint.fr/monde/syrie-quand-youtube-supprime-des-videos-temoignant-de-la-guerre-23-08-2017-2151784_24.php#

[11] https://www.lemonde.fr/pixels/article/2020/06/18/le-conseil-constitutionnel-censure-la-disposition-phare-de-la-loi-avia-contre-la-haine-en-ligne_6043323_4408996.html

[12] https://www.lefigaro.fr/vox/religion/censure-sur-instagram-le-pouvoir-de-la-foule-menace-la-liberte-d-expression-20200909

[13] https://www.forbes.fr/technologie/comment-preserver-les-droits-de-lhomme-face-a-lintelligence-artificielle/

[14] https://ec.europa.eu/info/sites/info/files/commission-white-paper-artificial-intelligence-feb2020_fr.pdf

Partager :
Abonnez-vous
  • Abonnement intégral papier + numérique

  • Nos suppléments et numéros spéciaux

  • Accès illimité à nos services

S'abonner
Journal du 24 mars 2023

Journal du24 mars 2023

Journal du 17 mars 2023

Journal du17 mars 2023

Journal du 10 mars 2023

Journal du10 mars 2023

Journal du 03 mars 2023

Journal du03 mars 2023

S'abonner
Envoyer à un ami
Connexion
Mot de passe oublié ?