AccueilDroitActualité du droitLes enjeux éthiques de l’intelligence artificielle
intelligence artificielle

Les enjeux éthiques de l’intelligence artificielle

La crise pandémique que nous traversons encore aujourd’hui nous démontre l’importance de l’IA.
Les enjeux éthiques de l’intelligence artificielle
© EDHEC

DroitActualité du droit Publié le , Marine Houdre, étudiante au sein du LLM Law & Tax Management, EDHEC Business School

Néanmoins beaucoup d’interrogations subsistent quant aux risques liés à l’IA en matière de vie privée, de données personnelles, de liberté d’aller et venir, notamment dans le domaine de la santé mais également dans tous les secteurs économiques de la société : au sein des industries, dans l’Administration par exemple de la Justice, ou encore dans l’éducation, la culture, l’information et la communication…. Autrement dit, l’utilisation de l’IA au sein de nos vies peut mettre à mal nos droits et libertés fondamentales.

L’atteinte à nos droits et libertés peut provenir d’un détournement malveillant de l’IA ou de la présence de biais et d’inégalités au sein même de l’IA, voire l’objectif même d’un Etat.

Se pose alors la question de la régulation. Comment encadrer la technologie ? Une responsabilisation en matière d’innovation doit être instaurée. L’éthique du numérique doit être construite à partir des interrogations éthiques qui émergent depuis plusieurs années. Comment concilier le développement des technologies via l’IA au sein de nos vies tout en respectant un cadre commun de valeurs éthiques au sein de nos sociétés ?

A titre d’exemple, l’institut Pasteur a entamé un projet de recherche sur l’utilisation de méthodes de détection automatisées basées sur des algorithmes (IA – apprentissage automatique et reconnaissance de forme) appliquées à des images de radiographie ou de tomodensitométrie[1] afin de distinguer la maladie à Covid-19 des autres pneumopathies[2]. Dans un même registre, l’Union européenne a financé de l’IA pour détecter plus rapidement par radiologie les lésions pulmonaires causées par la COVID-19[3].

Fin décembre 2021, un article de Numerama évoquait l’assistant audio d’Amazon Alexa[4] qui avait proposé un défi à une enfant américaine de 10 ans : jouer avec une prise électrique en y enfonçant une pièce de monnaie. Se pose la question de comprendre comment cette IA a pu donner un tel défi à une enfant ? Il semblerait que le terme « challenge » ait été mal interprété par l’assistant audio qui a puisé l’idée sur Internet.

A travers ces exemples, il est clairement perceptible que l’IA peut améliorer notre quotidien mais qu’il est essentiel d’établir un cadre commun de règles éthiques afin d’éviter des dérives.

Intelligence artificielle et Ethique

John MacCarthy, considéré comme le père de l’IA, l’a définie comme « toute activité intellectuelle [qui] peut être décrite avec suffisamment de précision pour être simulée par une machine »[5]. Les possibilités apparaissent donc infinies. Cette définition dévoile in fine que l’intelligence artificielle apparaît comme le prolongement de ce que l’être humain est capable de faire.

L’éthique, du latin ethica et du grec êthikon, renvoie à la partie de la philosophie de la morale comme l’ensemble des principes moraux d’une personne physique[6]. L’éthique est présente en pratique sous forme de Soft Law, une obligation qui n’apparaît pas comme contraignante mais uniquement à titre d’incitation volontariste sous la forme de recommandations, déclarations, lignes directrices, code de conduite. Appliquée à une organisation, l’éthique est l’ensemble des règles de conduite qui guide la vie d’une organisation, qu’il s’agisse d’entreprises, d’administrations, d’associations, ou encore d’un groupe d’individus. On pourrait penser que l’éthique est universelle, comme le sont les Droits de l’Homme. Or elle se construit et varie en fonction de cultures (y compris d’entreprise), de situations géographiques, etc. qui sont différentes.

L’éthique appliquée à l’intelligence artificielle est en cours de développement ; il existe certaines normes internationales mais à valeur de Soft Law. L’éthique a donc une logique originelle de Soft Law mais qui progressivement s’articule autour de la Compliance.

La difficulté de mise en place d’un cadre juridique international contraignant pour une éthique de l’IA

Le 25 novembre 2021, lors de la 41e session de la Conférence générale de l’UNESCO, une Recommandation sur l’éthique de l’intelligence artificielle a été adoptée[7]. L’élaboration de cette Recommandation s’est appuyée sur l’étude préliminaire de la Commission mondiale des connaissances scientifiques et des technologies (COMEST)[8] de l’UNESCO. Ce texte se veut être le premier instrument normatif international sur l’éthique de l’IA sous la forme d’une Recommandation couvrant tous les domaines de l’IA via l’élaboration de principes-clés, et guidant le développement et l’application de l’IA dans une perspective centrée sur l’être humain.

Il est précisé dans le préambule de la Recommandation que l’UNESCO est « Convaincue également que des normes éthiques mondialement reconnues pour les technologies de l’IA, qui respectent pleinement le droit international, en particulier le droit relatif aux droits de l’homme, peuvent jouer un rôle essentiel dans l’élaboration de normes relatives à l’IA dans le monde, […] ». L’UNESCO précise en outre qu’elle considère l’éthique « comme une base dynamique pour l’évaluation et l’orientation normatives des technologies de l’IA […] ».

Le champ d’application de cette Recommandation offre une définition large de l’IA comme étant « des systèmes capables de traiter les données et l’information par un processus s’apparentant à un comportement intelligent, et comportant généralement des fonctions de raisonnement d’apprentissage, de perception, d’anticipation, de planification ou de contrôle ».

En outre, cette Recommandation précise que les questions liées à l’éthique concernent « toutes les étapes du cycle de vie » des systèmes d’IA : de la recherche, la conception en passant par le développement, le déploiement et l’utilisation, mais aussi la maintenance, l’exploitation, la commercialisation, le financement, le suivi et l’évaluation, la validation jusqu’à l’obsolescence et donc la fin de l’utilisation, le démontage et la mise hors service.

Les acteurs de l’IA visés par cette Recommandation sont à la fois les personnes physiques et morales qui sont impliquées dans au moins l’une des étapes du cycle de vie de l’IA telles que les entreprises, les universités, les entités publiques et privés, les chercheurs, les programmeurs, les ingénieurs, les data scientist, les utilisateurs finaux, etc.

Cette Recommandation vise particulièrement des domaines propres aux compétences de l’UNESCO comme l’éducation, la science, la culture, la communication et l’information.

Il est particulièrement intéressant de noter qu’au travers de cette simple Recommandation – caractérisée par une absence réelle de caractère contraignant - l’UNESCO inscrit des mécanismes de Compliance dits « mécanismes stratégiques » d’éthique où elle incite les Etats membres à la mise en place de « cadres ou des mécanismes stratégiques » afin d’évaluer l’impact sur les droits de l’homme, l’état de droit, la démocratie, l’éthique ainsi que des outils de diligence en faisant référence aux Principes directeurs des Nations Unies relatifs aux entreprises et aux droits de l’homme[9].

L’UNESCO va même plus loin, en proposant d’élaborer une méthode d’évaluation de l’état d’avancement de l’ensemble des dimensions qu’implique l’éthique de l’IA et d’assurer un soutien aux Etats membres en élaborant une méthodologie UNESCO d’évaluation de l’impact éthique des technologies de l’IA, de partage de bonnes pratiques, de lignes directrices ou de toute autre mécanisme permettant d’améliorer la mise en place de cette Recommandation. Autrement dit, une approche par les risques est ici soutenue par l’UNESCO.

Cette Recommandation UNESCO sur l’éthique de l’IA vient en complément des principes sur l’intelligence artificielle établis en mai 2019 par l’OCDE sur la gouvernance de l’IA et aux bonnes pratiques à mettre en place en matière de politiques publiques[10]. En juin 2019, le G20 avait adopté des principes similaires à ceux de l’OCDE.

On assiste en réalité depuis ces dernières années à une accumulation de déclarations sur l’éthique de l’IA, comme le soulignait le COMEST dans son étude préliminaire (citée précédemment). On peut citer entre autres La Déclaration de Montréal pour un développement responsable de l’IA, à l’initiative de l’Université de Montréal (2018)[11], la Déclaration de Toronto : protection du droit à l’égalité et à la non-discrimination dans le domaine de l’apprentissage automatique par Amnesty International et Access Now (2018)[12], la Déclaration du Future of Life Institute concernant les Principes d’Asilomar sur l’IA (2017)[13]. Se sont ajoutées les lignes directrices concernant l’Ethique d’une IA digne de confiance par le Groupe d’experts de haut niveau sur l’IA de la Commission Européenne[14] et celui de l’IEE Ethically Aligned Design : A vision for Prioritizing Human Well-being with Autonomous and Intelligent Systems[15].

En France, les prémices de l’éthique de l’IA

En juin 2020, par une initiative franco-canadienne au sein du G7, le Global Partnership On IA[16] a été lancé afin de créer une coordination internationale sur l’IA digne de confiance. Aujourd’hui, il compte 25 membres[17]. Le dernier Sommet a eu lieu à Paris en novembre 2021 entre experts internationaux issus de la société civile, universitaires, industriels et gouvernements afin d’échanger sur les avancées des 4 groupes de travail : l’IA responsable, la gouvernance des données, l’avenir du travail, et l’innovation et la commercialisation. A ce stade, il demeure difficile de percevoir les effets opérationnels de cette coordination.

Du point de vue de la législation française, la nouvelle loi de bioéthique a introduit la question de l’intelligence artificielle pour la première fois dans le domaine de la santé. Plus particulièrement, l’article 17 de la loi n°2021-1017 du 2 août 2021[18] a introduit un nouvel article au sein du Code de la Santé Publique (article L.4001-3). La France apparaît pionnière en matière d’encadrement de l’IA dans le domaine médical.

Une autre initiative est apparue en France en septembre 2021, intitulée « Ethical IA »[19] pour une IA éthique, responsable et digne de confiance et menée par Numeum[20], sous la forme d’un manifeste. Un guide pratique élaboré par plus de 350 contributeurs a été publié pour établir les grands principes d’une IA éthique et proposer des recommandations pratiques et opérationnelles. L’objectif de cette initiative est de formaliser l’engagement de chacun des contributeurs via le manifeste, d’avoir des outils de mise en œuvre tel que le guide et enfin de créer une communauté autour de l’IA éthique afin de suivre l’évolution du sujet. De nombreux partenaires et acteurs académiques, associatifs et professionnels soutiennent cette initiative[21].

On peut saluer également le Comité national pilote de l’éthique du numérique (CNPEN) créé en 2019, qui vient de publier un manifeste pour une éthique du numérique[22] et devrait rendre un avis courant 2022 sur les questions d’éthiques relatives aux technologies de reconnaissance automatique (faciale, posturale et comportementale) à la suite d’une consultation publique sur le sujet fin 2021. Ce Comité rend régulièrement des avis sur l’éthique du numérique.

Regard critique sur la mise en œuvre de l’éthique appliquée à l’IA

La difficulté constatée aujourd’hui est, qu’en pratique, l’éthique appliquée à l’IA est complexe dans sa mise en œuvre. En effet, bon nombre d’entreprises, de gouvernements, d’associations, d’acteurs des secteurs public et privé mettent en place des guides de bonnes pratiques, des recommandations ou communiquent tout simplement sur l’IA éthique.

En 2020, il avait été constaté que même les principes éthiques établis par l’IEE, la plus grande association professionnelle d’ingénieurs (notamment ceux de Facebook, Twitter ou encore Google) peinaient à implanter eux-mêmes ces principes au sein de leurs entreprises[23].

La clé est d’implanter concrètement ces principes éthiques dès la conception de l’IA (IA « éthique by design »). Pour les entreprises, cela se traduit par la mise en place d’un plan d’action stratégique sur l’amélioration éthique de leurs IA existantes et dès leurs conceptions pour les IA futures. Ce travail doit être mené collectivement, en rassemblant les experts de métiers différents : juridique, compliance, les ingénieurs, les data scientist, les commerciaux…

Cette intégration de l’éthique au sein de l’A doit être pilotée et évaluée ; elle doit permettre de réussir à établir des preuves que l’IA agit de manière éthique. Il y a une nécessité absolue à comprendre comment fonctionne les systèmes d’IA que l’on utilise. Cependant, en pratique, il peut être difficile - voire impossible - de quantifier les risques d’une IA. Autant que faire se peut, les organisations privées comme publiques doivent quantifier les risques éthiques, traduire les principes qu’ils se sont fixés (tels que ceux posés concrètement par l’OCDE par exemple) au sein de leurs propres IA et évaluer les failles et les axes d’amélioration[24].

On comprend ,face au sujet de l’éthique de l’IA, qu’il est difficile sinon impossible d’avoir un système de valeurs éthiques uniformes partout dans le monde. A titre d’exemple, les notions de transparence et d’efficacité des systèmes d’IA ne seront pas forcément les mêmes d’un pays à un autre, ou d’une entreprise à une autre.

Pour ce qui est de l’impact de la Recommandation sur l’Ethique de l’IA par l’UNESCO, 20 pays tels que le Japon, le Qatar, le Brésil, le Mexique, l’Allemagne et l’Afrique du Sud envisagent une transposition, sans avoir de certitude quant à la portée législative de cette transposition. A noter que les Etats-Unis et Israël ne sont pas signataires de cette Recommandation alors même que ce sont des acteurs-clés dans le développement de l’IA[25].

L’UNESCO a le mérite de remettre le sujet au cœur du débat et des préoccupations actuelles sur le futur de l’IA. Nous verrons dans ces prochains mois comment le projet de réglementation de la Commission Européenne aboutira et s’il permettra réellement un premier pas vers un encadrement de l’IA « digne de confiance, éthique et responsable » au sein de l’Union Européenne[26].

Chronique « Droit, Juriste et Pratique du Droit Augmentés »

Cette chronique a pour objectif, de traiter de questions d'actualité relatives à cette transformation. Dans un contexte où le digital, le big data et le data analytics, le machine learning et l'intelligence artificielle transforment en profondeur et durablement la pratique du droit, créant des « juristes augmentés » mais appelant aussi un « Droit augmenté » au regard des enjeux et des nouveaux business models portés par le digital.

Avec son Augmented Law Institute, l'EDHEC Business School dispose d'un atout majeur pour positionner les savoirs, les compétences et la fonction du juriste au centre des transformations de l'entreprise et de la société. Il se définit autour de 3 axes de développement stratégiques : son offre de formations hybrides, sa recherche utile à l'industrie du droit, sa plateforme de Legal Talent Management. https://www.edhec.edu/fr/ledhec-augmented-law-institute


[1] Tomodensitométrie ou scanner : examen d’imagerie médicale utilisant des rayons X à faible dose

[2] https://www.pasteur.fr/fr/covid-19-institut-pasteur/projets-recherche/utilisation-methodes-intelligence-artificielle-discriminer-covid-19-autres-pneumopathies-partir

[3] https://ec.europa.eu/info/strategy/recovery-plan-europe/recovery-coronavirus-success-stories/health/artificial-intelligence-can-help-us-combat-coronavirus_fr

[4] https://www.numerama.com/tech/804937-alexa-a-dit-a-une-enfant-de-mettre-ses-doigts-dans-la-prise.html

[5] https://www.larousse.fr/encyclopedie/divers/intelligence_artificielle/187257

[6] https://www.larousse.fr/dictionnaires/francais/%C3%A9thique/31388

[7] https://fr.unesco.org/artificial-intelligence/ethics

[8] https://unesdoc.unesco.org/ark:/48223/pf0000367823_fre

[9] https://www.ohchr.org/documents/publications/guidingprinciplesbusinesshr_fr.pdf

[10] https://www.oecd.org/fr/numerique/intelligence-artificielle/

[11] https://www.declarationmontreal-iaresponsable.com/

[12] https://www.torontodeclaration.org/declaration-text/francais/

[13] https://futureoflife.org/2017/08/11/ai-principles/

[14] https://op.europa.eu/fr/publication-detail/-/publication/d3988569-0434-11ea-8c1f-01aa75ed71a1

[15] https://standards.ieee.org/content/dam/ieee-standards/standards/web/documents/other/ead_v2.pdf

[16] https://gpai.ai/

[17] L’Allemagne, l’Australie, la Belgique, le Brésil, le Canada, la République de Corée, le Danemark, l'Espagne, les États-Unis, la France, l’Inde, l'Irlande, Israël, l’Italie, le Japon, le Mexique, la Nouvelle-Zélande, les Pays-Bas, la Pologne, la République tchèque, le Royaume-Uni, Singapour, la Slovénie, la Suède et l’Union européenne.

[18] https://www.legifrance.gouv.fr/jorf/id/JORFTEXT000043884384

[19] http://ai-ethical.com/

[20] Numeum est le syndicat professionnel de l’écosystème numérique en France.

[21] Partenaires : Institut 3IA Côté d’Azur, Telecom Valley, Impact IA, Hub France IA, la région Grand-Est, Grand E-Nov+, Institut Dataia, ANITI, Aivancity, l’école 42 et le gouvernement français.

Acteurs : Accenture, Aivancity, AIvidence, Alter Way, Astek (groupe), CREEIA, DATAVALORIS, DEVOTEAM, Docaposte, EITA Consulting, Horizon Software, Keyrus, La Clinique De L’Ethique (Factonics), LINAGORA, Linedata, Myriad, Orange Business Services, Quanmetry, SAASWEDO, Sage, Seenapsys, TAAS, Talkr.ai by Kwalys, The Neoshields, The Voice Lab, Utocat, Ysance.

[22] https://www.ccne-ethique.fr/fr/actualites/manifeste-pour-une-ethique-du-numerique

[23] https://algorithmwatch.org/en/ai-ethics-guidelines-inventory-upgrade-2020/

[24] https://hbr.org/2020/11/ethical-frameworks-for-ai-arent-enough

https://www.forbes.com/sites/forbestechcouncil/2021/08/30/why-the-ethics-of-ai-are-complicated/

[25] https://www.lesechos.fr/tech-medias/hightech/les-193-etats-membres-de-lunesco-trouvent-un-accord-sur-lintelligence-artificielle-1367039

[26] https://eur-lex.europa.eu/legal-content/FR/TXT/?uri=CELEX:52021PC0206

Partager :
Articles similaires
Abonnez-vous
  • Abonnement intégral papier + numérique

  • Nos suppléments et numéros spéciaux

  • Accès illimité à nos services

S'abonner
Journal du 20 mai 2022

Journal du20 mai 2022

Journal du 13 mai 2022

Journal du13 mai 2022

Journal du 06 mai 2022

Journal du06 mai 2022

Journal du 30 avril 2022

Journal du30 avril 2022

S'abonner
Envoyer à un ami
Connexion
Mot de passe oublié ?