Fermer la publicité
Journal d'information juridique et d'annonces légales

Intelligences artificielles, droit des robots : quels problèmes éthiques ?

le - - Droit - Actualité du droit

Intelligences artificielles, droit des robots : quels problèmes éthiques ?
© DR

“Toute technologie puissante a le potentiel d'être dangereuse”, disait Raymond Kurweil. Et peu sont aussi puissantes que l'intelligence artificielle. Un outil qui n'est pas sans alimenter un certain nombre de craintes, portant notamment sur le risque de perte de contrôle du créateur sur sa créature.

Cette question pourrait se poser bientôt sous un jour nouveau : bien qu'il y ait désaccord entre experts quant à la date, un jour pourrait bien venir où des intelligences artificielles (IA) se verront accorder une personnalité juridique. Au moment où vous lisez ces lignes, des juristes travaillent à la mise au point d'un droit des robots. Et si vous avez eu l'occasion de parcourir l'article de nos camarades Clémence Bossée-Pilon et Ingrid Francoz intitulé La responsabilité civile en matière d'intelligence artificielle, vous avez pu vous faire une idée des questionnements juridiques que soulève ce sujet(1).

Le rapport entre droit et intelligence artificielle est donc un sujet sensible qui, outre les questions de droit, pose quelques sérieuses questions éthiques de deux natures. Ce que les anglophones appellent respectivement “machine ethics” - qui concerne le “comportement moral” des robots - et “roboethics”, qui s'intéresse aux règles éthiques que doit suivre l'homme qui conçoit la machine et interagit avec elle.

“Machine ethics” et devoirs des robots

Les craintes de voir se réaliser le vieux mythe du golem se retournant contre son créateur ont rapidement conduit certains experts à rechercher un moyen d'intégrer dans le code des robots des règles d'action les rendant inoffensifs. Les premières à avoir été imaginées étant les trois lois d'Asimov, formulées par l'auteur de science-fiction dans son œuvre célèbre I, robot.

Naît alors l'idée d'une machine non seulement capable d'éthique, mais supérieure à l'homme sur ce point puisqu'elle ne peut enfreindre les règles qui lui sont dictées. Ces lois d'Asimov ont même inspiré l'Union Européenne dans ses réflexions sur l'adaptation future du droit aux nouveautés de la robotique, comme le montre la Résolution du Parlement européen du 16 février 2017 contenant des recommandations à la Commission concernant des règles de droit civil sur la robotique (2015/2103(INL)(2). La question se fait en effet de plus en plus pressante à mesure que les IA envahissent toujours plus de domaines-clefs.

Parmi les activités dans lesquelles le recours à des intelligences artificielles est fréquent, certaines concernent d'ailleurs le droit : l'aide à la décision juridique par exemple.

Ce qui pose un problème évident : l'incapacité du robot à ressentir des émotions. Quels que soient les trésors de connaissance technologique déployés pour mettre au point la machine capable de simuler toutes les émotions humaines, il parait pour l'instant impossible de rendre réellement empathique un assemblage de composants électroniques ou une ligne de code.

Or, il est des postes requérant davantage que l'application mécanique de règles de conduite, et des situations exigeant aussi de l'intelligence émotionnelle : une machine chargée de s'occuper de personnes âgées aura beau s'acquitter de sa tâche avec une exactitude mécanique, il lui manquera toujours la qualité que seul un être humain peut posséder, à savoir tout simplement… l'humanité. De même, on imagine difficilement un policier, un juge, etc… être régi par des engrenages et opérer de manière satisfaisante.

Les partisans du robot rétorquent qu'au vu des travers inhérents à l'humanité, il serait parfois préférable d'avoir affaire à une entité froide et objective, préservée de ces passions humaines où tant d'injustice prennent leur source ; les membres de minorités, par exemple, auraient à subir moins de discriminations si leurs cas étaient traités par des programmes informatiques… Ou pas.

Car une IA, par définition, se comportera en fonction des données utilisées lors de sa phase d'apprentissage. Si par exemple un robot a pour tâche d'aider à la décision juridique, son programme sera mis au point à partir des jugements passés, et si un nombre significatif d'entre eux se trouvent biaisés au détriment d'un groupe quelconque ce biais se reflètera dans le comportement du robot. Il en deviendra alors plus difficile que jamais à repérer et corriger, puisqu'il sera dissimulé dans des lignes de codes incompréhensibles pour le commun des mortels.

Une solution proposée pour éviter tout abus lié à l'utilisation d'IA dans des fonctions-clés est de s'assurer que les codes de ces programmes sont librement accessibles au public. Ce qui bien sûr n'est pas sans poser un réel problème : le langage informatique étant indéchiffrable pour les non-initiés, rendre public le processus de conception d'une intelligence artificielle ne signifie pas le rendre transparent. Une telle mesure impliquerait en outre le risque de voir ces codes utilisés par des acteurs mal intentionnés.

La question du comportement éthique des IA pose donc problème ; mais une autre question plus récente est celle des droits qui pourraient être accordés aux robots.

“Roboethics” et droits des robots

L'idée est moins absurde qu'il n'y paraît : ce ne serait pas la première fois qu'une entité non-humaine se verrait accorder une personnalité juridique. Après tout, les sociétés (par exemple, les SAS) ne sont pas humaines, elles non plus.

En outre, certains prévoient pour l'avenir un estompement des frontières entre hommes et machines : des robots pourraient se voir implanter des organes humains pour un fonctionnement plus efficace ; des humains pourraient être “augmentés” via des organes robotiques… Par ailleurs si l'on admet qu'un robot doit être soumis à des devoirs, ne serait-il pas logique de lui reconnaître aussi des droits ?

Cependant, les risques d'abus sont ici nombreux. Tout d'abord, rendre la machine responsable est un moyen commode pour son concepteur d'éviter d'être tenu juridiquement responsable en cas d'accident. Mais surtout, cela implique le risque de voir le robot traité comme égal de l'humain, et donc de voir l'humain relégué au rang de robot. C'est l'objet du débat suscité par une proposition de la Commission Européenne de 2017(3) visant à accorder une personnalité juridique aux robots, cette proposition ayant été vivement contestée dans une lettre adressée 12 avril 2018 à cette même Commission(4).

Évidemment le statut envisagé par la Commission pour le robot est celui de personnalité morale - comme pour une organisation -, et non pas physique. Mais le robot, lui, peut éventuellement posséder une forme physique, d'où le risque qu'un glissement dangereux s'opère dans l'esprit des personnes amenées à entrer en contact avec lui.

En effet par le processus bien connu que l'on nomme anthropomorphisme, les hommes peuvent avoir tendance à s'attacher aux objets ou animaux auxquels ils tiennent, au point de les traiter comme s'ils étaient leurs semblables. On imagine avec quelle facilité le processus pourrait opérer dans le cas d'un robot humanoïde, et l'ampleur des problèmes éthiques que cela pourrait poser. Imaginons en effet un androïde « parfait », capable notamment d'exprimer des semblants d'émotions (joie, peine, etc.), engagé en procès contre un être humain.

Qui connaît la psyché humaine comprendra que juges et jurés (s'il y en a) risquent fort d'éprouver pour l'androïde la même empathie que s'il s'agissait réellement d'un des organismes bipèdes dont il est la copie. Ce processus mental pouvant être conscient ou non. On pourrait alors voir les droits de la chose prévaloir sur ceux de l'Homme.

Quel statut pour l'Eve future ?

Le pire n'est certes pas certain ; il est au fond difficile de prévoir quel sera au juste l'avenir des machines et de leur droit. Il est certain que la complexité des futures IA nécessitera un aménagement du droit. Sinon, en cas de dommage dont la source serait une machine intelligente, comment déterminera-t-on le responsable d'un point de vue juridique ? Différents camps s'affrontent sur cette question, certains plutôt favorables à l'idée d‘un “droit des robots” et d'autres moins.

L'une des solutions préconisées consisterait à attribuer aux IA un statut comparable à celui de l'animal domestique. On risquerait cependant alors de faire porter toute la faute par le propriétaire/utilisateur en cas d'accident, alors même que le concepteur semble a priori avoir lui aussi sa part de responsabilité quant à la fiabilité de sa création.

À l'opposé, d'aucuns affirment que le robot, dès lors qu'il possède une forme d'intelligence, devrait se voir considéré à l'égal d'un être vivant, sans qu'il ne soit jamais précisé clairement si cela devrait concerner uniquement les machines anthropomorphes ou tout type de robots, y compris les simples programmes dépourvus de forme physique. Lui refuser ce statut relèverait alors… de la discrimination. De la même manière que d'aucuns sont passés de la dénonciation du racisme à celle du spécisme, et trouvent honteuse la tendance de l'homme à traiter ses semblables mieux que les autres formes de vie, il en est qui considèrent que la dignité du robot mérite elle aussi une protection légale. On imagine les conséquences si une telle vision s'imposait dans nos systèmes juridiques.

Le développement des intelligences artificielles semble aujourd'hui atteindre un stade qui fait passer pour platement terre-à-terre les auteurs de science-fiction les plus imaginatifs ; ces évolutions promettent d'être lourdes de conséquences sur le plan juridique. Espérons qu'elles ne nous conduiront pas à oublier la frontière entre homme et machine.

Chronique « Droit, Juriste et Pratique du Droit Augmentés »

Cette chronique a pour objectif, de traiter de questions d'actualité relatives à cette transformation. Dans un contexte où le digital, le big data et le data analytics, le machine learning et l'intelligence artificielle transforment en profondeur et durablement la pratique du droit, créant des « juristes augmentés » mais appelant aussi un « Droit augmenté » au regard des enjeux et des nouveaux business models portés par le digital.
L'EDHEC Business School dispose de deux atouts pour contribuer aux réflexions sur ces sujets. D'une part, son centre de recherche LegalEdhec, dont les travaux – reconnus – à l'intersection entre le droit et la stratégie, et portant sur le management des risques juridiques et la performance juridique, l'amènent aujourd'hui à lancer son nouveau projet A3L (Advanced Law, Lawyers and Lawyering). D'autre part, ses étudiants, et en particulier ceux de sa Filière Business Law and Management (en partenariat avec la Faculté de droit de l'Université Catholique de Lille) et de son LLM Law & Tax Management, dont la formation et les objectifs professionnels les placent au cœur de ces enjeux du digital




Ses derniers articles

Abonnez-vous à l'offre Papier + Numérique

Affiches Parisiennes Journal d'information juridique et d'annonces légales

  • ›   Pour plus de contenu, papier + web
  • ›   l’accès aux annonces légales,
  • ›   l’accès aux ventes aux enchères.
Je m'abonne

À lire également


Réagir à cet article

Message déjà envoyé Adresse e-mail non valide


Fermer
En poursuivant votre navigation sur ce site, vous acceptez l'utilisation de cookies et de technologies similaires par notre société ainsi que par des tiers, afin de réaliser des statistiques d'audiences et de vous proposer des services éditoriaux et la possibilité de partager des contenus sur des réseaux sociaux. En savoir plus / paramétrer