Fermer la publicité
Journal d'information juridique et d'annonces légales

Quand l'intelligence artificielle vous soigne : quelle(s) responsabilité(s) ?

le - - Droit - Actualité du droit

Quand l'intelligence artificielle vous soigne : quelle(s) responsabilité(s) ?
© DR

Géraldine d'Arcy et Clément Martin, étudiants en dernière année à l'EDHEC Business School, LL.M. Law & Tax Management

Qu'ils s'agissent de robots chirurgiens ou encore d'algorithmes établissant un diagnostic, l'intelligence artificielle a permis l'avènement d'un nouveau paradigme dans la relation traditionnelle patient-médecin. Capables désormais d'évaluer les données cliniques du patient afin de proposer des alternatives de traitements plus adaptées que les pratiques actuelles, une intelligence artificielle construite sur la base d'un algorithme, à l'instar de Deep Mind ou encore IBM Watson, peut désormais soutenir ou contredire le diagnostic médical classique. Si auparavant il était aisé pour le patient ayant subi un préjudice au cours d'un diagnostic ou d'un traitement prescrit, d'identifier la personne responsable à laquelle s'adresser, cette détermination est en effet devenue d'autant plus complexe avec l'utilisation de l'intelligence artificielle dans le diagnostic médical.

L'apparition de processus tels que le Machine Learning, mécanisme par lequel les robots apprennent par eux-mêmes des données qu'ils reçoivent, ou encore le Deep Learning, qui confère au robot un système « neuronal » proche de celui de l'Homme, permet à la robotique d'imiter de façon autonome des prises de décision relevant en premier lieu de capacités cognitives et intellectuelles humaines. Ainsi, considérer désormais que d'autres acteurs, hors du corps médical, et tel que le robot lui-même, puissent causer le préjudice, ouvre un nouveau champ de réflexion autour d'une redéfinition de la responsabilité médicale, à contre sens de la première loi d'Asimov*.

Cet article vise à présenter quelques pistes de réflexion sur les problématiques de responsabilité liée à la pratique de la médecine par des robots « intelligents ». Il se concentre sur la responsabilité civile délictuelle, ainsi que sur la règlementation française et européenne. Seul le cas du préjudice causé par le robot de manière totalement autonome sera envisagé, excluant la faute du médecin ou de tout autre acteur.

Le régime juridique français actuel : la responsabilité délictuelle « traditionnelle »

La responsabilité en cas d'erreur médicale relève du droit de la responsabilité civile délictuelle. Ainsi le patient peut demander des dommages-intérêts pour des dommages causés par un acte préjudiciable et fautif du médecin, des institutions médicales, des sociétés pharmaceutiques ou des fabricants.

Il convient de rappeler que le vide juridique persiste en France concernant les robots autonomes. Les résolutions européennes ne sont pas des règlementations applicables, n'étant pour le moment que des recommandations et des ébauches de définition du « robot intelligent ». Le robot est donc considéré comme un objet au même titre qu'un stylo. Le régime de responsabilité le plus proche de notre cadre est celui de la responsabilité du fait de la garde prévue à l'article 1243 alinéa 4 du Code civil. Cet article précise que par principe le propriétaire est présumé être le gardien de la chose et serait donc responsable des préjudices causés par elle. Le médecin pourrait donc être tenu responsable sur le fondement de la garde du robot s'il en est le propriétaire.

La responsabilité du fait des produits défectueux prévue aux articles 1245 et suivants du Code civil est aussi applicable mais se limite aux fabricants et concepteurs et non au médecin.

Selon Mark Chinen(3), professeur à la School of Law de l'université de Seattle, l'un des problèmes liés à l'intégration de l'intelligence artificielle dans les régimes actuels de responsabilité civile est son ascendante autonomie. La robotique a en effet atteint un niveau d'indépendance dont les limites ne cessent d'être repoussées. À mesure que le système d'intelligence artificielle gagne en autonomie, les autres acteurs tels que les médecins, les institutions médicales, les concepteurs de systèmes ou encore les développeurs de logiciels, perdent progressivement la maîtrise des objets autonomes, complexifiant ainsi la détermination de la responsabilité.

Au regard de l'autonomie et de l'indépendance décisionnelle actuelle de certains robots, de la multitude d'acteurs qui sont impliqués dans sa conception, fabrication, programmation ou même dans son utilisation, ainsi que des possibles évolutions futures de l'intelligence artificielle, il semble in fine difficile de déterminer une partie responsable.

Quel système de responsabilité envisager pour protéger le patient de l'acte préjudiciable d'une intelligence artificielle totalement autonome ?

Nous pourrions alors envisager plusieurs régimes juridiques afin de pallier les difficultés de détermination de la responsabilité, dépendant de la considération que l'on souhaite accorder aux robots dotés d'intelligence artificielle. Cela recouvre une réflexion aussi bien éthique que juridique.

Il serait possible d'appliquer le régime juridique de l'animal ou le régime parent/enfant aux robots. Notre réflexion étant axée sur les actes des robots dans le cadre de procédure médicale, nous exclurons ces régimes. Nous nous limiterons donc aux régimes applicables aux actes médicaux. Dès lors, voici des régimes juridiques intéressants pour instaurer un cadre légal efficace.

Le robot considéré comme non-humain, sans personnalité juridique.

Le système de l'assurance obligatoire, tel qu'il existe aujourd'hui pour les voitures, pourrait permettre de protéger les patients d'un point de vue financier. Cependant ce système ne permettrait pas de prendre en compte l'évolution des capacités de l'intelligence artificielle dont les actions préjudiciables seraient alors considérées comme un aléa. Cela se résumerait à supprimer toute responsabilité dans le cas où l'acte aurait effectivement été décidé par le robot de manière totalement autonome. La responsabilité du médecin ne serait alors engagée que s'il a un devoir de vérification sur les recommandations et actes du robot. L'applicabilité de ce régime devrait être envisagée en fonction de la réalité du fonctionnement des services médicaux. A noter qu'un robot est déjà habilité à effectuer lui-même des diagnostics aux États-Unis(4).

Une question surviendrait alors dans le cadre d'un tel système : qui devrait supporter le financement de l'assurance ? Dans le cas où le médecin aurait un devoir de vérification sur les recommandations et actes du robot il semblerait logique que le médecin soit l'acteur sur lequel repose la plus grande part du financement d'une telle assurance. Mais plus le système médical laissera de libertés à des robots à l'indépendance accrue, plus le financement de ce régime devra se faire de manière partagée entre les différents acteurs concernés (médecins, fabricants, propriétaires, etc.).

Le robot considéré comme humain

L'intelligence artificielle pourrait être considérée elle-même comme une personne à part entière, mimant l'activité cérébrale. Elle serait ainsi indépendante au regard de la loi et considérée comme humain. Le système d'intelligence artificielle aurait donc ses propres obligations et serait directement poursuivi pour toute réclamation. Ce système implique donc que le robot rejoigne tout simplement notre cadre légal en temps qu'humain. Il pourrait alors être médecin, disposerait d'un patrimoine et pourrait faire l'objet d'une action en responsabilité délictuelle tel que le prévoit actuellement notre Code civil.

Une première avancée vers un tel régime a été faite par l'Arabie Saoudite : bien que Sofia n'ait pas reçu de droits ou d'obligations, elle s'est vue attribuer la citoyenneté dans ce pays, corroborant qu'une telle option n'est pas totalement à écarter à l'échelle internationale(5). Néanmoins, considérer un robot comme un être humain signifierait lui accorder des droits et donc, de les respecter : appliquer le code du travail en régularisant et en cadrant son employabilité, lui accorder l'accès à un logement décent - similaire à l'habitat humain (même si malheureusement les êtres humains n'ont pas tous cet accès aujourd'hui…) - un droit de liberté d'expression et de déplacement. Au regard de ces problématiques, appliquer le droit des Hommes aux robots se heurterait à des limites éthiques et déontologiques, en déconstruisant les systèmes économiques, juridiques et géopolitiques existants.

Autre régime alternatif

Une autre solution serait de s'inspirer des régimes juridiques propres à l'Homme pour créer une nouvelle espèce soumise à des droits et obligations propres. Cette proposition a été faite par le considérant 31 f) de la proposition de résolution du Parlement européen « la création d'une personnalité juridique spécifique aux robots, pour qu'au moins les robots autonomes les plus sophistiqués puissent être considérés comme des personnes électroniques dotées de droits et de devoirs bien précis, y compris celui de réparer tout dommage causé à un tiers; serait considéré comme une personne électronique tout robot qui prend des décisions autonomes de manière intelligente ou qui interagit de manière indépendante avec des tiers »(6).

Cela permettrait alors à une intelligence artificielle d'être soumise aux règlementations en vigueur pour un médecin car elle pourrait être praticien sans être humain et donc cela écarterait les Droits Humains fondamentaux. En définissant la classification et l'appartenance juridique de l'intelligence artificielle, le droit pourrait de façon naturelle évoluer et s'adapter aux évolutions technologiques encore très peu anticipées. Cependant, la définition et la construction d'un tel régime exige un travail conséquent et extrêmement complexe de la part du législateur, nécessitant des coûts humains et financiers considérables.

Aux regards de ces différentes problématiques, 220 experts - via une lettre ouverte(7) - ont déjà analysé les risques d'une telle réglementation qui tendrait à exclure la responsabilité du médecin même dans une situation où celui-ci contrôlerait l'intelligence artificielle.

Chronique « Droit, Juriste et Pratique du Droit Augmentés »

Cette chronique a pour objectif, de traiter de questions d'actualité relatives à cette transformation. Dans un contexte où le digital, le big data et le data analytics, le machine learning et l'intelligence artificielle transforment en profondeur et durablement la pratique du droit, créant des « juristes augmentés » mais appelant aussi un « Droit augmenté » au regard des enjeux et des nouveaux business models portés par le digital.
L'EDHEC Business School dispose de deux atouts pour contribuer aux réflexions sur ces sujets. D'une part, son centre de recherche LegalEdhec, dont les travaux – reconnus – à l'intersection entre le droit et la stratégie, et portant sur le management des risques juridiques et la performance juridique, l'amènent aujourd'hui à lancer son nouveau projet A3L (Advanced Law, Lawyers and Lawyering). D'autre part, ses étudiants, et en particulier ceux de sa Filière Business Law and Management (en partenariat avec la Faculté de droit de l'Université Catholique de Lille) et de son LLM Law & Tax Management, dont la formation et les objectifs professionnels les placent au cœur de ces enjeux du digital.




Ses derniers articles

Abonnez-vous à l'offre Papier + Numérique

Affiches Parisiennes Journal d'information juridique et d'annonces légales

  • ›   Pour plus de contenu, papier + web
  • ›   l’accès aux annonces légales,
  • ›   l’accès aux ventes aux enchères.
Je m'abonne

À lire également


Réagir à cet article

Message déjà envoyé Adresse e-mail non valide


Fermer
En poursuivant votre navigation sur ce site, vous acceptez l'utilisation de cookies et de technologies similaires par notre société ainsi que par des tiers, afin de réaliser des statistiques d'audiences et de vous proposer des services éditoriaux et la possibilité de partager des contenus sur des réseaux sociaux. En savoir plus / paramétrer