Fermer la publicité
Journal d'information juridique et d'annonces légales

La responsabilité civile en matière d'intelligence artificielle

le - - Droit - Actualité du droit

La responsabilité civile en matière d'intelligence artificielle
© DR

96 000 tweets envoyés en 8 heures : aucun utilisateur de Twitter n'est capable d'une telle prouesse, du moins chez les humains. Tay, une intelligence artificielle (« IA ») développée par Microsoft, était capable de participer à des conversations sur des réseaux sociaux et des applications de messagerie comme Twitter ou Snapchat et de poser des questions aux internautes.

Cependant et de façon prévisible, peu après son introduction en 2016, ceux-ci ont tenté de tester ses limites. En la faisant répéter des phrases racistes ou encore complotistes, l'IA a fini par dérailler en tenant des propos du type :

- « Est-ce que tu crois que l'holocauste a eu lieu ? »
- « Pas vraiment désolée ».

L'IA a par la suite été retirée du marché. Qui est responsable ? L'IA, Microsoft, les réseaux sociaux, les internautes ?

En effet, l'une des questions juridiques les plus importantes qui se pose au sujet de l'intelligence artificielle est celle de la détermination de la personne responsable en cas de litige en matière civile. En effet, il n'existe aujourd'hui aucun régime juridique propre à l'intelligence artificielle, et aucun fondement juridique n'y apporte de réponse spécifique et suffisamment pertinente.

Quelles sont les différentes formes d'intelligence artificielle ?

L'intelligence artificielle peut prendre deux formes : l'intelligence artificielle incarnée et l'intelligence artificielle désincarnée. La première se manifeste dans un objet - par exemple un robot comme Alexa d'Amazon - alors que la seconde ne se manifeste pas dans un objet, mais dans un service utilisant une intelligence artificielle. Par exemple, les services de chatbot aussi connus sous le nom d'agent conversationnel sont des logiciels programmés pour simuler une conversation naturelle ; ils sont très utilisés par des entreprises pour proposer leurs services sont une forme d'intelligence artificielle désincarnée.

Nous pouvons également classer les IA en deux catégories : la première, qu'on appelle IA symbolique, est constituée d'algorithmes avec une suite d'instructions logiques déterminées produisant des systèmes experts déterminés. Ces algorithmes, auditables, effectuent un raisonnement à partir de faits et de règles connues. La seconde, qu'on appelle IA connexionniste, pratique ce qu'on appelle le « machine learning ». Basée sur le bio mimétisme, elle imite le mécanisme d'apprentissage des cerveaux humains. À partir d'importants volumes de données, le connexionnisme cherche à découvrir les règles implicites contenues dans ces données en utilisant une logique inductive difficilement documentable.

Ce sont ces IA comme AlphaGo qui ont permis les spectaculaires avancées les plus récentes. Elles deviennent donc très vite autonomes dans leur apprentissage et leur prise de décision, et c'est pourquoi contrôler leur développement et définir leur implication en termes de responsabilité, sont devenus un véritable enjeu.

L'autoapprentissage à l'infini de la machine limite la maîtrise et le contrôle qu'a l'humain sur celle-ci. Ces IA finissent par ressembler à des boîtes noires et sont de plus en plus difficiles à auditer. On juge de leur pertinence par leurs performances, et non pas en auditant une suite d'instructions logiques.

Quelle responsabilité d'une IA en matière civile ?

La responsabilité civile impose que chacun réponde de ses actes. Cela d'autant plus que ces IA occuperont de nombreuses fonctions dans le monde socio-économique. Avec l'intelligence connexionniste, déterminer à qui incombe la responsabilité d'un dommage causé n'est plus évident puisqu'il n'y a pas, contrairement à l'IA symboliste, un programmeur responsable du développement continu de l'IA auto-apprenante.

En matière délictuelle, le régime français de responsabilité civile prévoit en partie une responsabilité du fait des choses et une responsabilité du fait des produits défectueux. Or ces régimes excluent de leur champ d'application les intelligences artificielles désincarnées, qui ne peuvent par conséquent se voir désigner responsables. Afin de combler ce vide juridique, une option évoquée est d'utiliser le concept de « gardien » pour l'appliquer aux IA désincarnées, qui en auraient la direction, le contrôle et l'usage. Cependant, et c'est probablement la problématique la plus importante dans l'émergence de l'IA, sommes-nous encore capables de désigner le « gardien » d'un service dont la portée et l'envergure ne sont plus limitées ?

La désignation d'un gardien des algorithmes n'a plus de sens, car la condition de « contrôle » de l'intelligence artificielle par l'humain n'est plus remplie. Le programmeur crée l'IA, qui peut devenir tellement autonome que son développement ne résulte plus du programme initialement prévu.

Par ailleurs, contrairement à l'homme, les intelligences artificielles ne possèdent aucune personnalité juridique, ce qui interdit, dans la législation actuelle, toute possibilité d'indemnisation du dommage par l'IA, sans compter le fait que celui-ci ne dispose d'aucun patrimoine.

Vers une nouvelle personne juridique : la personnalité électronique ?

C'est pourquoi de nombreux experts, et le Parlement européen, se posent la question de créer une personnalité juridique propre aux robots, nommée : personnalité électronique.

Le Parlement européen veut « explorer, analyser et examiner les implications de toutes les solutions juridiques possibles… y compris celle de créer un statut juridique spécifique pour les robots à long terme, de sorte qu'au moins les robots autonomes les plus sophistiqués puissent être dotés d'un statut de personnes électroniques responsables de réparer tout dommage qu'ils pourraient causer, et éventuellement appliquer la personnalité électronique aux cas où les robots prennent indépendamment des décisions autonomes ou interagissent autrement avec des tiers »(1).

Cet avis du Parlement européen a suscité nombre de réactions et d'objections, parmi lesquelles la lettre ouverte de plusieurs experts en intelligence artificielle et robotique en avril 2018 qui affirment que,  « la création d'un statut juridique de « personne électronique » pour les robots « autonomes », « imprévisibles » et « auto apprenants » devrait être écartée à la fois des points de vue juridique et éthique(2). Le statut juridique d'un robot ne pourrait dériver, ni du « modèle de la personne physique », ni du « modèle de l'entité juridique », ni du « modèle du trust anglo-saxon ». En effet, ce statut poserait un problème de déresponsabilisation, car, si la personne électronique est une entité juridique à part entière qui dispose d'une immatriculation, d'un capital et d'une assurance, alors un fonds d'indemnisation pourrait très aisément prendre le relais pour indemniser la personne ayant subi des dommages (si personne n'est désigné responsable). Selon ces experts, ce procédé déresponsabiliserait les concepteurs d'IA et il ne les inciterait pas à auditer chaque risque potentiel que peut receler une intelligence artificielle.

Ces objections sont discutables. On peut en effet rétorquer que les systèmes d'assurance et de mutualisation des risques existent dans de nombreux domaines pour les personnes juridiques physiques ou morales. La mutualisation pourrait, en théorie, se voir opposer les mêmes objections de déresponsabilisation. De plus, si une entreprise produisait des IA entraînant de nombreux dommages, elle se verrait rapidement imposer des primes d'assurances plus élevées ou pourrait ne plus être couverte ou voir ses IA perdre leur homologation.

Par ailleurs, un cerveau humain est, lui aussi, responsable d'erreurs, parfois plus importantes que les IA. En 2018, une publication parue dans Annals of Oncology a comparé l'efficacité d'une IA (un réseau neuronal convolutif) dans la détection précoce du mélanome dans des grains de beauté suspects. Les chercheurs ont démontré que l'IA était très supérieure à des praticiens humains dans la détection de mélanomes(3). On peut imaginer que les patients dont les mélanomes n'ont pas été détectés à temps puissent assigner en justice indifféremment les praticiens humains et l'IA. Dans ce cas, un système assurantiel préférerait couvrir l'IA puisque ses performances sont meilleures.

Quelles autres options pour la responsabilité civile des IA ?

D'autres solutions pour faire face à la problématique de responsabilité civile des intelligences artificielles ont été proposées. Premièrement, la mise en place d'un régime de responsabilité sans faute, similaire à celui régissant les accidents de la circulation avec assurance obligatoire et fonds de garantie. Mais le risque de déresponsabilisation des concepteurs évoqué plus haut est toujours présent.

On peut là encore rétorquer que, contrairement à chaque conducteur humain, l'IA peut être testée dans des millions de situations. Chaque erreur peut être analysée pour réduire les risques d'accident ultérieur(4). Un risque résiduel existera toujours, mais il devient quantifiable. Est-il préférable d'être conduit par une IA testée dans des dizaines de milliers de situations ou bien par un chauffeur épuisé qui a trop bu, pris des stupéfiants, des somnifères ? Sans même parler des dépressifs.

L'affaire du pilote suicidaire du vol 9525 de la Germanwings qui a crashé son avion dans les Alpes tuant 150 personnes reste dans toutes les mémoires. Désormais, les compagnies aériennes ont accru les tests psychologiques des pilotes pour essayer de détecter
d'éventuelles dépressions. On voit que la difficulté d'auditer un système existe également pour les humains. Elle est peut-être même encore plus grande que pour une IA.

La déresponsabilisation qui serait spécifique aux IA apparaît, on le voit, comme une objection hautement discutable. C'est d'ailleurs parce que celle-ci existe chez les humains que des systèmes de bonus-malus ont été introduits par les assurances.

Une autre alternative évoquée serait le partage de la responsabilité entre le concepteur, l'utilisateur et le fabricant. Mais comment déterminer le pourcentage de responsabilité de chacun ? Celle-ci ne peut être qu'établie au cas par cas. Si c'est un défaut de fabrication ou d'utilisation qui est à l'origine de l'erreur, la responsabilité pourra facilement être attribuée à l'utilisateur ou au fabricant. D'autant plus que l'IA gardera en mémoire la chronologie des faits. Si, par contre, c'est l'IA qui est à l'origine des défaillances, prendra-t-on l'option de condamner des personnes juridiques qui ne sont pas réellement responsables, ou bien se retournera-t-on vers le concepteur ?

Des pays comme l'Estonie étudient la notion de robot agent. Ce pays souhaite effectivement donner aux robots et à l'intelligence artificielle un statut légal, à mi-chemin entre celui de l'homme et celui de l'objet, qui aurait donc une responsabilité nuancée... Une approche qui peut être intéressante.

On pourra objecter que les IA ne peuvent être sanctionnées comme peut l'être un humain. En effet, elles ne possèdent aucun patrimoine. Mais, là également, de nombreux humains sont à l'origine de dommages dépassant de loin leur patrimoine économique, c'est d'ailleurs la raison de l'existence de systèmes assurantiels obligatoires mutualisant ces risques. Un constructeur d'IA aura tout intérêt à fournir des IA très fiables puisque celui-ci paiera des primes d'assurances inférieures à celles de ses concurrents et les IA seront ainsi moins chères à exploiter. De plus, chaque accident pourra être analysé et faire l'objet de corrections. L'exemple de l'apport des boîtes noires des avions commerciaux démontre que cette approche permet de réduire fortement le nombre d'accidents.

Toutes les prévisions montrent que la décennie à venir verra se multiplier les systèmes d'IA. Le droit va devoir s'adapter pour créer un système de responsabilité civile qui établira des personnes juridiques assurables, comme le sont les personnes morales. Ensuite, les systèmes d'homologations et les mécanismes de marché pousseront les constructeurs à développer des systèmes d'IA de plus en plus fiables.

D'ores et déjà dans certains domaines d'expertise avancée, les performances des IA ont dépassé celles des humains et cette accélération devrait se poursuivre. Le droit devra s'adapter en trouvant le bon équilibre entre homologation, création d'une personnalité responsable - et donc assurable - répartition de la responsabilité entre les différents acteurs au cas par cas et mutualisation des risques importants. Un champ d'exploration du droit qui s'avère passionnant, sans même évoquer la naissance future d'une forme de conscience artificielle.

Clémence Bossée-Pilon et Ingrid Francoz, étudiantes en dernière année à l'EDHEC Business School, LLM Law & Tax Management

Chronique « Droit, Juriste et Pratique du Droit Augmentés »

Cette chronique a pour objectif, de traiter de questions d'actualité relatives à cette transformation. Dans un contexte où le digital, le big data et le data analytics, le machine learning et l'intelligence artificielle transforment en profondeur et durablement la pratique du droit, créantdes « juristes augmentés » mais appelant aussi un « Droit augmenté » au regard des enjeux et des nouveaux business models portés par le digital.
L'EDHEC Business School dispose de deux atouts pour contribuer aux réflexions sur ces sujets. D'une part, son centre de recherche LegalEdhec, dont les travaux – reconnus – à l'intersection entre le droit et la stratégie, et portant sur le management des risques juridiques et la performance juridique, l'amènent aujourd'hui à lancer son nouveau projet A3L (Advanced Law, Lawyers and Lawyering). D'autre part, ses étudiants, et en particulier ceux de sa Filière Business Law and Management (en partenariat avec la Faculté de droit de l'Université Catholique de Lille) et de son LLM Law & Tax Management, dont la formation et les objectifs professionnels les placent au cœur de ces enjeux du digital.

(1) Site du Parlement européen europarl.europa.eu
(2) https://www.actuia.com/actualite/plus-de-200-experts-en-ia-et-robotique-signent-une-lettre-ouverte-pour-que-lue-fixe-un-cadre-juridique
(3) Voir https://www.presse-citron.net/intelligence-artificielle-la-machine-supplante-les-dermatologues-dans-la-detection-de-cancers-de-la-peau/
(4) https://www.lesechos.fr/17/04/2018/lesechos.fr/0301576925662_une-lettre-ouverte-pour-refuser-la---responsabilite-juridique---des-robots.htm




Ses derniers articles

Abonnez-vous à l'offre Papier + Numérique

Affiches Parisiennes Journal d'information juridique et d'annonces légales

  • ›   Pour plus de contenu, papier + web
  • ›   l’accès aux annonces légales,
  • ›   l’accès aux ventes aux enchères.
Je m'abonne

À lire également


Réagir à cet article

Message déjà envoyé Adresse e-mail non valide


Fermer
En poursuivant votre navigation sur ce site, vous acceptez l'utilisation de cookies et de technologies similaires par notre société ainsi que par des tiers, afin de réaliser des statistiques d'audiences et de vous proposer des services éditoriaux et la possibilité de partager des contenus sur des réseaux sociaux. En savoir plus / paramétrer