AccueilDroitActualité du droit« Justice prédictive » et Europe

« Justice prédictive » et Europe

Le développement des nouvelles technologies a permis l’apparition d’outils performants ouvrant l’accès à des conseils juridiques rapides et à moindre coût.
« Justice prédictive » et Europe
© Edhec

DroitActualité du droit Publié le , Eva Lee et Garance Saint Pol, étudiantes au sein du LL.M. Law and Tax Management, EDHEC Business School

Ainsi, la perspective prometteuse d’obtenir une réponse quasi-immédiate prédisant l’issue d’un litige a conduit à l’apparition d’applications telles qu’ « IndemnCalcul », offrant aux particuliers la possibilité de calculer l’indemnisation de leurs divers préjudices et participant dès lors à l’engouement autour de ce que certains qualifient de « justice prédictive ». Le terme de « justice prédictive » a d’ailleurs été défini par le rapport Cadiet, remis en 2017 à la Chancellerie, comme un « ensemble d’instruments développés grâce à l’analyse de grandes masses de données de justice qui proposent, notamment à partir d’un calcul de probabilités, de prévoir autant qu’il est possible l’issue d’un litige »[1].Autrement dit, pour le professeur Bruno Dondero, « c’est tenter de prédire avec le moins d’incertitude possible ce que sera la réponse de la juridiction X quand elle est confrontée au cas Y »[2]. Le CNB (Conseil National des Barreaux) préfère d’ailleurs le concept de « jurimétrie » ou de « justice simulative »[3].

Face à l’essor des outils de justice prédictive en Europe, de nombreuses questions relatives à leur environnement juridique se posent. En effet, le débat se porte aujourd’hui non plus sur leur utilisation mais sur la manière de les utiliser. Il s’agit pour les institutions européennes de tenter de concilier les objectifs de la justice et l’utilisation de ces nouveaux outils, notamment ceux liés à l’intelligence artificielle. Comme l’a précisé, la vice-présidente de la Commission européenne chargée de la politique numérique, Margrethe Vestager, dans le cadre du Forum européen sur l’intelligence artificielle en date du 30 juin 2020[4], si l’intelligence artificielle « est développée et utilisée correctement, elle peut faire des miracles, tant pour notre économie que pour notre société, mais elle peut aussi « faire du mal ».

La réglementation européenne entourant actuellement la justice prédictive se concrétise autour de la Directive Police-Justice et de la Charte éthique pour l’utilisation de l’intelligence artificielle dans le système judiciaire. Mais l’utilisation de l’intelligence artificielle connaissant un fort développement, les risques persistants auront vocation à être encadrés par l’Artificial Intelligence Act. Un exemple intéressant des enjeux de l’utilisation de l’intelligence artificielle dans les décisions de justice est celui du logiciel français « DataJust ».

La réglementation européenne : un outil accompagnant le développement de la justice prédictive

Si l’Union Européenne souhaite attirer plus de 20 milliards d’euros d’investissements annuels dans l’intelligence artificielle au cours de cette décennie[5], elle encadre son développement dans le domaine de la justice. Le Conseil de l’Europe s’attache quant à lui à formuler un cadre éthique à son développement.

La Directive Police-Justice

En 2016, le Parlement européen et le Conseil de l'Union Européenne ont adopté la directive
n° 2016/680 relative à la protection des personnes physiques à l'égard du traitement des données à caractère personnel par les autorités compétentes (aussi appelée « Directive Police-Justice »). Cet acte juridique complète le Règlement général sur la protection des données (ci-après « RGPD »), non-applicable en matière de systèmes judiciaires nationaux, et impose la transposition nationale de différentes obligations pesant sur les « autorités publiques compétentes pour la prévention et la détection des infractions pénales, les enquêtes et les poursuites en la matière ou l'exécution de sanctions pénales, y compris la protection contre les menaces pour la sécurité publique et la prévention de telles menaces ».

Certaines des obligations présentes dans la Directive Police-Justice sont identiques à celles imposées par le RGPD, comme la mise en œuvre de la protection des données dès la conception (c'est-à-dire dès la détermination des moyens du traitement) et par défaut (c’est-à-dire par la réduction de l’accessibilité des données à un nombre déterminé de personnes)[6], la tenue d'un registre des activités de traitement[7], la réalisation d'une analyse d'impact relative à la protection des données[8] ou encore la désignation d'un délégué à la protection des données[9]. Cependant, certaines obligations sont spécifiques à la Directive Police-Justice, comme l'obligation de faire une distinction claire entre les différentes catégories de personnes concernées (personnes condamnées, témoins, victimes)[10]. Enfin, la Directive Police-Justice garantit aux personnes concernées un droit à l'information[11], un droit d'accès[12] et un droit de rectification et d'effacement des données personnelles[13], ces droits pouvant être soumis à des limitations[14].

La Charte éthique pour l’utilisation de l’intelligence artificielle dans le système judiciaire

En 2018, pour compléter les dispositions de la Directive Police-Justice, le Conseil de l'Europe a établi la première Charte éthique pour l'utilisation de l'intelligence artificielle dans le système judiciaire. Cette charte énonce cinq principes éthiques : le respect des droits fondamentaux, la non-discrimination des individus, la garantie de la qualité et de la sécurité lors du traitement des décisions et des données judiciaires, la transparence, l'impartialité et l'équité du traitement des données et le contrôle des utilisateurs. Ainsi, elle fournit un cadre aux acteurs de la justice pour le traitement des applications de l'intelligence artificielle dans les processus judiciaires nationaux.

L’utilisation de l'intelligence artificielle dans le processus d’établissement des décisions de justice nécessite donc un encadrement, tant légal qu’éthique, que les institutions européennes tentent de mettre en place. Cependant, l’utilisation de cette technologie étant nouvelle, il est nécessaire d’évoquer les limites et les perspectives de la justice prédictive en Europe.

Limites et perspectives de la justice prédictive en Europe

C’est à l’aune des critiques formulées à l’égard de la justice prédictive qu’il convient d’en percevoir les possibles perspectives.

Les limites et critiques de l’utilisation de l’intelligence artificielle dans la justice

Selon Xavier Ronsin[15], remplacer les juges par des robots relève de la science-fiction et envisager d’« entrer dans la tête d’un juge est un mythe qu'il faut oublier » car un juge se prononce avant tout sur un dossier. Ainsi, compte tenu des particularités de chaque dossier, « c’est un leurre d’imaginer que l’intelligence artificielle va contraindre la solution du juge »[16]. En effet, la dénomination de « justice prédictive » est remise en cause par certains acteurs en France et plus généralement en Europe. Selon une pensée majoritaire, les intelligences artificielles développées dans le domaine de la justice permettent de quantifier les faits et leurs conséquences plutôt que de prédire les solutions au litige. Il est alors admis que la pensée du juge ne peut être modélisée mathématiquement. Aussi, par définition, concernant l'uniformisation induite par la justice prédictive, si cette dernière a des effets intéressants en termes d'égalité devant la loi, elle serait en contradiction avec le principe d'individualisation des peines, reconnu par le Conseil constitutionnel [17].

Enfin, au-delà de l’efficacité du recours à l’IA, de nombreuses questions relatives au non-respect des droits fondamentaux par les outils de justice prédictive se posent. Cette réticence à utiliser l’intelligence artificielle dans la justice a notamment été marquée par l’approbation, par les membres du Parlement européen, du rapport de la Commission des libertés civiles, de la justice et des affaires (LIBE) qui demandait l’interdiction de l’utilisation de l’intelligence artificielle dans la justice pénale[18]. En effet, ce rapport démontre que l’utilisation de l’intelligence artificielle dans la matière pénale est susceptible de mener à des discriminations. L’interdiction d’une telle pratique s’inscrit donc dans un objectif de protection des droits de l’homme, protection devant concilier le droit à un procès équitable, le droit à la vie privée et l’adaptation aux nouvelles technologies.

Vers une transparence plus importante de la justice prédictive en Europe : L’Artificial Intelligence Act[19]

L'Artificial Intelligence Act, règlement européen dont le dernier projet a été proposé le 21 avril 2021, a pour objectif de permettre aux utilisateurs de comprendre le fonctionnement des systèmes d'intelligence artificielle et d'être en mesure d’avoir accès aux éléments qui influencent leurs résultats.

Ce règlement expose 4 catégories de risque pour les systèmes d'intelligence artificielle. L’intelligence artificielle utilisée par les juges, notamment pour la détermination de la peine, est classée au niveau de risque élevé et doit donc se conformer à des exigences plus strictes. En effet, pour les systèmes à risque élevé, des normes de qualité et de sécurité s'appliquent, telles que la traçabilité de l'utilisation de la technologie[20], la transparence vis-à-vis des utilisateurs[21] et la nécessité d'un contrôle humain[22]. Ils doivent également « atteindre un niveau approprié de précision, de robustesse et de cybersécurité »[23]. Chaque fournisseur de système d’intelligence artificielle devra l’enregistrer officiellement dans une base de données de l'Union Européenne après une évaluation de sa conformité[24] et les sanctions sont sévères (30 millions d'euros ou 6 % du chiffre d'affaires) en cas de non-respect des règles relatives aux pratiques interdites ou à l'utilisation des données.

L'un des autres aspects de ce règlement est la mise en place d'une coopération entre les États. D'une part, la règlementation des États doit être harmonisée ; d'autre part, la Commission européenne préconise le développement d'une expertise européenne sur les différents systèmes d'intelligence artificielle qui seront utilisés dans le domaine de la justice, avec des enquêtes impartiales et complètes de l'Union européenne sur les systèmes que les pays envisagent d'utiliser.

Le développement de l’utilisation de l’intelligence artificielle dans la détermination des décisions de justice nécessite un encadrement européen qui a vocation à se développer face aux limites qu’elle présente. En France, un algorithme a été développé afin de prédire les peines encourues concernant la réparation d’un préjudice corporel.

L’exemple français : Datajust, un outil de justice prédictive en matière de préjudice corporel

Présentation de Datajust

Le ministère de la Justice français a créé, par le décret n°2020-356 du 27 mars 2020, pris après avis de la CNIL, un logiciel de traitement automatisé de données à caractère personnel dénommé
« DataJust ». Plus précisément, il s'agit d'un algorithme qui pourrait extraire et exploiter automatiquement les données contenues dans les décisions de justice relatives à la réparation du préjudice corporel en identifiant le montant demandé et offert par les parties, les évaluations proposées dans les procédures de résolution amiable des litiges et le montant effectivement alloué aux victimes par les tribunaux. DataJust a quatre objectifs principaux :

  1. Pour les pouvoirs publics : la réalisation d'évaluations rétrospectives et prospectives des politiques publiques en matière de responsabilité civile ou administrative ;
  2. Pour le public : l'élaboration d'un référentiel indicatif d'indemnisation du préjudice corporel ;
  3. Pour les victimes : la fourniture d'éléments permettant une information et une aide à l'évaluation du montant de leur indemnisation ; et
  4. Pour les juges : le recueil des informations et documents nécessaires pour leur permettre d'évaluer le montant de l'indemnisation au moment de leur décision.

Afin d'instaurer progressivement la confiance des juges et des justiciables envers l’utilisation de l’intelligence artificielle dans le prononcé des peines, le développement de l’algorithme a été confié à la Cour de cassation, qui peut mettre en place des dispositifs de contrôle adaptés et accompagner les juges dans son utilisation.

Les enjeux de Datajust

Concernant la légalité de cet outil, DataJust semble ouvrir la voie à un recours systématique à la jurisprudence comme fondement de la décision, malgré la hiérarchie fondamentale des normes en droit français. S'il n'est pas contestable que la jurisprudence soit une source de droit, elle n'est cependant pas contraignante. Dans le cas particulier du droit du dommage corporel, dont le corpus normatif est rédigé en termes généraux, c'est précisément son adaptation par les juges qui garantit l'équité. Aussi, la systématisation du recours aux « précédents » jurisprudentiels constitue également, par l'inertie qu'elle provoque, un obstacle important au travail créatif des juges qui sont, par ailleurs, tenus de motiver leurs décisions.

Par ailleurs, le principe de la réparation intégrale et son corollaire, l'appréciation in concreto, exigent que chaque victime soit prise en considération individuellement afin d'évaluer ses préjudices, en tenant compte de sa personnalité et de son environnement.

Finalement, alors que le Conseil d’État a validé le logiciel[25], le gouvernement semble mettre fin à son expérimentation pour cause notamment d’une base de données qui serait biaisée du fait d’une absence des décisions de première instance[26], illustrant une nouvelle limite à la justice prédictive.

Pour conclure, le secrétaire général de l’Institut des hautes études sur la justice (IHEJ) résume tout l’enjeu de la justice prédictive. Selon lui, si le numérique ne livre pas des décisions de justice, il apporte des solutions et constitue « un remède à la lenteur de la justice » tout en favorisant l’accès à la justice et à l’information. Mais, prévient-il, « il y a un pas à ne pas franchir » qui serait un « usage performatif »[27].

Chronique « Droit, Juriste et Pratique du Droit Augmentés »

Cette chronique a pour objectif, de traiter de questions d'actualité relatives à cette transformation. Dans un contexte où le digital, le big data et le data analytics, le machine learning et l'intelligence artificielle transforment en profondeur et durablement la pratique du droit, créant des « juristes augmentés » mais appelant aussi un « Droit augmenté » au regard des enjeux et des nouveaux business models portés par le digital.

Avec son Augmented Law Institute, l'EDHEC Business School dispose d'un atout majeur pour positionner les savoirs, les compétences et la fonction du juriste au centre des transformations de l'entreprise et de la société. Il se définit autour de 3 axes de développement stratégiques : son offre de formations hybrides, sa recherche utile à l'industrie du droit, sa plateforme de Legal Talent Management. https://www.edhec.edu/fr/ledhec-augmented-law-institute



[1] Rapport « L’open data des décisions de justice », remis par Loïc Cadiet à Madame la garde des Sceaux, ministre de la justice, novembre 2017, http://www.justice.gouv.fr/publication/open_data_rapport.pdf

[3]https://www.lemondedudroit.fr/decryptages/72373-cnb-preconisations-actions-legaltech-jurimetrie.html. Voir également C. Roquilly, « Justice prédictive, entre séduction et répulsion », The Conversation, 2019, http://theconversation.com/justice-predictive-entre-seduction-et-repulsion-122805

[6] Article 20 de la Directive n° 2016/680, Directive Police-Justice

[7] Article 24 de la Directive n° 2016/680, Directive Police-Justice

[8] Article 27 de la Directive n° 2016/680, Directive Police-Justice

[9] Article 32 de la Directive n° 2016/680, Directive Police-Justice

[10] Article 6 de la Directive n° 2016/680, Directive Police-Justice

[11] Article 13 de la Directive n° 2016/680, Directive Police-Justice

[12] Article 14 de la Directive n° 2016/680, Directive Police-Justice

[13] Article 17 de la Directive n° 2016/680, Directive Police-Justice

[14] Article 15 de la Directive n° 2016/680, Directive Police-Justice

[15] Premier Président de la Cour d'appel de RENNES et expert auprès de la Commission européenne pour l'efficacité de la justice

[16] Cité par S. Bridier, « Les récents pas de l’intelligence artificielle dans le domaine de la justice », 0ctobre 2020, https://www.editions-legislatives.fr/actualite/les-recents-pas-de-l’intelligence-artificielle-dans-le-domaine-de-la-justice

[17] Conseil Constitutionnel décision n°2005520

[20] Article 12 de l’Artificial Intelligence Act

[21] Article 13 de l’Artificial Intelligence Act

[22] Article 14 de l’Artificial Intelligence Act

[23] Article 15 de l’Artificial Intelligence Act

[24] Articles 51 et 60 de l’Artificial Intelligence Act

[25] Conseil d'État, 30 décembre 2021, n° 440376 (https://www.conseil-etat.fr/fr/arianeweb/CE/decision/2021-12-30/440376)

[26] M. Lahana, « Datajust ou l’algorithmisation du dommage corporel : retour sur la décision du Conseil d’Etat », Le Village de la Justice, 29 mars 2022, https://www.village-justice.com/articles/validation-datajust-par-conseil-etat-reserve,41986.html

Partager :
Abonnez-vous
  • Abonnement intégral papier + numérique

  • Nos suppléments et numéros spéciaux

  • Accès illimité à nos services

S'abonner
Journal du 20 mai 2022

Journal du20 mai 2022

Journal du 13 mai 2022

Journal du13 mai 2022

Journal du 06 mai 2022

Journal du06 mai 2022

Journal du 30 avril 2022

Journal du30 avril 2022

S'abonner
Envoyer à un ami
Connexion
Mot de passe oublié ?