Fermer la publicité
Journal d'information juridique et d'annonces légales

IA et algorithmes prédictifs dans le processus décisionnel pénal

le - - Droit - Actualité du droit

IA et algorithmes prédictifs dans le processus décisionnel pénal
@ DR

« Prédire les décisions de justice est depuis toujours l'objectif de tout avocat et de tout universitaire consultant. Qui se tourne vers l'un ou l'autre de ces acteurs attend d'eux, avec plus ou moins d'espoir, une prescience de la jurisprudence » explique Bruno Dondero.

Craints ou espérés, les algorithmes prédictifs sont régulièrement présentés comme de futurs outils indispensables au droit, et en particulier au contentieux. S'ils sont encore actuellement en phase de développement, nul doute qu'ils seront à l'avenir une composante majeure du processus juridictionnel.

Avant toute chose, il est essentiel – le sujet est technique – de préciser ce dont il est question. Ces algorithmes sont des programmes informatiques exécutant instantanément une succession de calculs mathématiques afin d'analyser et de donner un sens à une myriade de données. Appliqués au contentieux, ils permettent de recenser les décisions de justice, de les classer par mots-clefs et solutions, et ainsi d'anticiper le sens d'une décision future, en s'appuyant notamment sur les faits et la jurisprudence.

En matière pénale, ces algorithmes, et notamment ceux de machine learning, permettent une certaine dose de prédiction. En effet, l'intelligence artificielle, par le biais d'instruments dits de « vérification du risque » (risk assessment tools)[1] facilite l'évaluation des probabilités de récidive d'une conduite délinquante ou criminelle par une personne soumise à une privation de liberté. Si ces algorithmes prédictifs ne sont pas encore très répandus en France, ils sont régulièrement utilisés depuis quelques années aux États-Unis et ont commencé à se développer au Royaume-Uni.

Sans pour autant minimiser l'impact des algorithmes prédictifs dans les autres contentieux, le débat quant à leur utilisation revêt un intérêt tout particulier en matière pénale, les libertés individuelles en jeu rendant le sujet explosif.

IA, outil contre la subjectivité du juge

L'un des premiers arguments, a priori positif, en faveur des algorithmes dans le processus décisionnel pénal est le fait qu'ils permettent de remédier à la part de subjectivité du juge dans les jugements. En effet, comment expliquer aujourd'hui qu'un même dossier, avec des circonstances identiques, puisse donner lieu à des traitements différents en fonction du magistrat en charge ? Les décisions de justice sont supposées ne reposer que sur l'application de lois à des faits. Néanmoins, il apparaît que des facteurs politiques et sociaux, ainsi que psychologiques, extérieurs au dossier mais liés au juge, puissent naturellement biaiser la décision finale qui sera rendue sans même que le professionnel n'en soit conscient. La fatigue, la lassitude et la charge de travail font notamment partie de ces facteurs. En effet, une enquête du syndicat de la magistrature réalisée en mai 2019[2] met en avant une surcharge de travail réduisant notamment le temps alloué à la réflexion pour chaque dossier et laissant une part accrue à la fatigue.

Par ailleurs, une étude publiée en 2015 dans les Proceedings of the National Academy of Sciences a pris au pied de la lettre l'idée reçue selon laquelle la justice reflète « ce que le juge a mangé au petit-déjeuner ». Cette étude s'est basée sur 1112 décisions rendues sur 50 jours sur une période de 10 mois par huit juges issus de deux tribunaux d'application des peines en matière de demande de libération conditionnelle en Israël. Le premier constat est que la décision par défaut est le refus (65% des décisions environ). L'étude se basant sur une journée de délibérations en trois séances de décisions postérieures au petit-déjeuner, à la pause matinale et à la pause déjeuner, les auteurs ont comparé la proportion des demandes acceptées par rapport au temps écoulé depuis la récente pause. Ils ont constaté que « la tendance aux décisions favorables est plus forte au tout début de la journée ou après une pause repas que plus tard au cours d'une séance d'affaires »[3]. En effet, après chaque pause, 65% des demandes sont acceptées alors que pendant les deux heures qui séparent de la pause suivante, le pourcentage d'acceptation baisse systématiquement pour être proche de zéro à la fin.

Ces différents facteurs, indépendants de la volonté du juge mais intrinsèques à l'humain, ont une influence importante sur l'issue du dossier, ce qui peut avoir un véritable impact sur les individus concernés. On comprend alors que l'intelligence artificielle apparaisse comme la solution pour soutenir les magistrats et lutter contre ces biais cognitifs qui interfèrent dans leur raisonnement. L'algorithme, en analysant les faits de l'espèce et en les comparant à la jurisprudence, permettra une uniformité des décisions rendues et un gain de temps considérable.

Malgré tout, vouloir annihiler la subjectivité du juge au sein du processus décisionnel est-il souhaitable ? Au regard des risques d'erreur et des libertés individuelles en jeu, le juge a un rôle fondamental à jouer quant à l'individualisation de la peine. Pour des faits similaires, chaque affaire est différente et le juge reste le seul à en percevoir les nuances. Ceci reste le meilleur pare-feu à une justice expéditive et déshumanisée.

Quelle objectivité pour l'IA ?

Intégrer l'intelligence artificielle dans le processus décisionnel permettra de réduire certaines disparités, parfois peu comprises, entre des décisions rendues pour des faits similaires. Néanmoins, l'argument régulièrement avancé par les partisans de l'IA selon lequel les algorithmes permettent un traitement objectif des dossiers est à prendre avec précaution. Leur argument est le suivant : les algorithmes, fondés uniquement sur un traitement statistique de données relatives aux infractions passées et aux personnes concernées (sexe, âge, profession, etc.), sont insensibles aux préjugés et sentiments que peuvent éprouver les humains. En ce sens, la solution proposée par l'algorithme ne prend en compte que les faits et le droit, et est donc plus impartial. Or, cet argument ignore les biais sociétaux et raciaux, bien souvent incorporés aux données elles-mêmes.

Admettons que la présence policière et les contrôles soient plus importants pour certaines communautés que pour d'autres. Il va de soi que les antécédents déviants des personnes faisant partie de ces communautés seront plus nombreux que là où il n'y a pas eu de contrôle. C'est ce qui ressort de l'enquête menée et publiée en 2016 par ProPublica[4], journal d'investigations américain, à propos de l'instrument de vérification du risque COMPAS (Correctional Offender Management Profiling for Alternative Sanctions), utilisé par plusieurs États nord-américains. L'IA, en analysant des données issues de juridictions présentant un biais, sans pour autant que ce dernier soit pris en compte dans ses calculs, répète ces biais et renforce leurs effets discriminatoires et déterministes. A terme, ces algorithmes prédictifs pourraient donc avoir pour conséquence de légitimer, voire d'accentuer, des injustices déjà existantes dans notre société.

Se pose également la question de la transparence de ces algorithmes.

En matière pénale, la motivation d'une décision a un double intérêt. Elle permet d'abord à la personne qui se voit imposer une peine de se la voir expliquer et de la comprendre, mais elle oblige également la personne qui prend la décision à la rigueur d'un raisonnement et à la pertinence de motifs dont elle doit pouvoir rendre compte. C'est ce dernier point qui nous intéresse ici. Un magistrat, un policier ou tout intervenant prenant une décision ayant des conséquences sur les libertés individuelles d'une personne doit être en capacité d'expliquer les raisons qui l'ont poussé à prendre cette décision.

Aujourd'hui, une fois l'algorithme élaboré, nous ne sommes pas en mesure de connaître, et encore moins d'expliquer, les tenants et les aboutissants d'une solution proposée par l'IA. L'algorithme a-t-il eu une compréhension correcte des faits de l'espèce ? Quelles sont les décisions passées sur lesquelles il s'est appuyé et ont-elles vraiment un lien de proximité avec l'espèce jugée ? Autant de questions auxquelles personne ne peut répondre. Comment accepter d'appliquer, et de se voir imposer, une décision dans ces circonstances ? Cela soulève des questions en matière de responsabilité.

IA et magistrat, tandem ou opposés ?

La meilleure solution reste alors une « collaboration » entre l'IA et le juge. La machine doit n'être qu'une aide et une façon de gagner du temps pour le juge qui prend sa décision finale de façon indépendante. La solution apportée par l'IA doit donc être interprétée à la lumière des spécificités de l'espèce. Néanmoins, plusieurs auteurs se sont intéressés au sujet et ont mis en avant différentes problématiques.

Delphine Iweins évoque tout d'abord le fait que les magistrats ont déjà dénoncé le risque du manque d'indépendance de la justice face aux algorithmes[5]. Certains craignent notamment de se sentir tenus de suivre l'avis de la machine sans pour autant le partager, de crainte d'être pointé du doigt pour leur sévérité ou leur laxisme s'ils ne tiennent pas compte des statistiques dans leurs décisions. Ce risque de conformisme est mis en évidence par Christophe Roquilly qui s'interroge sur le fait que le recours à l'IA puisse « contraindre le juge à se ranger à une pensée dominante pour être bien noté, créant alors une culture du conformisme et de l'inertie »[6]. Delphine Iweins met également en avant un autre danger de l'utilisation des algorithmes prédictifs dans le processus décisionnel qui réside dans l'« effet performatif »[7]. En effet, le fait d'avancer un résultat contribue à son avènement. Si les juges sont tentés de s'aligner sur l'algorithme, alors ces nouvelles décisions conformes aux précédentes viendront elles-mêmes nourrir l'algorithme de machine learning. Sur le long terme, on pourrait voir apparaitre une harmonisation de la jurisprudence. Cette tendance à reproduire le passé qui tend, in fine, à figer le droit, est en totale opposition avec la nécessité de le faire évoluer, en accord avec les nouveaux besoins de la société.

Enfin, François Guéranger dans son article « Réflexions sur la justice prédictive »[8], souligne que le recours aux algorithmes dans les décisions soulève la question du rôle de l'appel. En effet, si le même algorithme est à la fois utilisé en première instance et en appel, les deux décisions seront automatiquement identiques. Le principe de l'appel s'en trouverait alors vidé de toute signification[9]. Il faudrait doter la juridiction d'appel d'un second algorithme, la cour suprême d'un troisième et la juridiction de renvoi d'un algorithme encore différent. Cependant, si l'ensemble de ces algorithmes remplissent leur objectif d'éviter que deux décisions différentes soient rendues dans des espèce similaires, les quatre décisions rendues seront les mêmes, rendant ainsi les principes de l'appel et de la cassation illusoires. Comment parvenir à surmonter cette difficulté ? Faut-il autoriser les algorithmes en première instance mais les proscrire pour les juridictions supérieures ?

Toutes ces questions nous laissent penser que, de nos jours, l'utilisation de l'IA dans le processus décisionnel est critiquée et en pleine évolution. L'usage que les professionnels du droit et l'État souhaitent attribuer aux algorithmes reste à déterminer précisément. Néanmoins, il ne fait nul doute que dans un futur plus ou moins proche, les techniques et logiciels vont évoluer et finiront par jouer un rôle important dans la décision de justice.

[1] « Intelligence artificielle et procès pénal, Quelle utilisation de l'IA dans le procès pénal en Europe ? » Clementina Barbaro, 30 juillet 2018, Les Temps Électriques, https://lestempselectriques.net/index.php/2018/07/30/intelligence-artificielle-et-proces-penal/

[2] Syndicat de la Magistrature, L'envers du décor : Enquête sur la charge de travail dans la magistrature, mai 2019, http://www.syndicat-magistrature.org/IMG/pdf/l_envers_du_decor.pdf

[3] « Qu'a mangé le juge à son petit-déjeuner ? De l'impact des conditions de travail sur la décision de justice », Shai Danziger, Jonathan Levav et Liora Avnaim-Pesso, Traduit de l'anglais dans Les Cahiers de la Justice, n°4, 2015

On pourra se référer également à l'ouvrage relatif aux biais cognitifs du Prix Nobel d'économie 2002, Daniel Kahneman, Système 1 Système 2, Les deux vitesses de la pensée, Flammarion, p.56.

[4] « Machine Bias », Julia Angwin, Jeff Larson, Surya Mattu et Lauren Kirchner, ProPublica, 23 Mai 2016, https://www.propublica.org/article/machine-bias-risk-assessments-in-criminal-sentencing

[5] « La justice prédictive, nouvel allié des professionnels du droit ? », Delphine Iweins, Rédaction Lextenso, Gazette du Palais, 2017, n°1, - n°01- p. 5

[6] « Justice prédictive, entre séduction et répulsion », Christophe Roquilly, The Conversation, 2019, http://theconversation.com/justice-predictive-entre-seduction-et-repulsion-122805

[7] Voir « La justice prédictive, nouvel allié des professionnels du droit ? », Delphine Iweins, déjà cité.

[8] « Réflexions sur la justice prédictive », François Guéranger, Gazette du Palais, 2018, n°13, p. 15




Ses derniers articles

Abonnez-vous à l'offre Papier + Numérique

Affiches Parisiennes Journal d'information juridique et d'annonces légales

  • ›   Pour plus de contenu, papier + web
  • ›   l’accès aux annonces légales,
  • ›   l’accès aux ventes aux enchères.
Je m'abonne

À lire également


Réagir à cet article

Message déjà envoyé Adresse e-mail non valide


Fermer
En poursuivant votre navigation sur ce site, vous acceptez l'utilisation de cookies et de technologies similaires par notre société ainsi que par des tiers, afin de réaliser des statistiques d'audiences et de vous proposer des services éditoriaux et la possibilité de partager des contenus sur des réseaux sociaux. En savoir plus / paramétrer