Fermer la publicité
Journal d'information juridique et d'annonces légales

Intelligence artificielle et processus de recrutement

le - - Droit - Actualité du droit

Intelligence artificielle et processus de recrutement
© DR

La crise sanitaire liée à l'épidémie de Covid-19 a obligé les départements de Ressources Humaines des entreprises à revoir leur processus de recrutement. Dans un tel contexte, les recruteurs ont dû recourir à des processus en ligne utilisant notamment l'intelligence artificielle (IA).

Il existe plusieurs utilisations de l'IA dans les processus de recrutement. Tout d'abord, certains systèmes d'intelligence artificielle peuvent rechercher ou trier en ligne des CV et des profils potentiels en fonction de caractéristiques spécifiques (Screening)[1]. De plus, l'IA peut également être utilisée dans le cadre d'entretiens (entretien en ligne avec analyse du langage corporel non verbal par exemple). Enfin, via l'utilisation de chatbots qui permettent des réponses immédiates aux questions des candidats[2]. L'utilisation de l'IA au sein des entreprises est en nette croissance, car elle permet un réel gain de temps pour les recruteurs. De plus, la finesse et la pertinence de sélection de l'IA s'est accrue considérablement et permet donc de recruter un personnel réellement adéquat.

Néanmoins, de nombreux acteurs se sont vite aperçus du potentiel discriminatoire de l'IA. En effet, l'IA se base parfois sur des données pouvant véhiculer des stéréotypes que les algorithmes intègrent… et reproduisent (machine learning). Les entreprises doivent donc être prudentes lorsqu'elles utilisent ce genre d'outils dans leurs processus d'embauche. Il est intéressant de relever l'état actuel de la réglementation concernant l'utilisation de l'IA dans les processus de recrutement. Notre propos se concentrera uniquement sur le secteur privé.

Une IA encadrée par un dispositif législatif visant à lutter contre les discriminations

La législation de l'UE visant à lutter contre la discrimination à l'embauche est l'une des plus complètes au monde et vient donc logiquement s'appliquer à l'IA.

La France fut un pays précurseur dans ce domaine. Dès 1946, le préambule de la Constitution a consacré le principe de non-discrimination durant les recrutements. Élargie au niveau européen, cette lutte contre la discrimination visait initialement à protéger les femmes. Ainsi, l'article 119 du traité de Rome (1957) dispose que : " Chaque État membre assure au cours de la première étape, et maintient par la suite, l'application du principe de l'égalité des rémunérations entre les travailleurs masculins et les travailleurs féminins pour un même travail.".

Principe maintes fois réaffirmé depuis les années 70, treize textes ont été adoptés pour en garantir son application. Pour n'en citer que deux : la directive européenne 76/207/CEE du 9 février 1976 garantissant l'égalité d'accès à l'emploi, à la formation ou à la promotion professionnelle entre les hommes et les femmes ainsi que la directive européenne 92/85/CEE du 1er octobre 1992 protégeant la santé et la sécurité des femmes enceintes sur le lieu de travail.

Ce n'est qu'en 2000 que l'UE a étendu sa protection à d'autres discriminations du monde professionnel. Il convient de rappeler deux directives principales : d'une part, la directive 2007/78/CE du Conseil du 27 novembre 2000 portant création d'un cadre général en faveur de l'égalité de traitement en matière d'emploi et de travail et, d'autre part, la directive 2000/43/CE du Conseil du 29 juin 2000 relative à la mise en œuvre du principe de l'égalité de traitement entre les personnes sans distinction de race ou d'origine ethnique. En vertu de ces nouvelles dispositions, il devient illégal de discriminer un individu en raison de son origine raciale ou ethnique, de sa religion ou de ses convictions, d'un handicap, de son orientation sexuelle ou de son âge.

Cependant, ces réglementations établies pour prévenir les inégalités de traitement au sein des recrutement n'ont pas été conçues pour s'appliquer spécifiquement à l'IA. Pour Philipp Hacker "La discrimination par algorithmes pose des questions complexes concernant l'applicabilité et l'application de la législation antidiscriminatoire traditionnelle"[3]. La législation antidiscriminatoire actuelle - qu'il s'agisse du droit communautaire ou du droit français - n'est pas bien équipée pour traiter les cas de discrimination découlant de l'utilisation de l'IA.

En effet, les méthodes de sélection et les critères de recrutement de l'IA utilisent des approches novatrices qui engendrent de nouvelles formes de discrimination. Parfois complexes à repérer, les recruteurs communiquent de surcroît peu sur leur fonctionnement. On a ainsi pu voir émerger un nouveau type de discrimination plus difficilement perceptible.

Prenons l'exemple de l'entreprise Xerox. En 2015, afin de minimiser le turnover de ses employés, l'entreprise avait implémenté une solution de recrutement prédictif calculant le taux de longévité d'un candidat au sein de la société. Sur la base d'un historique de données, l'algorithme avait déterminé qu'un facteur favorable au taux de longévité était le lieu de résidence du candidat. Dès lors, l'I.A a commencé à écarter les individus issus de quartiers populaires. Faisant parti de quartiers excentrés, ces candidats avaient tendance à faire de plus longs trajets, ce que l'algorithme avait considéré comme un facteur défavorable.

Contrairement aux biais connus, tels que le sexisme ou le racisme, ces discrètes dérives appellent à une vigilance particulière. L'utilisation de l'IA nécessite un renforcement juridique adéquat, afin d'accorder plus de transparence dans son utilisation et son fonctionnement. Cela est particulièrement vrai dans le cas du recrutement, et c'est pourquoi on voit peu à peu apparaitre un cadre spécifique à son utilisation.

Vers un cadre juridique spécifique à l'IA

Avec l'augmentation significative de l'utilisation de l'IA, l'UE a progressivement été contrainte de légiférer spécifiquement. Elle a commencé à introduire un cadre général pour l'utilisation de l'IA dans les processus de décision et d'analyse ; le RGPD entré en application le 25 mai 2018, énonce à son article 22 intitulé Décision individuelle automatisée, y compris le profilage : "La personne concernée a le droit de ne pas être soumise à une décision prise sur le seul fondement d'un traitement automatisé, y compris le profilage, qui produit des effets juridiques à son égard ou qui l'affecte de manière significative et similaire".

On remarque que l'article 22, en plus d'être le seul spécifique à la prise de décisions de l'IA sur un humain, n'a pas de portée spécifique aux processus de recrutement. Le texte est général et se borne à tout « traitement automatisé ».

On peut être déçu de l'absence de texte liés au « degré d'équilibre des bases de données ». Cet aspect est un enjeu majeur dans la réglementation de l'IA et dans la prévention des discriminations au recrutement. Le Machine Learning fait appel à l'utilisation de bases de données pouvant faire l'objet de biais préétablis. Amazon en a fait les frais entre 2014 et 2017 avec un système destiné à évaluer les candidatures. L'algorithme, basé sur la population salariée existante, privilégiait les profils masculins…

Ce cadre législatif, bien que timide, reste néanmoins une première étape pour protéger les candidats contre un processus de recrutement peu transparent et pouvant amener à des dérives. La personne concernée possède ainsi le droit de demander un processus de recrutement effectué, au moins en partie, par une personne physique. De plus, elle doit être informée au préalable des outils utilisés lors du processus. Enfin, il permet à tout candidat de "ne pas faire l'objet d'une décision fondée uniquement sur un traitement automatisé", sauf s'il donne son consentement explicite. Dès lors, cet article semble peu approprié aux processus de recrutement. En effet, un concept pilier du consentement est qu'il doit être libre avec la possibilité d'être refusé sans conséquences.

Or, dans un processus de recrutement, le consentement du candidat ne peut être libre totalement, en raison de sa position face aux recruteurs. Selon Eric Delisle (chef du service questions sociales et RH à la Commission nationale de l'informatique et des libertés (Cnil)) dans une interview donnée au Parisien : « En matière de recrutement, votre consentement n'est pas libre car votre refus peut vous coûter votre place ! Si l'on vous fait signer une feuille de consentement, elle n'a donc pas de valeur. »[4].

Ainsi, il semblerait que toute fiche de consentement dans ce cas n'ait aucune valeur. Qu'en est-il de la preuve ?

Les britanniques semblent aussi se préoccuper du rôle de l'IA au sein du recrutement. Le Centre for Data Ethics and Innovation (CDEI) a publié des rapports intermédiaires le 19 juillet 2019[5], définissant une approche pour explorer les questions de ciblage en ligne et de biais dans la prise de décision algorithmique. Les rapports détaillent les nouvelles idées liées aux problèmes du processus de recrutement et de l'information. Ils soulignent l'absence de régulateur et de gouvernance clairs au sein de la pratique. L'utilisation de l'IA dans le recrutement semble manquer d'outils et de ligne de conduite nécessaires pour éviter les biais algorithmiques. Malgré l'exploration de solutions pour atténuer ces biais, les acteurs actuels peinent à trouver des « industry standards and best practice »[6].

Le CDEI aimerait apporter à terme, dans un prochain rapport, des solutions réglementaires envisageables.

Malgré les récents progrès dans la réglementation de l'intelligence artificielle au sein des fonctions RH, son cadre législatif reste assez faible en Europe. Des améliorations semblent possibles pour un cadre plus clair, mieux adapté et plus transparent dans l'utilisation de cette technologie. De ce fait, il est donc intéressant de se pencher sur l'exemple américain. Les Etats-Unis voient émerger une réglementation spécifique à l'IA dans le recrutement ; par exemple, dans l'Illinois, l'analyse de candidat par une IA en entretien filmé s'est vue affecter un cadre particulier que nous allons aborder dans ce dernier paragraphe.

L'exemple des Etats-Unis

Tout comme l'UE, les États-Unis disposent d'un système établi de lutte contre la discrimination en matière d'emploi, grâce à un ensemble de lois fédérales. Parmi les plus importantes figure le titre VII du Civil Rights Act de 1964. Néanmoins, on voit émerger de nouvelles réglementations adaptées à l'IA dans le cadre des missions de ressources humaines, spécialement aux niveaux des états fédérés.

Certains États ont tenté de réglementer l'utilisation de l'IA pour réduire l'impact de biais liés au machine learning. Par exemple, dans l'Illinois, une loi portant sur les entretiens vidéo avec intelligence artificielle a été signée en août 2019. The Illinois Biometric Information Privacy Act[7] (BIPA) impose aux employeurs qui utilisent ce genre d'entretiens de recevoir un consentement écrit de leur candidat. Pour plus de transparence, les candidats ont aussi le droit de savoir quels sont les critères de recrutement dans l'évaluation de l'IA.

La loi de l'Illinois tente de pallier d'autres risques liés à l'utilisation de l'IA dans les processus de recrutement. Si certains agents artificiels collectent des données durant des entretiens, cette collecte de données biométriques est maintenant réglementée (telles que les empreintes vocales ou le balayage facial). Les États de Washington, New York et du Texas ont emboité le pas, en réglementant à leur tour la collecte et le stockage des identifiants biométriques par l'IA.

Chronique « Droit, Juriste et Pratique du Droit Augmentés »

Cette chronique a pour objectif, de traiter de questions d'actualité relatives à cette transformation. Dans un contexte où le digital, le big data et le data analytics, le machine learning et l'intelligence artificielle transforment en profondeur et durablement la pratique du droit, créant des « juristes augmentés » mais appelant aussi un « Droit augmenté » au regard des enjeux et des nouveaux business models portés par le digital.

Avec son Augmented Law Institute, l'EDHEC Business School dispose d'un atout majeur pour positionner les savoirs, les compétences et la fonction du juriste au centre des transformations de l'entreprise et de la société. Il se définit autour de 3 axes de développement stratégiques : son offre de formations hybrides, sa recherche utile à l'industrie du droit, sa plateforme de Legal Talent Management. https://www.edhec.edu/fr/ledhec-augmented-law-institute

[1] Eric Vidal, « The role of artificial intelligence in the hiring process”, Talent Culture, 2 décembre 2019; https://talentculture.com/the-role-of-artificial-intelligence-in-the-hiring-process/
[2] Ibid.
[3] P. Hacker, “Teaching fairness to artificial intelligence”, Common Market Law Review, 20218, 1143-1186
[4] https://www.leparisien.fr/economie/emploi/emploi-non-le-recrutement-automatique-ne-peut-pas-etre-impose-aux-candidats-05-01-2020-8229042.php
[5] https://www.gov.uk/government/publications/interim-reports-from-the-centre-for-data-ethics-and-innovation
[6] https://www.gov.uk/government/publications/interim-reports-from-the-centre-for-data-ethics-and-innovation/interim-report-review-into-bias-in-algorithmic-decision-making
[7] https://www.ilga.gov/legislation/ilcs/ilcs3.asp?ActID=3004&ChapterID=57




Ses derniers articles

Abonnez-vous à l'offre Papier + Numérique

Affiches Parisiennes Journal d'information juridique et d'annonces légales

  • ›   Pour plus de contenu, papier + web
  • ›   l’accès aux annonces légales,
  • ›   l’accès aux ventes aux enchères.
Je m'abonne

À lire également


Réagir à cet article

Message déjà envoyé Adresse e-mail non valide


Fermer
En poursuivant votre navigation sur ce site, vous acceptez l'utilisation de cookies et de technologies similaires par notre société ainsi que par des tiers, afin de réaliser des statistiques d'audiences et de vous proposer des services éditoriaux et la possibilité de partager des contenus sur des réseaux sociaux. En savoir plus / paramétrer