Vera peut scruter les réseaux sociaux et planifier des entrevues avec des candidats potentiels. A priori, rien d’exceptionnel. Sauf que Vera peut mener 1500 entrevues par jour!
Cette productivité surhumaine, Vera la doit à l’intelligence artificielle (IA). Et elle n’est pas seule à s’être immiscée dans la sphère des ressources humaines. D’autres solutions telles que HireVue et Seedlink démontrent aussi des vitesses d’exécution et des capacités d’analyse de données nettement supérieures à celles d’un humain. Mais l’IA n’est pas sans failles et son utilisation pour recruter des employés fait surgir des risques de discrimination à l’embauche et des enjeux juridiques. Aussi, Danielle Gauthier, CRHA, et Dave Bouchard, CRHA, tous deux avocats chez Lavery Avocats, émettent quelques mises en garde.
Sans tomber dans le catastrophisme, Danielle Gauthier ne peut s’empêcher de rappeler l’histoire du Dr Frankenstein, qui a perdu le contrôle de sa créature. L’IA va-t-elle dépasser l’humain? « L’IA surpasse l’humain dans ses capacités d’analyse et de calcul, mais comme l’apprentissage de l’IA s’appuie sur l’expérience humaine, la machine reproduit aussi les défaillances humaines », poursuit Dave Bouchard.
Le saviez-vous?
Le robot recruteur Vera peut mener 1500 entrevues par jour!
Artificiellement raciste…
En 2016, Tay, un robot conversationnel lancé par Microsoft sur les réseaux sociaux, a développé son langage à partir de ses interactions avec les internautes. Or, des internautes malintentionnés l’ont alimenté de propos racistes et sexistes. Tay, qui apprend vite, est devenu raciste et sexiste en moins de 24 heures et Microsoft a dû le réduire au silence. On peut arguer, à la défense de Tay et de ses concepteurs, que le logiciel a été victime d’une intention malveillante des internautes.
Mais COMPAS a aussi acquis un biais raciste sans aucune intention malveillante apparente de ses concepteurs ou de ses utilisateurs. Ce logiciel est utilisé par la justice américaine pour analyser les données des criminels et prévoir leur risque de récidive. Les juges peuvent s’appuyer sur cette évaluation pour déterminer la sentence. Or, COMPAS attribue un facteur de risque de récidive plus élevé aux personnes issues des minorités visibles. Il ne dispose pourtant pas de données sur la couleur de la peau des criminels, mais il connaît leur adresse. Ainsi, certains quartiers souffrant de criminalité sont aussi des lieux de résidence d’Afro-Américains de sorte que, pour COMPAS, résider dans ces quartiers accroît le risque de récidive. À crime égal, une personne noire provenant d’un tel quartier obtiendra une cote de récidive plus élevée qu’une personne blanche provenant d’un autre quartier et pourra donc être jugée plus sévèrement.
Contrairement à Tay, COMPAS est toujours utilisé.
Du côté des RH
Analyser des CV, fouiller des bases de données personnelles, converser avec un candidat, décrypter son langage non verbal : l’IA peut faciliter et accélérer toutes ces opérations.
Par exemple, L’Oréal épluche chaque année pas moins de 130 candidatures pour chacun de ses 15 000 postes à pourvoir. Pour se simplifier la tâche, elle a recours à la plateforme Seedlink. Trois questions sont d’abord posées aux employés, les amenant à décrire les compétences nécessaires pour accomplir leurs tâches. Ces mêmes questions sont ensuite posées aux candidats et Seedlink sélectionne ceux dont les réponses concordent avec celles des employés.
Ce processus a l’avantage d’éliminer certains biais. Seedlink est par exemple aveugle à la provenance universitaire des candidats et ne favorisera pas de facto un diplômé de Harvard ou de Princeton.
Mieux, dans un souci de rétention de son personnel, L’Oréal a questionné ses employés en poste depuis plusieurs années. Leurs réponses contiennent les mots-clés d’employés heureux de travailler chez L’Oréal et Seedlink les a intégrés à son processus de sélection.
Après cette présélection par Seedlink, les candidats sont convoqués à une entrevue en personne. Résultat : 82 % des nouveaux employés sont passés par ce processus et le taux de rétention a augmenté de 25 %.
Des algorithmes de recrutement un peu trop curieux
Autre exemple, Unilever affiche ses offres d’emploi sur LinkedIn ou Facebook, où les candidats postulent directement. De là, ils sont invités à jouer sur la plateforme Pymetrics à des jeux basés sur les neurosciences, qui évaluent leur personnalité. Les candidats retenus passent ensuite une entrevue avec HireVue, qui analyse le contenu des réponses, mais aussi le langage non verbal (l’intonation de la voix, les expressions faciales, etc.). C’est seulement après cette deuxième sélection que les candidats auront droit à une rencontre en chair et en os dans les bureaux d’Unilever. Entre l’annonce de l’emploi et l’embauche, il ne s’est écoulé que quatre semaines, alors que le processus de recrutement traditionnel prenait quatre mois.
Mais en scrutant les réseaux sociaux, les algorithmes ont aussi accès à des pans de vie entiers, aux orientations religieuses, sexuelles ou politiques des candidats. C’est bien la crainte de Danielle Gauthier. « Je pense que cela va au-delà des mesures de compétences et des aptitudes à réaliser un travail. Cela soulève des questions éthiques », observe-t-elle.
Recrutement chez L’Oréal :
- Nouveaux employés présélectionnés par l’IA : 82 %
- Augmentation du taux de rétention : 25 %
Des lois à moderniser
Au Canada, l’encadrement légal de l’intelligence artificielle fait face au vide. « Il faut utiliser le corpus de lois actuel et l’appliquer aux machines intelligentes », explique Danielle Gauthier. Par exemple, au Québec, si un accident survient avec un convoyeur contrôlé par une intelligence artificielle, l’employeur est responsable en vertu de la Loi sur la santé et la sécurité du travail.
Concernant l’utilisation des données personnelles, il y a bien des lois provinciales et canadiennes sur la protection des renseignements personnels, mais elles ne couvrent que le strict minimum. « Ça protège notre adresse, notre numéro d’assurance sociale, et encore… », dit Danielle Gauthier, évoquant le récent vol de données personnelles chez Desjardins.
La France est un peu plus avancée avec la Loi pour une République numérique, qui énonce le concept de transparence des algorithmes. La loi oblige à indiquer si un service public repose sur un algorithme et à en publier le fonctionnement si cet algorithme aide à la prise de décision. Appliquée aux activités de recrutement, « la loi oblige les organisations publiques qui utilisent l’IA pour embaucher à démontrer le raisonnement de la machine et les données utilisées dans le processus décisionnel », explique Dave Bouchard.
L’avocat se prête alors à une petite fiction. Imaginez qu’un algorithme de recrutement devienne discriminatoire, à l’instar de COMPAS. Par exemple, dans un processus de recrutement similaire à celui de L’Oréal, si l’entreprise recrute sur la base de ses meilleurs employés et qu’il s’agit surtout d’hommes de 35 à 45 ans, l’algorithme pourrait reproduire ce biais. Un candidat refusé qui soupçonne une discrimination pourrait porter plainte, et l’entreprise aurait à démontrer que son processus n’est pas discriminatoire et sur quelles données personnelles il est fondé. Or, ouvrir un algorithme et retrouver les données utilisées risque de s’avérer difficile, surtout si l’entreprise n’est pas propriétaire de l’algorithme.
L’IA peut certainement faciliter la vie des recruteurs, mais elle ouvre aussi la porte à nombre de considérations éthiques et juridiques. Aussi, même si des impératifs de productivité poussent l’adoption des technologies d’IA, Dave Bouchard recommande tout de même aux professionnels RH d’y penser à deux fois.