ressources / revue-rh / volume-24-no-3

L’intelligence artificielle et la gestion des ressources humaines : vos obligations déontologiques dans le cadre de l’utilisation de l’intelligence artificielle

L’intelligence artificielle est de plus en plus utilisée pour différentes applications, y compris dans le domaine des ressources humaines. Cette utilisation soulève des enjeux déontologiques pour les CRHA | CRIA.
1 mai 2021

L’utilisation de l’intelligence artificielle dans la gestion des ressources humaines est de plus en plus présente. L’intelligence artificielle peut, entre autres, servir en matière de recrutement, pour l’évaluation du rendement, pour de la formation, pour des fonctions administratives (gestion des dossiers, création d’horaires) ainsi que pour de la résolution de conflits (prise de décision). Il s’agit d’ailleurs d’un sujet qui a fait l’objet de plusieurs articles sur le site Internet de l’Ordre depuis les dernières années.

Sommairement, l’intelligence artificielle est une technologie qui permet le traitement de données1. Dans le cadre de la gestion des ressources humaines, ces données ainsi traitées proviendront des humains et concerneront des humains. Cette dépendance envers l’interaction humaine est à la fois une force et une faiblesse pour l’intelligence artificielle : elle apprend de l’expérience humaine, mais elle en reproduit parfois les défaillances. Pour certaines utilisations, l’intelligence artificielle a engendré des cas de discrimination ou a compromis la protection des renseignements personnels.

Ces résultats parfois problématiques de l’utilisation de l’intelligence artificielle dans la gestion des ressources humaines soulèvent certainement des enjeux éthiques, mais plus particulièrement, des enjeux liés aux obligations déontologiques prévues au Code de déontologie (ci-après, « Code »).

Plus précisément, il est mentionné à l’article 12 qu’un CRHA | CRIA ne peut pas utiliser ou participer à des pratiques discriminatoires. Ainsi, il ne pourrait pas utiliser des analyses de dossiers de recrutement générés par un outil faisant appel à l’intelligence artificielle qui donnent des résultats discriminatoires sans contrevenir à l’article 12 du Code.

L’on peut aussi rappeler qu’il est mentionné à l’article 6, paragraphe 6 du Code, l’obligation pour le CRHA | CRIA de protéger la confidentialité de ses dossiers ou des renseignements personnels dont il a connaissance. Une violation de cette confidentialité pourrait être causée par l’utilisation de l’intelligence artificielle lorsque ces données peuvent être rendues accessibles à d’autres personnes que le CRHA|CRIA qui les gère. La violation de confidentialité pourrait également être causée par un problème avec l’intelligence artificielle utilisée, par la malveillance de tierces personnes ou autres.

Il peut être tentant d’invoquer, en tant que CRHA | CRIA, lors de l’utilisation de l’intelligence artificielle dans le cadre de son travail, que l’on n’est pas responsable des résultats problématiques que cette technologie entraîne puisqu’ils proviennent d’une machine et non du CRHA | CRIA.

Ce type d’argument risque peu de réussir parce qu’il peut être contredit. Par exemple, l’article 6, paragraphe 6 du Code, prévoit que le professionnel doit tenir compte de la « valeur relative des résultats qu’il obtient des divers outils d’évaluation qu’il utilise dans le cadre de sa profession ». Ainsi, lorsqu’un CRHA | CRIA utilise l’intelligence artificielle comme outil d’évaluation, il est responsable d’évaluer la valeur des résultats qui en découlent. Il ne pourrait alors pas justifier d’avoir utilisé des résultats obtenus de cette manière dans un cadre d’évaluation et qui seraient incohérents, non appropriés ou même discriminatoires. Aussi, selon l’article 33, paragraphe 1, un CRHA | CRIA doit s’abstenir d’exercer sa profession de manière impersonnelle. On pourrait alors en conclure qu’un professionnel qui utilise des outils d’intelligence artificielle sans en interpréter les résultats ou sans superviser le processus et qui les remet directement à son client, il contreviendrait ainsi à l’article 33.

Ultimement, malgré les avancées technologiques et l’amélioration constante de l’intelligence artificielle, il faut se rappeler que celle-ci n’est pas sans faille. C’est pourquoi l’utilisation de l’intelligence artificielle dans la gestion de ressources humaines ne saura relever d’un processus entièrement autonome et le professionnel qui l’utilise aura le devoir de superviser cette utilisation afin de s’assurer qu’elle fournit des résultats cohérents. De cette façon, le CRHA | CRIA utilisant cet outil, devra garder en tête qu’il demeure soumis à ses obligations déontologiques même lorsqu’une partie de son travail est généré par une machine.