ressources / revue-rh / volume-26-no-1

Ouvrir la boîte noire de la gestion algorithmique : une condition essentielle d’une pratique responsable

La transparence numérique constitue un pilier des principes de responsabilité numérique, tout spécialement lorsque des outils algorithmiques vont être utilisés pour la gestion des ressources humaines.
10 mars 2023

Niel, dans la cinquantaine, est un professeur chevronné du secondaire et reconnu par ses pairs. Suite à l’instauration d’un système d’évaluation de la performance basé sur des algorithmes, ses évaluations ont brutalement chuté la première année, au point qu’il aurait pu être congédié s’il n’avait pas été un employé permanent.… Avant de remonter nettement l’année suivante. Problème : personne chez son employeur n’est en mesure d’expliquer les évaluations erratiques de la machine. 

Avec les avancées technologiques récentes comme l’intelligence artificielle (IA), ces systèmes de gestion algorithmique (GA) se diffusent rapidement dans les organisations. Ils permettent maintenant d’automatiser totalement ou partiellement l’exécution de certaines activités de gestion des ressources humaines (GRH) et de supervision des employés . Outre l'évaluation de la performance, la GA est notamment utilisée pour effectuer de manière autonome le monitorage du travail et de la productivité, l'attribution de tâches, d'objectifs ou d’horaires de travail, l’attribution de bonus, et même, dans de rares cas, pour des décisions de rupture du contrat de travail. Celle-ci est présente à grande échelle au sein des entreprises de plateforme (par exemple, Uber) et des grandes entreprises du secteur des technologies (par exemple, Amazon). Toutefois, son accessibilité croissante accélère son implantation dans une panoplie d’industries et de secteurs d’activité, comme le transport, la finance, l’hôtellerie, la santé, les manufactures, les télécommunications ou le commerce de détail.

La GA est souvent implantée dans le but de gagner en efficacité, en productivité, et en flexibilité, mais aussi pour libérer les gestionnaires et les professionnels RH de tâches répétitives et à faible valeur ajoutée. Cela dit, les recherches montrent que ces avantages potentiels s’accompagnent de risques importants en ce qui a trait à la qualité de vie au travail. En effet, certaines études ont associé la GA à une fragilisation du sentiment d’autonomie et de justice des travailleurs ainsi qu’à une perception de déshumanisation du travail et à une perte de sens au travail. 

Les effets délétères de la GA s’expliquent notamment par le fait que l’on donne beaucoup de pouvoir à des algorithmes parfois très complexes et incompréhensibles pour les travailleurs. L'opacité d'un système algorithmique, c'est-à-dire son « incompréhensibilité potentielle au raisonnement humain » (Danaher, 2016, p. 246, traduction libre), rend effectivement difficile pour le commun des mortels de comprendre comment un système de GA arrive à ses conclusions. Ainsi, lorsqu'un algorithme opaque détermine les cibles de productivité quotidienne ou les augmentations salariales, les employés ne peuvent pas comprendre les motifs derrière ces décisions et encore moins remettre en question le bien-fondé.

En réponse à ces problèmes, la recherche a déjà reconnu certaines bonnes pratiques RH en matière de GA. À cet effet, la transparence entourant l’utilisation et le fonctionnement des technologies numériques au travail s’inscrit comme une condition essentielle pour que la GA s’arrime au mieux-être et à la dignité des employés. Une récente étude que nous avons réalisée dans l’industrie du transport routier avec le soutien de la Fondation CRHA (Bujold et al., 2022) montre que les camionneurs qui perçoivent les systèmes automatisés de monitorage (géolocalisation et suivi de la conduite) et d’évaluation de performance comme étant plus transparents ont un sentiment de justice plus élevé et une plus faible intention de quitter leur emploi. Cela s’explique par le fait que les camionneurs qui comprennent mieux le système et qui ont conscience de son fonctionnement sont mieux outillés pour poser des questions et donc pour comprendre le processus de décision impliquant un algorithme. Cette transparence permet ainsi de « reconnecter l’humain » en incluant mieux le travailleur dans la boucle de gestion tout en permettant aux opérations de bénéficier de la puissance analytique de la GA. 

Il faut cependant faire attention, car la transparence algorithmique peut rapidement se transformer en une arme à double tranchant! Si l’on expose les travailleurs à encore plus d’informations inintelligibles, le risque de surcharge cognitive viendra brouiller les cartes. Une autre bonne pratique serait donc d’assurer un certain degré de savoir et de compétence algorithmique aux travailleurs et aux gestionnaires qui doivent composer avec ces systèmes. L’idée n’est pas de transformer les gens en experts programmeurs, mais bien de favoriser le développement d’une meilleure connaissance du fonctionnement des algorithmes, ainsi qu’une capacité à évaluer, gérer, critiquer, voire influencer les opérations algorithmiques (Dogruel et al., 2021). Cette idée réfère plus précisément à la littératie algorithmique. 

Les professionnels RH ont ici un triple rôle à jouer. D’abord, ils sont les vecteurs de changement et du virage numérique des organisations. En revanche, ils sont aussi les gardiens de l’intégrité et du bien-être des employés. En ce sens, il est impératif qu’ils influencent les organisations à adopter des outils transparents et à les utiliser de manière responsable. Enfin, ils ont aussi la responsabilité d’assurer le développement des compétences essentielles en contexte de gestion algorithmique. Autrement dit, les professionnels RH doivent faire la lumière sur la gestion algorithmique afin d’éclairer un tant soit peu sa boîte noire!

Références

  • Bujold, A., Parent-Rocheleau, X., & Gaudet, M.-C. (2022). Opacity behind the wheel: The relationship between transparency of algorithmic management, justice perception, and intention to quit among truck drivers. Computers in Human Behavior Reports, 8, 1-14. https://doi.org/10.1016/j.chbr.2022.100245 
  • Danaher, J. (2016). The Threat of Algocracy: Reality, Resistance and Accommodation. Philosophy & Technology, 29(3), 245-268. https://doi.org/10.1007/s13347-015-0211-1 
  • Dogruel, L., Masur, P., & Joeckel, S. (2021). Development and Validation of an Algorithm Literacy Scale for Internet Users. Communication Methods and Measures, 16(2), 115-133. https://doi.org/10.1080/19312458.2021.1968361