ressources / revue-rh / volume-28-no-1

RH et politique d’intelligence artificielle générative : enjeux et perspectives

La gestion des ressources humaines n’échappe pas à la dynamique où l’IA intervient par l’automatisation des tâches routinières, la personnalisation des parcours professionnels et la reconversion stratégique des compétences.
3 mars 2025
Mohamed Golli, Doctorant en administration des affaires | Dr Jamal Ben Mansour, Ph.D, CRHA

L’intelligence artificielle (IA) est un concept polysémique et polymorphe (Chevalier & Dejoux, 2021) qui se situe à l’intersection de disciplines qui intègrent les sciences cognitives, la biologie, la logique mathématique, l’optimisation algorithmique, les lois probabilistes et l’algèbre linéaire (Fuhrer, 2023) aux domaines des sciences humaines et sociales. Plus précisément, la gestion des ressources humaines (GRH) n’échappe pas à cette dynamique, où l’IA intervient par l’automatisation des tâches routinières, la personnalisation des parcours professionnels et la reconversion stratégique des compétences (Kolbjørnsrud et al., 2016; Schwartz et al., 2019).

Dans ce contexte, l’intelligence artificielle générative (IAG) émerge comme un catalyseur de possibilités inédites qui permet notamment la personnalisation des parcours d’apprentissage, le développement de compétences (Schermuly et al., 2022), et l’amélioration de l’engagement des employés (Dutta et al., 2023). De plus, l'IAG favorise la création de nouveaux outils RH (Rahmani & Kamberaj, 2021), et de ponts facilitant la collaboration personne-machine (Chowdhury et al., 2023), améliorant ainsi l’efficacité et la productivité globale de la fonction RH (Bhise et al., 2024).

Cependant, il est essentiel de souligner que ces possibilités s'accompagnent d'un rôle crucial de l'IAG dans l’atténuation des risques liés aux tâches à forte exigence cognitive. En analysant des données complexes, en déterminant des tendances et en proposant des recommandations éclairées, l'IAG contribue à faciliter l’analyse prédictive et la prise de décisions stratégiques face à des situations incertaines (Massoud et al., 2024), à réduire les erreurs humaines (Bhise et al., 2024), et à renforcer les capacités cognitives des employés (Pan & Froese, 2023).

En automatisant des tâches chronophages et répétitives, l’IAG favorise l'innovation, la performance et l'épanouissement des employés (Pan & Froese, 2023). Ainsi, elle s'affirme comme un instrument puissant et polyvalent, au profit d'une GRH augmentée, orientée vers la complémentarité et la cocréation.

Cependant, plusieurs enjeux propres à l’utilisation de l’IAG en milieu du travail soulèvent des défis organisationnels et des préoccupations d’ordre éthique (Pandya & Wang, 2024). Parmi eux figurent l’absence de contrôle sur les données d’entraînement des modèles, la propriété intellectuelle des œuvres créées, les biais algorithmiques, de même que la confidentialité des données.

Toutefois, parmi les principaux enjeux, deux méritent une attention particulière. Premièrement, la maîtrise de l'IAG par certaines personnes candidates leur confère des atouts pour contourner les exigences d'embauche. Cette situation complique l'évaluation objective des compétences réelles des personnes candidates (Santana & Díaz-Fernández, 2023) et peut conduire à des interprétations subjectives ou limitées. Deuxièmement, le manque de maturité de l'IAG dans la gestion de la performance remet en question sa fiabilité et l’impartialité de ses évaluations et interprétations, soulevant ainsi des préoccupations éthiques et d’objectivité (Tanasescu et al., 2024). 

Ces enjeux sont critiques car ils touchent à des fonctions fondamentales de la GRH, telles que le recrutement et la gestion de la performance, tout en remettant en cause les promesses d'objectivité et d'équité souvent associées à l'IA (Tinguely et al., 2023). Ils soulignent la nécessité d'une réflexion approfondie sur l'utilisation responsable et éthique de l'IAG en GRH, ainsi que sur le développement de mécanismes de contrôle et de validation pour garantir son impartialité et sa fiabilité.

Par ailleurs, la capacité de l'IAG à automatiser des tâches créatives et intellectuelles ambiguës menace certains emplois en modifiant leur nature, leur potentiel de motivation ainsi que l’engagement et la responsabilisation (imputabilité) des employées et employés. De plus, les processus de collecte, de sauvegarde et d’exploitation de données massives sur les personnes employées évoquent des inquiétudes liées à la sécurité et au respect de la vie privée, face à un panoptisme1 numérique en expansion (Richard & Katherine, 2020).

En effet, le manque d'explicabilité des systèmes algorithmiques est préjudiciable, car il entrave l'adhésion des personnes employées à l'IAG, affectant durablement leur engagement professionnel. Par crainte de perdre leurs pouvoirs et privilèges face à l’adoption de nouvelles technologies, ces derniers manifestent souvent une forte résistance à l’IAG, préférant une interaction humaine et sociale. Ainsi, plusieurs estiment que l’IAG déshumanise et dépersonnalise les processus d’innovation et de collaboration, suscitant une méfiance vis-à-vis du changement et aggravant l’effet sur la santé psychologique des employés (Pok Man et al., 2023).

Enfin, la transparence et la fiabilité des garanties qu’une organisation assure influent sur le degré de confiance des personnes à son emploi, leur degré d’engagement et leur sentiment d’appartenance. En outre, la complexité et les biais algorithmiques de l’IAG, résultant d'une intégration inappropriée de variables contextuelles et de considérations organisationnelles inadéquates, sont à l’origine de divergences sociales discriminatoires, favorisant les stéréotypes, les préjugés et l’injustice sociale au sein des organisations (Hassel & Özkiziltan, 2023; Wach et al., 2023).

Face à ces incertitudes, il est essentiel d'adopter des pratiques exemplaires, un cadre d’action et une politique adéquate pour intégrer et accepter l'IAG de manière équilibrée et réfléchie. En d’autres termes, adopter une politique GRH définissant les principes fondamentaux d’une utilisation transparente, responsable et éthique de l'IAG sur le lieu de travail. Maintenant, quelle est la marche à suivre?

Marche à suivre pour une intégration réussie de l’IAG sur le lieu de travail

Étape 1

  • Sensibiliser les équipes à l’IAG par notamment un audit de l’existant et une définition précise et adaptée de cet enjeu via des ateliers informatifs
  • Mener une évaluation approfondie des risques potentiels
  • Maintenir des ateliers, des groupes de travail et des mécanismes de consultation réguliers

Étape 2

  • Définir clairement les objectifs de l’IAG et les avantages attendus
  • Établir des mécanismes de gouvernance et des principes éthiques pour encadrer son usage
  • Instaurer des règles d’utilisation précises en cohabitation avec d’autres politiques

Étape 3

  • Communiquer la politique d’utilisation de l’IAG à toutes les équipes
  • Créer une formation sur les nouvelles procédures
  • Mettre en place des mécanismes de suivi, d’actualisation et d’évaluation pour gérer le changement

Au début, l’équipe de direction commence par sensibiliser les employées et employés à l'IAG par un audit de l’existant, une définition précise et adaptée de l’IAG, ses effets sur leur bien-être, ses capacités, ses limites, ainsi que les enjeux légaux et éthiques, via des ateliers informatifs. Il s’agit de recenser les cas d'utilisation pertinente de l'IAG dans les processus de travail, adaptés à leur réalité organisationnelle. Une évaluation approfondie des risques potentiels est menée sur les biais algorithmiques, la confidentialité des données, la sécurité et l'incidence sur les emplois. La consultation des parties prenantes recueille diverses perspectives et préoccupations. Il est recommandé de maintenir des ateliers, des groupes de travail et des mécanismes de consultation réguliers.

Ensuite, l’équipe de direction définit clairement les objectifs de l'IAG et les avantages attendus, en établissant des mécanismes de gouvernance et des principes éthiques pour encadrer son usage. L'accent est mis sur la transparence, l'explicabilité, la responsabilité et l'équité. Des règles d'utilisation précises sont instaurées en cohabitation avec d’autres politiques, spécifiant les usages autorisés, les processus de validation, les droits de propriété et les responsabilités des utilisateurs. Des mesures garantissent la confidentialité et la sécurité des données utilisées par l'IAG, en conformité avec les réglementations en vigueur.

Enfin, la politique d'utilisation de l'IAG est communiquée à tout le personnel, accompagnée d'une formation sur les nouvelles procédures. L’équipe de direction fournit les outils et les ressources nécessaires pour une utilisation efficace et responsable. Des mécanismes de suivi, d’actualisation et d'évaluation sont mis en place pour gérer le changement, mesurer les effets, adapter de nouvelles mesures disciplinaires, et faire face aux violations potentielles en fonction des avancées technologiques et des besoins évolutifs de l'organisation.

En empruntant cette démarche flexible, l’équipe de direction élabore une politique d'adoption de l'IAG valorisant les compétences humaines précises que l’IAG ne maîtrise pas, comme la créativité, la gestion stratégique, l'intelligence sociale et le leadership (Farmiloe, 2023). Ces compétences deviennent essentielles pour la réussite professionnelle et l'innovation dans un environnement de travail de plus en plus automatisé (Chamorro-Premuzic, 2023).

Référence bibliographiques

  • Bhise, P., Karekar, P., Nikam, R., & Ray, S. (2024). AI-HRM: Transforming Human Resource Management With Artificial Intelligence. Educational Administration: Theory and Practice, 30(5), 9208-9215.  
  • Chamorro-Premuzic, T. (2023). I, Human: AI, Automation, and the Quest to Reclaim what Makes Us Unique. Harvard Business Press.  
  • Chevalier, F., & Dejoux, C. (2021). Intelligence artificielle et Management des ressources humaines: pratiques d’entreprises. Le numérique et la refondation du système électrique, 15, 94-105.  
  • Chowdhury, S., Dey, P., Joel-Edgar, S., Bhattacharya, S., Rodriguez-Espindola, O., Abadie, A., & Truong, L. (2023). Unlocking the value of artificial intelligence in human resource management through AI capability framework [Article]. Human Resource Management Review, 33(1), Article 100899.  
  • Dutta, D., Mishra, S. K., & Tyagi, D. (2023). Augmented employee voice and employee engagement using artificial intelligence-enabled chatbots: a field study. The International Journal of Human Resource Management, 34(12), 2451-2480.  
  • Farmiloe, B. (2023, Oct 2023). The Future Of Work: 10 Soft Skills That Are In High Demand. Training and Development Excellence Essentials.  
  • Fuhrer, C. (2023). Intelligence Artificielle : que dit la recherche récente ? Une approche combinée bibliométrique et textuelle [Artificial Intelligence. What does Recent Research Say? A Combined Bibliometric and Textual Approach]. Revue Management & Avenir(137), 89-111.  
  • Hassel, A., & Özkiziltan, D. (2023). Governing the work-related risks of AI: implications for the German government and trade unions [Article]. Transfer: European Review of Labour and Research, 29(1), 71-86.  
  • Kolbjørnsrud, V., Amico, R., & Thomas, R. J. (2016). How artificial intelligence will redefine management. Harvard business review, 2(1), 3-10.  
  • Massoud, M. F., Maaliky, B., Fawal, A., Mawllawi, A., & Yahkni, F. (2024). Transforming Human Resources With AI: Empowering Talent Management and Workforce Productivity. In Industrial Applications of Big Data, AI, and Blockchain (pp. 254-299). IGI Global.  
  • Pan, Y., & Froese, F. J. (2023). An interdisciplinary review of AI and HRM: Challenges and future directions. Human Resource Management Review.  
  • Pandya, S. S., & Wang, J. (2024). Artificial intelligence in career development: a scoping review. Human Resource Development International, 27(3), 324-344.  
  • Pok Man, T., Joel, K., Ke Michael, M., David De, C., Jack, H. Z., Philipp, R., Chin Tung Stewart, N., & Chen, I. H. (2023). No person is an island: Unpacking the work and after-work consequences of interacting with artificial intelligence. Journal of applied psychology.  
  • Rahmani, D., & Kamberaj, H. (2021). Implementation and usage of artificial intelligence powered chatbots in human resources management systems. Conference: International conference on social and applied sciences at: University of New York Tirana,  
  • Richard, A. B., & Katherine, V. W. S. (2020). The Invisible Web at Work: Artificial Intelligence and Electronic Surveillance in the Workplace. Berkeley Journal of Employment and Labor Law, 41(1), 1.  
  • Santana, M., & Díaz-Fernández, M. (2023). Competencies for the artificial intelligence age: visualisation of the state of the art and future perspectives. Review of Managerial Science, 17(6), 1971-2004.  
  • Schermuly, C. C., Graßmann, C., Ackermann, S., & Wegener, R. (2022). The future of workplace coaching–an explorative Delphi study. Coaching: An International Journal of Theory, Research and Practice, 15(2), 244-263.  
  • Schwartz, J., Jones, R., & Anderson, S. (2019). What is the future of work? Redefining work, workforces, and workplaces. Deloitte Global Human Capital Trends, 119-127.  
  • Tanasescu, L. G., Vines, A., Bologa, A. R., & Vîrgolici, O. (2024). Data Analytics for Optimizing and Predicting Employee Performance. Applied Sciences, 14(8), 3254.  
  • Tinguely, P. N., Lee, J., & He, V. F. (2023). Designing human resource management systems in the age of AI. Journal of Organization Design, 12(4), 263-269.  
  • Wach, K., Doanh Duong, C., Ejdys, J., Kazlauskaitė, R., Korzynski, P., Mazurek, G., Paliszkiewicz, J., & Ziemba, E. (2023). The dark side of generative artificial intelligence: A critical analysis of controversies and risks of ChatGPT. Entrepreneurial Business and Economics Review, 11(2), 7-30.  

Author
Mohamed Golli, Doctorant en administration des affaires Université du Québec à Trois‑Rivières

Dr Jamal Ben Mansour, Ph.D, CRHA Professeur Département de Gestion des Ressources Humaines, Université du Québec à Trois‑Rivières

Source : Revue RH, volume 28, numéro 1 ─ Janvier/Février/Mars 2025