Cette dévalorisation des compétences explique à la fois l’hésitation de nombreux professionnels à utiliser l’IA, limitant ainsi les avantages que les organisations peuvent attendre de leurs investissements, et soulève une question centrale de transparence, à savoir comment encourager les professionnels à parler de leur utilisation de l’IA sans les exposer à des biais d’évaluation.
Dans le cadre de notre série documentaire de formation consacrée à l’exercice des professions réglementées à l’ère de l’IA, accessible gratuitement en ligne[1] , nous avons mené une étude qualitative auprès de 60 experts universitaires et professionnels utilisateurs de ces technologies. Les résultats révèlent que les professionnels, soucieux de préserver leur crédibilité, font preuve de réserve dans la divulgation de leur utilisation de l’IA, et ce, bien qu’ils reconnaissent l’importance de cette transparence.
Pourtant, la transparence dans l’utilisation de l’IA mérite d’être reconnue comme une marque de responsabilité professionnelle, vecteur de confiance et de crédibilité. Elle ne saurait se réduire à des déclarations individuelles, et gagnerait à s’appuyer sur un véritable dialogue organisationnel.
Sur cette base, cinq leviers d’action peuvent être mobilisés par les CRHA ǀ CRIA pour instaurer un dialogue organisationnel propice au développement d’une culture où l’utilisation réfléchie de l’IA devient une pratique normale, valorisée et partagée, créant ainsi les conditions nécessaires pour que l’ensemble des professionnels, et notamment les femmes et les travailleurs plus âgés, puissent pleinement tirer parti d’une utilisation responsable de l’IA.
Valoriser la transparence comme compétence professionnelle. La divulgation de l’utilisation de l’IA gagne à être présentée non pas comme une contrainte administrative, mais plutôt comme une marque de responsabilité professionnelle, ce qui implique de reconnaître et de valoriser les professionnels qui indiquent ouvertement la manière dont ils utilisent les solutions d’IA, contribuant ainsi à bâtir une culture où l’efficacité et l’intégrité professionnelle coexistent.
Créer des espaces d’apprentissage collectif. La mise en place de groupes de discussion dans lesquels les professionnels échangent ouvertement sur leurs expériences, leurs réussites et sur les défis liés à l’utilisation de l’IA permet de normaliser son utilisation tout en favorisant l’entraide et la solidarité professionnelle. Cela permet également de développer une intelligence collective des bonnes pratiques et de transformer la réserve initiale en confiance partagée grâce à l’effet de groupe. Ces échanges peuvent être structurés autour de cas concrets et documentés pour favoriser leur diffusion plus large au sein des organisations.
Établir un cadre normatif clair et bienveillant. L’élaboration de politiques définissant les utilisations appropriées et inappropriées de l’IA, les pratiques de divulgation recommandées selon les contextes et les mécanismes de soutien disponibles constitue un levier essentiel pour offrir des repères clairs et créer un environnement dans lequel chacun peut s’exprimer librement et en toute confiance sur son utilisation de l’IA. Ces politiques doivent être communiquées de manière cohérente, accompagnées d’exemples concrets, et présentées dans une perspective d’habilitation et de développement professionnel afin de permettre aux professionnels d’évoluer sereinement dans leur pratique.
Cultiver un environnement de dialogue et un climat de bienveillance. Pour que l’utilisation de l’IA soit plus transparente, il faut créer des espaces de discussion où les gens peuvent parler librement des préoccupations qu’ils ont à ce sujet. Il faut aussi montrer comment on utilise l’IA, en étant honnête sur ce qu’on fait, tout en restant attentif à ce que les gens disent et font. Il faut aussi être attentif aux préjugés basés sur le genre et l’âge, qui peuvent réduire la valeur des compétences des gens, et intervenir de manière réfléchie.
Favoriser la participation des professionnels aux décisions concernant l’IA. La normalisation d’une utilisation transparente de l’IA requiert la participation active des professionnels aux décisions qui les concernent. Cela implique de les associer au choix des solutions déployées, de les consulter dans l’élaboration des politiques d’utilisation, et de créer des mécanismes de rétroaction permettant d’adapter continuellement les pratiques en fonction des réalités vécues, consolidant ainsi l’appropriation collective de ces technologies et le sentiment de responsabilité partagée.
C’est donc à travers ce dialogue organisationnel que les CRHA ǀ CRIA peuvent transformer la réserve des professionnels à divulguer leur utilisation de l’IA en transparence reconnue et valorisée, faisant de cette ouverture une expression de responsabilité professionnelle et d’équité.
Références
Gai, P. J., Hou, J., & Tu, Y. (2025). Competence Penalty Is a Barrier to the Adoption of New Technology. Available at SSRN 5255039.
- tech3lab.hec.ca/pro-ia