Recours à l’intelligence artificielle (IA) dans la pratique : le jugement professionnel est de mise
L’intelligence artificielle générative (IAG), devenue accessible au grand public en 2022, s’est rapidement imposée dans le monde du travail. Capable de produire du contenu original, cette technologie, offre des atouts précieux à la fonction RH | RI. Toutefois, son utilisation exige de la prudence et du discernement : malgré son potentiel, elle comporte des risques pour les individus et les organisations.
L’Ordre tient à rappeler aux CRHA | CRIA l’importance d’adopter une approche responsable et conforme aux obligations déontologiques lors de l’intégration de cette technologie à leur pratique professionnelle.
Responsabilité
L’utilisation de l’intelligence artificielle générative ne dispense pas les CRHA | CRIA de leurs responsabilités. Il est attendu qu’ils fournissent un service professionnel de qualité, conforme aux rigoureuses normes de pratique et empreint d’éthique. Ils demeurent entièrement imputables des communications rédigées par l’IA, de même que des décisions prises avec l’aide de cet outil, ainsi que des répercussions sur les personnes et les organisations. Omettre de valider le contenu généré par l’IA revient à remettre sa crédibilité et son professionnalisme entre les mains d’une technologie dont le fonctionnement peut être opaque.
Les CRHA | CRIA doivent en tout temps être en mesure d’expliquer leurs recommandations et de les appuyer sur des données fiables issues de sources retraçables. Puisqu’il est généralement impossible d’expliquer pourquoi ou comment l’IA a généré un résultat, il est essentiel de le remettre en question, de vérifier les informations et de s’appuyer sur son expertise du domaine.
Compétence
Les CRHA | CRIA sont tenus d’agir avec compétence, et dans le contexte de l’utilisation de l’IA, cela implique notamment de se former sur les fonctionnalités des outils technologiques utilisés, mais également sur les risques liés à leur utilisation. Cette connaissance permet de déterminer les précautions à prendre et d’évaluer si le recours à l’outil est approprié dans le contexte. Il est important de se tenir informé en continu et de maintenir sa littératie en IA pour suivre l’évolution rapide de cette technologie, mais aussi pour pouvoir l’utiliser.
Les CRHA | CRIA doivent également s’assurer qu'ils possèdent les compétences et le savoir-faire nécessaires dans le domaine RH pour lequel ils souhaitent utiliser l’IA, afin de pouvoir juger de la qualité des résultats générés. Par exemple, un professionnel expérimenté en enquêtes disciplinaires pourra s’appuyer sur l’IA pour rédiger une première ébauche de rapport, puis faire appel à son discernement et son expertise pour y apporter les adaptations nécessaires. À l’inverse, s’il s’agit de sa première expérience dans ce type de tâche, il pourrait manquer de recul et ne pas détecter les lacunes ou les erreurs produites par l’IA.
Vérification des sources
Les résultats générés par l’IA générative peuvent être impressionnants et sembler répondre à nos besoins avec précision. L’outil présente les informations avec un ton humain et assuré, donnant l’impression qu’aucune vérification n’est nécessaire. Il s’agit pourtant d’une erreur dont les conséquences peuvent être lourdes. En effet, l’IA est programmée pour fournir une réponse vraisemblable, même en l'absence d'informations pertinentes, ce qui donne lieu à des contenus erronés, voire fictifs. Ces contenus sont pourtant présentés par l’IA comme étant authentiques et factuels, trompant la vigilance des utilisateurs. C’est pourquoi les CRHA | CRIA doivent en tout temps valider les informations fournies par cette technologie en vérifiant leur véracité auprès de sources fiables.
Par exemple, une personne qui utilise l’IA afin de chercher des statistiques, des articles de loi, des sources scientifiques ou des jurisprudences pourrait se voir fournir des informations fausses, engendrées par la technologie, mais présentées comme des faits avérés. Utiliser ces informations fictives dans le cadre de ses recommandations et ses prises de décision peut avoir de graves répercussions sur les personnes concernées, tout comme leur diffusion peut contribuer à la désinformation et affecter grandement la confiance du public envers la profession.
Jugement critique
Un texte généré par l’IA ne devrait jamais être utilisé sans avoir mis à profit son jugement critique et son expertise. Cela est vrai dans tous les domaines, mais particulièrement lorsque l’humain est en jeu. Considérer à la fois le contexte organisationnel, les dynamiques relationnelles, les cadres théoriques, légaux et culturels, l’interdépendance des enjeux et plus encore fait partie intégrante de la profession RH | RI et ne peut pas être confié à un outil quel qu’il soit.
Une approche responsable consiste à considérer l’IA générative comme un assistant capable de produire une première ébauche, mais dont le contenu doit toujours être vérifié, adapté, complété et contextualisé. Les CRHA | CRIA doivent exercer leur jugement professionnel et ne peuvent pas déléguer cette tâche à l’IA.
Pratique sans discrimination
L’IA générative peut reproduire ou amplifier des biais présents dans les données sur lesquelles elle a été entraînée, ce qui génère des risques de discrimination. Ces biais peuvent se manifester dans le langage utilisé, les exemples proposés ou les images générées, influençant la perception à propos des personnes candidates ou employées. La vigilance humaine demeure essentielle pour garantir des pratiques inclusives et équitables, conformes aux obligations légales et déontologiques.
Confidentialité
L’utilisation de l’IA générative soulève des enjeux majeurs en matière de confidentialité. Chaque fois que l’on saisit des informations dans un outil d’IA, il existe un risque que ces données soient enregistrées, analysées ou utilisées pour entraîner l’IA ou d’autres outils. On en perd alors le contrôle et la possibilité d’en assurer la protection, risquant une divulgation ou une violation de la vie privée. Il est donc essentiel de ne jamais saisir de renseignements personnels, de données confidentielles ou d’informations stratégiques dans un outil d’IA sans avoir la certitude que l’outil est fiable et sécuritaire, par exemple en circuit fermé interne à l’organisation. Il est souvent possible d’anonymiser les données avant de les confier à l’IA, par exemple en retirant les noms et adresses courriel des résultats d’un sondage avant de téléverser le fichier.
En conclusion : discernement
En facilitant l'analyse de données complexes et en accélérant certaines tâches, l’IA permet aux CRHA | CRIA de consacrer davantage d'énergie aux dimensions stratégiques et relationnelles de leur rôle et représente une perspective porteuse pour la pratique. Toutefois, l’imputabilité qui incombe aux CRHA | CRIA reste entière. Les CRHA | CRIA demeurent pleinement responsables des contenus communiqués, des recommandations émises et des décisions prises à l’aide de cette technologie. Pour allier l’innovation et la prudence, les professionnelles et professionnels doivent développer et maintenir leur littératie de l’IA, revoir les résultats faire appel à leur jugement critique. C’est ainsi que l’IA pourra être mise à profit, tout en garantissant des pratiques éthiques, crédibles et conformes aux normes de la profession. Le jugement professionnel est une exclusivité humaine.