Introduction
L’intelligence artificielle (« IA ») s’implante au sein des organisations à vitesse grand V. Selon une récente étude, 66 % des PME canadiennes utilisent au moins un outil d’intelligence artificielle pour leurs opérations[1]. Généralement perçue comme un moyen d’améliorer l’efficacité, d’optimiser les processus internes et de réduire les coûts, mais également comme un moteur pour l’innovation, l’IA devient un incontournable.
Face au puissant potentiel de l’IA et à sa grande accessibilité, les conseillers en ressources humaines seront soumis à une pression accrue de leurs organisations afin de l’intégrer aux divers processus. Or, la volonté d’un déploiement rapide de l’IA dans une organisation ne devrait pas obscurcir les enjeux et les risques qui doivent être pris en compte. Son utilisation ne dispense pas les employeurs de leurs obligations à l’égard des travailleurs et des divers partenaires. Son intégration devra s’effectuer de manière réfléchie, dans le cadre d’une démarche qui assure un équilibre entre innovation, conformité et responsabilité. L’Ordre des conseillers en ressources humaines agréé rappelait d’ailleurs récemment à ses membres l’importance d’adopter une approche responsable et conforme à leurs obligations déontologiques en matière d’IA[2]. Nous analysons ici sommairement les principaux enjeux juridiques liés à son implantation aux divers processus en gestion des ressources humaines.
I. Principaux aspects juridiques
Droits fondamentaux
L’intégration d’outils d’IA en gestion des ressources humaines sont susceptibles de porter atteinte à plusieurs droits fondamentaux des travailleurs :
- Conditions de travail justes et raisonnables. L’employeur doit s’assurer d’offrir en tout temps des conditions de travail justes, raisonnables qui respectent la santé, la sécurité et l’intégrité physique des employés[3].
- Discrimination. Les employeurs doivent veiller à ce que l’utilisation d’outils d’IA ne crée aucune distinction, exclusion, ni préférence fondée sur un motif interdit, sauf si des exigences justifiées de l’emploi le nécessitent[4].
- Droit au respect de la vie privée. Bien que l’expectative de vie privée des employés soit généralement réduite en milieu de travail, elle demeure un droit fondamental que l’employeur doit protéger[5]. L’intégration de l’IA peut accentuer les risques d’une atteinte injustifiée au droit à la vie privée, parfois même de façon involontaire, en raison de fonctionnalités d’outils d’IA qui peuvent être méconnues. Or, il incombera à l’employeur de s’assurer que ses travailleurs ne font pas l’objet d’atteintes injustifiées au droit à la vie privée, toujours en fonction des principes de nécessité et de proportionnalité. Conformément à ces principes, l’employeur assumera le fardeau de démontrer que l’outil d’IA poursuit un objectif légitime, que l’atteinte à la vie privée est proportionnelle à l’objectif visé et que des solutions moins intrusives ne sont pas disponibles[6].
Protection des renseignements personnels
Nécessité. Les employeurs doivent s’assurer que tout traitement de données par des outils d’IA ne porte atteinte aux renseignements personnels que dans la mesure nécessaire et uniquement pour des fins déterminées et légitimes[7]. Ces principes ne pourront pas être écartés par des besoins de commodité et de rapidité ni par un sentiment d’urgence lié à l’adoption de nouvelles technologies.
Transparence. La transparence est un principe central en matière de protection des renseignements personnels. Si l’employeur utilise une technologie permettant d’identifier, de localiser ou de profiler une personne, il doit informer l’employé concerné de l’existence de cette technologie ainsi que des moyens offerts pour activer ou désactiver les fonctions permettant l’identification, la localisation ou le profilage. Un manque de transparence peut nuire aux employés, notamment en compliquant l’exercice de leurs droits[8]. Une communication claire et proactive sur les outils d’IA, leurs fonctionnalités et les renseignements personnels collectés sera essentielle afin de maintenir la confiance.
Consentement. Le consentement libre et éclairé est l’assise principale du traitement des renseignements personnels. En milieu de travail, les employeurs doivent s’assurer que les employés comprennent les pratiques de collecte et d’utilisation de leurs données, de même qu’ils fournissent un consentement libre et éclairé. Ils disposent du droit d’accéder à leurs renseignements personnels, d’en demander la rectification ou d’obtenir des précisions supplémentaires, et ce, sans risque de représailles. Les outils d’IA devront se conformer à ces principes.
II. Risques juridiques de l’IA – recrutement et embauche
Les droits fondamentaux des employés doivent être respectés dès le processus de recrutement et, par la suite, tout au long de l’emploi. Parmi ces droits, la protection contre toute forme de discrimination est particulièrement en cause lorsque l’employeur recourt à l’IA pour trier les candidatures, planifier des entretiens, analyser des profils prédictifs ou même évaluer les émotions d’un candidat lors d’une entrevue. Si ces outils offrent un gain d’efficacité et semblent objectifs, ils comportent des risques importants.
En effet, les algorithmes peuvent reproduire ou amplifier des préjugés humains existants. Conçus par des humains et entraînés sur des données historiques, ils reflètent la réalité sociale et organisationnelle à une époque précise. Ils peuvent ainsi être empreints de subjectivité. Les biais peuvent provenir de la conception de l’algorithme, de données d’entraînement insuffisamment représentatives ou des pratiques de l’organisation[9]. L’IA peut aussi contribuer à la discrimination systémique, c’est-à-dire à l’exclusion répétée de certains groupes, même lorsque les méthodes de recrutement n’ont pas été conçues pour discriminer[10]. Il incombe à l’employeur de veiller à la conformité et à la représentativité des données. Il doit aussi s’assurer que les processus automatisés ne reproduisent pas ces biais structurels.
Face à ces risques, les employeurs doivent agir avec prudence. En cas de pratiques d’embauche discriminatoires, ils ne pourront pas se déresponsabiliser en invoquant des décisions prises par leurs systèmes d’IA. La vigilance et l’adoption de pratiques de recrutement équitables et inclusives demeurent essentielles pour limiter les risques juridiques et protéger les droits fondamentaux des employés[11].
III. Risques juridiques de l’IA – Surveillance et évaluation du rendement en cours d’emploi
Conformément à ses droits de gérance, l’employeur dispose d’un pouvoir de supervision qui l’autorise, dans certaines limites, à contrôler et à surveiller les activités des salariés dans le cadre de leur travail. Une variété d’outils technologiques, tels que la télésurveillance ou la cybersurveillance, sont désormais offerts pour surveiller les appels et les communications électroniques, analyser l’activité numérique, capter et analyser automatiquement des images par vidéo ainsi qu’assurer un suivi en temps réel. Récemment, des caméras thermiques, des bracelets de santé ou encore des systèmes de reconnaissance des émotions ont également été introduits dans certains milieux de travail.
Avantages. L’utilisation de l’IA permet de traiter une grande quantité de données afin d’évaluer l’assiduité, la productivité et la performance ainsi que de prévenir certains risques[12]. Ainsi, le rendement des employés peut désormais être mesuré à distance, de façon continue, à partir d’indicateurs fiables. À titre d’exemple, Recruit Holdings, un groupe japonais spécialisé en ressources humaines, analyse les données de ses employés, telles que des éléments liés à la personnalité, aux heures de travail et au niveau de performance pour les comparer à celles de personnes ayant déjà démissionné. Cette approche permet d’anticiper les risques de départ et d’engager un dialogue afin de prévenir toute situation pouvant mener à un désengagement ou à une rupture du lien d’emploi. L’automatisation de ces processus pourrait contribuer à accroître la productivité des organisations[13].
De plus, l’utilisation de l’IA joue un rôle croissant dans la prévention des accidents et le maintien d’un environnement de travail sécuritaire. L’analyse en temps réel des comportements à risque permet d’identifier rapidement les situations dangereuses, de provoquer des alertes, de déclencher des mesures correctives immédiates et de renforcer les protocoles de sécurité[14].
Risques juridiques et réputationnels. Bien que l’IA puisse contribuer à un meilleur contrôle du rendement et à une sécurité accrue au travail, la limite entre un contrôle légitime et une atteinte abusive aux droits fondamentaux des employés peut rapidement être franchie. Notamment, ces technologies posent des défis importants en matière de sécurité des données et de droit à la vie privée. Une gestion inadéquate de ces outils peut exposer l’entreprise à des sanctions réglementaires, à des litiges coûteux et à une perte de confiance de la part des employés et du public.
Crane Supply : une illustration récente des risques associés aux outils d’IA
Dans cette affaire, la Commission d’accès à l’information (« Commission») a ouvert une enquête à la suite d’une plainte portant sur une entreprise qui utilisait un système de vidéosurveillance, enregistrant l’intérieur et l’extérieur de ses véhicules de livraison. Ce système, doté de fonctionnalités d’IA, permettait de collecter des données et de détecter certains comportements des conducteurs, tels que l’usage du téléphone, le non-port de la ceinture, l’excès de vitesse et les collisions.
La Commission rappelle le test applicable en matière d’expectative de vie privée exigé. La surveillance doit reposer sur des objectifs légitimes, réels et importants. L’atteinte à la vie privée doit également être proportionnelle à l’objectif invoqué et constituer une atteinte minimale sans autre solution de rechange moins intrusive.
En l’espèce, la Commission a conclu que, bien que l’objectif de sécurité était légitime, le principe de minimisation n’était pas respecté. En effet, le système mis en place filmait en continu, conservait des images jusqu’à 14 jours et captait des moments à l’extérieur des heures de travail. De plus, l’entreprise n’avait évalué aucune solution de rechange moins intrusive, et la politique interne présentait des incohérences avec les pratiques déclarées. En conséquence, l’entreprise n’a pas réussi à démontrer la nécessité de cette collecte.
Cette affaire rappelle l’importance pour un employeur d’évaluer les options disponibles afin de limiter autant que possible l’atteinte à la vie privée des employés lors d’une collecte de données. À titre d’exemple, il aurait été possible de restreindre la captation à une période plus courte ou de désactiver la surveillance en dehors des périodes pertinentes[15].
IV. Conseils pratiques
À la vitesse où s’implante l’intelligence artificielle dans les divers outils proposés aux organisations pour améliorer leurs pratiques de gestion, les employeurs devront se questionner sur la place que l’on souhaite lui accorder ainsi que sur la façon de minimiser les risques qui y sont associés. L’élaboration d’une politique établissant un cadre de gouvernance de l’intelligence artificielle au sein de l’organisation deviendra sans doute la norme au cours des prochaines années. Une telle politique devrait notamment énoncer :
- La vision de l’organisation à l’égard de l’intelligence artificielle et de la place que l’on souhaite lui accorder dans les processus décisionnels;
- Les principes directeurs devant guider les gestionnaires dans l’implantation d’outils d’intelligence artificielle;
- Les décisions et opérations pour lesquelles l’humain doit demeurer central dans la supervision et la prise de décision;
- Les moyens en place afin d’assurer la protection des droits fondamentaux des travailleurs et des usagers, notamment en ce qui concerne la protection de la vie privée, la protection des renseignements personnels et le droit à l’égalité;
- La façon dont l’organisation s’assure de former les travailleurs sur l’utilisation de l’intelligence artificielle dans le cadre de leurs fonctions;
- La nécessité de procéder à une évaluation des facteurs relatifs à la vie privée avant toute implantation d’outils d’intelligence artificielle mettant en cause la protection du droit à la vie privée;
- Les rôles et responsabilités des dirigeants et des employés dans l’implantation et l’usage de l’intelligence artificielle;
- La façon dont l’organisation entend s’assurer de la conformité de ses pratiques en matière d’intelligence artificielle et à quelle fréquence (par exemple, un audit de conformité de façon périodique).
Plusieurs organisations ont commencé à adopter des politiques et des orientations en matière d’intelligence artificielle[16]. La Commission d’accès à l’information a également préparé un mémoire en 2025 proposant divers principes directeurs pour son utilisation dans le contexte du travail[17].
Afin de générer la confiance dans les processus décisionnels et ultimement envers l’organisation, le principe de transparence devrait demeurer au cœur du déploiement de l’intelligence artificielle dans le contexte du travail. Ainsi, employés et candidats devraient être bien informés de la place que l’employeur accorde à l’utilisation de l’IA et des moyens mis en place pour la protection de leurs droits fondamentaux.
En conclusion, l’IA est devenue un acteur incontournable de la gestion des ressources humaines, mais son utilisation exige rigueur et prudence. Si l’évolution technologique est essentielle pour rester performant, cette étape ne peut se faire au détriment du droit et des individus. Les employeurs doivent garantir le respect des droits fondamentaux, notamment le droit à la vie privée, à la protection des renseignements personnels et à l’égalité. En adoptant des politiques claires et des pratiques axées sur la transparence et l’équité, les organisations pourront tirer parti des avantages de l’IA tout en préservant la conformité et la confiance au sein du milieu de travail.
| 1 | L’IA, un incontournable pour les entreprises canadiennes, BDC. |
| 2 | Avis aux CRHA | CRIA sur l’intelligence artificielle (IA), Décembre 2025. |
| 3 | Charte des droits et libertés de la personne, RLRQ, c. C -12, art. 4 et 46. |
| 4 | Ibid, art. 10, 16, 19 et 20. |
| 5 | Ibid, art. 5. |
| 6 | Crane Supply, Commission d’accès à l’information du Québec, 2025 QCCAI, 20 mai 2025. |
| 7 | Loi sur la protection des renseignements personnels dans le secteur privé, RLRQ, c. P -39.1, art. 5. |
| 8 | Commission d’accès à l’information du Québec, L’IA au travail : pour un meilleur encadrement, mémoire de la Commission d’accès à l’information présenté au ministère du Travail dans le cadre de la consultation sur la transformation des milieux de travail par le numérique, 2025, p.3. |
| 9 | Ibid, p.4. |
| 10 | CN c. Canada (Commission canadienne des droits de la personne), [1987] 1 R.C.S. 1114, 1139. |
| 11 | Sur la question des biais discriminatoires des outils d’IA à l’embauche, voir : Mobley v. Workday, Inc., N.D. Cal Case No. Case No. 23-cv-00770-RFL. |
| 12 | Catherine Massé-Lacoste et Camille G. Grenon, « Télésurveillance : le contrôle de la prestation de travail à l’ère du télétravail et ses limites » (2022) 511 Développements récents en droit du travail p. 9 et 11. |
| 13 | Steve Jacob et coll., « Intelligence artificielle et transformation des métiers en gestion des ressources humaines », (2022) ULaval p. 8. |
| 14 | Crane Supply, supra note 6. |
| 15 | Ibid. Pour une autre illustration récente, voir : STT de Coach Canada – CSN et NewCAN Coach Company (Coach Canada), 2025 QCTA 403, 2025EXP-2417. |
| 16 | Voir notamment les orientations du Gouvernement du Québec relativement aux mesures applicables lors de l’utilisation de l’intelligence artificielle générative : Mesures applicables lors de l’utilisation de l’intelligence artificielle générative. |
| 17 | Commission d’accès à l’information. L’IA au travail : pour un meilleur encadrement. L'IA au travail : pour un meilleur encadrement |
Avis - Ce contenu relève de la responsabilité de son auteur et ne reflète pas nécessairement la position officielle de l’Ordre des conseillers en ressources humaines agréés.