L'intelligence artificielle (IA) joue déjà plusieurs rôles au sein des services des ressources humaines dans de nombreuses entreprises. Un récent sondage mené auprès de plus de 250 responsables des ressources humaines aux États-Unis a démontré que 73 % des répondants utilisent l'IA dans leurs processus de recrutement et d'embauche. Dans un sondage à venir commandé par Indeed, un chiffre impressionne : 8 % des responsables des ressources humaines et de l'attraction des talents au Canada ont mentionné que leurs équipes n'utilisaient pas d'outils d'IA.

De nos jours, les outils d'IA peuvent être utilisés pour aider à examiner les CV et à évaluer les candidats, à repérer les talents pour les postes à pourvoir, à écrire des descriptions de poste, à repérer des occasions de promouvoir les employés et même à envoyer des messages automatisés aux candidats. 

« Il existe aujourd'hui des outils d'IA qui permettent de répondre à vos besoins », mentionne Trey Causey, chef de l'IA responsable et directeur principal des sciences des données chez Indeed. 

Cependant, le perfectionnement de ces outils varie, de même que l'attention que portent leurs développeurs aux risques. Les organisations doivent faire attention à l'échelle des risques impliquant l'utilisation de l'IA et développer des stratégies sur la façon de l'utiliser de manière responsable. 

L'IA possède le potentiel de réduire les biais humains, surtout en recrutement, et de créer de meilleures occasions pour les travailleurs tout en simplifiant les tâches routinières afin que les professionnels des ressources humaines puissent se concentrer sur les aspects plus humains de leurs rôles. Mais l'IA peut également prolonger et même accentuer* les biais inhérents, et ainsi faire perdre de l'argent et du temps. 

Voici quatre étapes que les organisations peuvent suivre pour repérer les risques et s'assurer que leur utilisation de l'IA est équitable, éthique et efficace.

 

1. Évaluez les risques et les avantages pour votre organisation

Demandez-vous d'abord si les outils d'IA seront utiles à votre entreprise en matière de ressources humaines. Les systèmes d'IA peuvent mettre à l'échelle les processus, comme le repérage et l'évaluation d'un plus grand nombre de candidats que cela serait possible manuellement. 

Cependant, « vous pouvez également mettre à l'échelle les fautes et les erreurs, car aucun système n'est parfait », mentionne Jey Kumarasamy, associé chez Luminos.Law, un cabinet d'avocats axée sur l'IA. « Même si vous atteignez une précision de 90 %, ce qui est très généreux, si vous traitez des milliers de candidatures, un grand nombre de celles-ci ne seront pas correctement traitées. » 

Le point de départ pour évaluer des outils pour les ressources humaines alimentés par l'IA doit commencer par comprendre que ces outils ne sont pas parfaits. « Les biais étant inévitables, les entreprises doivent trouver une façon de les résoudre ou accepter qu'ils s'exposent à des risques », indique Trey Causey. 

Bien que certaines entreprises acceptent les risques en raison de l'augmentation de la productivité, d'autres peuvent estimer que la marge d'erreur potentielle compromet leurs valeurs ou crée trop de complexité face à des pressions réglementaires accrues. 

Si vous allez de l'avant avec l'IA, choisissez vos outils avec soin. L'IA qui offre des transcriptions des conversations lors des entrevues, par exemple, est habituellement une application de faible risque (bien qu'elle puisse offrir un faible rendement lorsqu'elle est utilisée avec des personnes allophones). En revanche, l'IA qui examine et évalue les candidats en fonction de leur rendement lors des entrevues vidéo « est le domaine le plus problématique, car il existe beaucoup de risques et de façons dont les choses peuvent mal tourner », explique Jey Kumarasamy.

Et enfin, l'IA doit renforcer et améliorer les processus humains et non les remplacer. Avant d'adopter des outils d'IA, assurez-vous que votre équipe des ressources humaines soit complète afin que des personnes puissent vérifier chaque étape de tout processus automatisé par l'IA. Laissez les sujets décisifs des ressources humaines entre les mains des humains, par exemple les décisions d'embauche, les promotions et le soutien aux employés. Heureusement, si l'IA prend en charge les tâches banales, les professionnels des ressources humaines auront davantage de temps et de flexibilité pour exercer ces tâches.

2. Présélectionnez les fournisseurs tiers qui mettent à disposition des outils alimentés par l'IA

Dès que vous avez décidé du type d'outils d'IA qui correspond le mieux aux besoins de votre organisation, vous pouvez approcher des fournisseurs officiels avec des questions, comme les suivantes : 

  • Comment vérifient-ils leur système? Quand celui-ci a-t-il été testé pour la dernière fois et quels indicateurs ont été utilisés?
  • Les tests ont-ils été effectués à l'interne ou par un groupe externe?
  • Comment les biais ont-ils été atténués? S'ils affirment que leur système à un niveau minimal de biais, quelle est son incidence et comment ce biais est-il mesuré? 
  • Pouvez-vous examiner les indicateurs de test en tant que client potentiel?
  • Si les performances du modèle se dégradent, le fournisseur offre-t-il des services d'après déploiement pour aider à former vos employés à la configuration et à l'entretien du système?
  • Le fournisseur se conforme-t-il aux réglementations actuelles et aux réglementations à venir? « J'ai parlé avec un fournisseur l'an dernier et je lui ai demandé s'il se conformait à une réglementation précise et il n'en avait jamais entendu parler avant », mentionne Trey Causey. Non seulement il s'agissait d'un signal d'alarme, mais « cela avait une incidence claire et directe sur leur produit ». 
  • Se conformera-t-il à toute vérification d'IA que vous mènerez? « Lorsque vous menez une vérification d'IA, vous aurez certainement besoin d'un fournisseur pour vous aider, et ce n'est habituellement pas le meilleur moment pour découvrir que votre fournisseur ne veut pas coopérer avec vous ou vous fournir les documents ou les résultats », indique Jey Kumarasamy.

3. Repérez et surveillez les biais

Les algorithmes d'IA ne sont pas plus objectifs que les données utilisées pour les former. Même si les employeurs ne peuvent pas modifier la manière dont les algorithmes sont créés, ils risquent de s'exposer à une responsabilité potentielle en vertu des lois canadiennes relatives aux droits de la personne, qui interdisent la discrimination dans l'emploi fondée sur certains motifs protégés, comme la race, l'origine ethnique, l'identité de genre et l'âge. Il existe des manières de tester ces outils avant de les mettre en œuvre, comme mener une vérification tierce des biais avant de lancer l'IA pour le recrutement.

Les organisations peuvent également utiliser un processus connu sous le nom d'« analyse hypothétique » pour voir comment un modèle d'IA réagit à différentes entrées. Par exemple, si l'IA évalue les CV des candidats, essayez de changer le nom du candidat ou le nom de l'école, le candidat est-il classé différemment par l'algorithme? 

« Cela se fait depuis les années 1950, lorsque des sociologues envoient des CV à des employeurs en changeant une seule donnée sur les CV pour voir si le taux de rappel est différent », mentionne Trey Causey. « Nous pouvons le faire aussi avec l'IA, et intégrer un grand nombre de connaissances en sciences sociales sur la manière d'évaluer les biais dans les modèles d'IA. »

Lorsque vous mettez en place des systèmes d'IA, surveillez-les en continu afin de repérer et de corriger tout modèle discriminatoire dès son apparition, et tenez-vous au courant des recherches en cours sur la science des données et l'IA. « Lorsque des humains prennent les décisions, il est difficile de savoir s'ils sont biaisés », mentionne Trey Causey. « Vous ne pouvez pas entrer dans la tête de quelqu'un pour lui demander pourquoi il a dit oui à un candidat et non à un autre, alors que nous pouvons le faire avec un modèle. »

Il n'existe aucune suite de tests normalisée pour évaluer les outils d'IA pour les biais. Les employeurs doivent au moins comprendre clairement comment l'IA est utilisée au sein de l'organisation, ce qui peut inclure le besoin de conserver un inventaire de tous les modèles d'IA utilisés. Les organisations doivent documenter les outils, les fournisseurs qui les ont mis à disposition, de même que les cas d'utilisation pour chaque outil. 

Dans le meilleur des cas, les vérifications rapprocheront les différents services, incluant les équipes juridiques internes, de même que les experts en sciences des données ainsi que des conseillers externes et des vérificateurs indépendants. 

4. Demeurez à l'affût de l'évolution des législations

Les risques des outils automatisés pour les ressources humaines ne se limitent pas à la réputation et aux finances, ils sont également d'ordre juridique. La législation apparaît rapidement en réponse à la prolifération de l'IA sur le lieu de travail. 

Pour l'Union européenne, la loi sur l'IA* proposée vise à attribuer des niveaux de risque aux applications d'IA en fonction de leur potentiel d'insécurité ou de discrimination, puis à les réglementer en fonction de leur classement. Par exemple, la proposition actuelle considère que les applications d'IA qui balaient les CV sont des applications « à haut risque » qui pourraient être assujetties à des exigences de conformité strictes.

Au Canada, le gouvernement a fait le premier pas vers la réglementation de l'IA lorsqu'il a présenté la Loi sur l'intelligence artificielle et les données (LIAD) dans le cadre du projet de loi C-27, la loi de 2022 sur la mise en œuvre de la Charte du numérique. Semblable à celle de l'UE, la loi mise sur la réglementation des risques en lien avec la conception, le développement et la commercialisation des technologies d'IA au Canada.

De plus, plusieurs lois existantes, comme la Loi sur la protection des renseignements personnels et les documents électroniques (LPRPDE), s'appliquent aux décisions d'emploi prises par l'IA. « On pourrait penser que si une loi ne concerne pas directement les systèmes d'IA, elle n'a pas d'incidence sur ces derniers », mentionne Jey Kumarasamy. « Ce n'est pas vrai, surtout lorsque nous parlons d'emploi. » Que le résultat de votre emploi soit attribué à un être humain ou à un système d'IA, l'organisation est responsable* de tout biais.

Bien que les vérifications soient un excellent point de départ, la meilleure manière de se préparer aux nouvelles exigences réglementaires et de s'assurer que votre IA fonctionne efficacement et équitablement est de concevoir un plus grand programme de gouvernance d'IA. 

Les systèmes de gouvernance documentent les principes de l'organisation en respect de l'IA et créent des processus pour évaluer des outils en continu, détecter les problèmes et les corriger. Par exemple, Indeed a développé et publié publiquement ses propres principes pour une utilisation éthique et bénéfique de l'IA au sein de l'entreprise. Indeed a également mis sur pied une équipe interfonctionnelle d'éthique en matière d'IA qui conçoit des outils, des systèmes et des processus pour aider à s'assurer que la technologie est utilisée de manière responsable. 

Même avec la mise en place de protections, la nouvelle génération d'outils d'IA est complexe et faillible. 

Cependant, faire l'effort de les utiliser de manière responsable ouvre la voie à la mise en place de meilleurs processus. L'IA peut aider les humains à être plus efficaces et moins biaisés, mais uniquement si les humains fournissent les renseignements nécessaires. Par exemple, il faut trouver les occasions de penser de manière critique aux paramètres qu'un algorithme d'IA devrait prendre en compte pour les critères d'un emploi, améliorant ainsi de manière significative la façon dont les candidats sont évalués. 

« Comment pouvons-nous vraiment aller au cœur de ce que signifie réussir dans un poste? » demande Trey Causey. Le recrutement basé sur les compétences peut être moins biaisé que de se fier aux noms d'écoles ou d'entreprises, un aspect que l'IA peut maîtriser d'une manière qui n'est pas forcément le cas des humains. « L'IA offre un réel potentiel d'égalisation des chances pour les chercheurs d'emploi », mentionne Trey Causey. 

* Articles en anglais