L'IA nous contraint à nous adapter. Découvrez comment créer des politiques, des occasions de formation et des protections juridiques pour y parvenir.

Points clés :

  • Environ un tiers des responsables des ressources humaines et de l'attraction de talents affirment craindre que l'intelligence artificielle ne les oblige à se requalifier, à améliorer leurs compétences ou à chercher un emploi totalement différent.
  • Les experts recommandent de faire preuve de proactivité sur le plan de la rédaction de politiques responsables relatives à l'IA et de la formation des employés à l'utillisation pratique de cette technologie. 
  • Il est essentiel que l'ensemble des employés aient conscience des risques juridiques associés à l'IA, notamment les biais, les préoccupations en matière de sécurité ainsi que les droits de propriété intellectuelle.

Par l'équipe éditoriale d'Indeed

D'après un sondage d'Indeed sur l'IA à l'échelle mondiale, les responsables des ressources humaines et de l'attraction de talents ainsi que les chercheurs d'emploi s'inquiètent de ne pas avoir les compétences requises pour suivre le rythme, à l'heure où les entreprises des quatre coins du monde s'empressent d'adopter des outils basés sur l'IA.

Le sondage, qui rassemble les réponses de plus de 7 000 personnes (des responsables des ressources humaines et de l'attraction des talents ainsi que des chercheurs d'emploi), a montré qu'environ un tiers des répondants des deux groupes affirment craindre que l'IA ne les oblige à se requalifier, à améliorer leurs compétences ou à chercher un emploi totalement différent. En parallèle, 54 % des responsables des ressources humaines et de l'attraction des talents et 46 % des chercheurs d'emploi mentionnent être optimistes concernant l'incidence potentielle de l'IA au travail.

Cette tension entre inquiétude et optimisme offre l'occasion aux dirigeants d'entreprise d'aider leurs équipes à adopter l'IA de façon responsable. Comme l'explique Lori Aiken, responsable de la gestion des talents chez Indeed, les entreprises ne peuvent pas se contenter de supposer que les employés apprennent ces compétences par eux-mêmes. Les dirigeants doivent intentionnellement prendre des mesures pour former leurs équipes et leur montrer l'utilité de l'IA. La responsable l'affirme : « Nous savons qu'elle est là et qu'elle va perdurer. Il ne faut pas en avoir peur. Il faut plutôt l'adopter et trouver comment en tirer parti. »

Découvrez à présent comment élaborer les politiques, les formations et les cadres juridiques nécessaires pour préparer votre équipe à l'avenir de l'IA.

Instaurez des principes directeurs pour l'utilisation de l'IA de manière responsable

Il est indispensable d'établir des principes directeurs pour utiliser l'IA de manière responsable avant qu'il ne soit trop tard pour les équipes, explique Matt Donovan, directeur de l'apprentissage et de l'innovation chez GP Strategies, fournisseur mondial de services de transformation des talents. Il précise : « L'intelligence artificielle est un outil. Elle n'est ni bonne ni mauvaise. Les lignes directrices nous aident à prendre de meilleures décisions sur son utilisation et sa mise en œuvre. »

Les lignes directrices de votre entreprise concernant l'IA n'ont pas besoin d'être très détaillées ou normatives. La liste en six points* de GP Strategies contient des éléments comme « préserver la confidentialité et la sécurité », « garantir la sécurité et le bien-être » et « responsabiliser ». Matt Donovan souligne que les employés de tous les niveaux, pas uniquement les dirigeants principaux, ont joué un rôle dans l'élaboration de ces principes, afin de s'assurer qu'ils représentent un large éventail de perspectives. Il ajoute : « Ces mesures ne peuvent pas être exclusivement du haut vers le bas. »

En élaborant vos politiques de cette manière, vous ouvrez la porte à de nouvelles possibilités d'utilisation de l'IA, à condition qu'elles respectent les principes d'origine. D'après Lori Aiken, la flexibilité est essentielle. Elle se souvient de situations similaires lors de l'émergence d'Internet et des réseaux sociaux sur le lieu de travail. Les entreprises qui tentaient au départ d'interdire l'utilisation de cette technologie au travail ont fini par prendre conscience des énormes avantages qu'elle offrait. La responsable précise : « Je déconseille fortement d'être trop restrictif. Au fil du temps, certaines personnes sur notre planète ne connaîtront que l'IA comme partenaire au quotidien. » 

Faites preuve de détermination quant à la formation et à l'expérimentation de l'IA 

L'enthousiasme suscité par l'IA peut varier radicalement au sein de votre organisation. Un récent sondage* réalisé par Cisco a montré que même si 82 % des membres des conseils d'administration et des hauts dirigeants sont très ou moyennement réceptifs à l'IA, seuls 68 % des employés partagent cet avis.

Par conséquent, il est crucial de montrer au personnel comment utiliser l'IA à leur avantage. Matt Donovan propose de mettre en place un « laboratoire aux innovations », où les employés peuvent être formés à de nouveaux outils et même effectuer des tests A/B pour voir lesquels sont les plus adaptés à une tâche donnée.

Indeed a créé son propre programme de formation à l'IA sur la base du volontariat. Les personnes intéressées peuvent ainsi tester des cas d'utilisation réels de l'IA. La responsable de la gestion des talents explique : « Nous voulons faire comprendre à nos équipes que, s'ils doivent créer une présentation ou effectuer des recherches, l'IA peut leur permettre de gagner du temps de plusieurs manières différentes. » 

Bien entendu, l'IA a aussi ses défauts. Il est donc important de sensibiliser les employés pour qu'ils fassent preuve de vigilance. (Microsoft en personne admet que son outil de productivité alimenté par l'IA, Copilot, est souvent « utilement faux »* et nécessite des ajustements humains pour obtenir les meilleurs résultats.) Lori Aiken ajoute : « Assurez-vous que le message soit compris : pointer et cliquer ne suffit pas ici. L'outil nécessite toujours un certain niveau de surveillance et d'intervention humaine. » 

Expliquez clairement les risques associés à l'IA

Lorsque les équipes commencent à s'essayer à l'utilisation de l'IA, les dirigeants doivent veiller à informer chaque employé, quel que soit son statut, des implications juridiques et des risques encourus. 

Par exemple, dans le processus d'embauche, l'IA peut aggraver des biais et enfreindre des lois contre la discrimination, explique Alex King, vice-présidente et conseillère juridique d'Indeed. Elle ajoute : « Même si vous n'avez absolument pas l'intention d'exclure des groupes sous-représentés, il est toujours possible que votre utilisation de l'outil basé sur l'IA ait entraîné une incidence disparate. Il en va ici de votre responsabilité, ce qui est d'autant plus important pour votre organisation, qui pourrait alors manquer de diversité. » À New York, les entreprises qui utilisent des outils de prise de décision automatisée en matière d'emploi sont tenues de mener des vérifications des biais et de faire preuve d'une plus grande transparence envers les candidats à un emploi. En parallèle, au Canada, le projet de loi C-27 est toujours en cours d'examen. Si la loi est adoptée, elle viendra compléter celle sur la protection de la vie privée des consommateurs en plus d'établir une nouvelle Loi sur l'intelligence artificielle et les données, ce qui pourrait s'appliquer aux outils d'embauche automatisés.

L'importation de données confidentielles dans des outils d'IA clés en main, comme ChatGPT, peut représenter un risque pour la confidentialité et la sécurité. À moins que votre entreprise n'ait conclu un accord avec OpenAI, par exemple, avec une solide politique de confidentialité en place, rien ne garantit que les données de votre entreprise ne seront pas utilisées pour entraîner les modèles d'IA d'autres entreprises, explique Alex King. Même après avoir conclu un accord d'entreprise, la vice-présidente conseille de vérifier qui utilise l'outil d'IA et dans quel but, afin d'éviter une flambée des coûts. « Assurez-vous que l'outil soit bénéfique pour l'ensemble de votre entreprise. »

Les employés doivent également savoir que la loi évolue encore au sujet de la propriété intellectuelle produite par l'IA. Cela signifie que votre équipe devrait y réfléchir à deux fois avant d'utiliser l'IA pour développer quelque chose nécessitant une protection juridique, comme un brevet. Alex King précise : « J'aimerais être prévenue dès le départ, afin de comprendre le type de propriété dont je pourrais disposer par la suite. »

En fin de compte, la décision de prendre de l'avance pour préparer votre équipe à l'avenir de l'IA ne peut qu'être bénéfique. Des recherches* menées par Indeed Hiring Lab aux États-Unis ont montré que pratiquement tous les emplois seront exposés aux changements alimentés par l'IA générative. Mais l'IA ne constitue pas une menace si votre équipe est bien préparée, souligne Matt Donovan. « Vous ne perdrez pas votre emploi à cause de l'IA. Vous perdrez votre emploi à cause d'une autre personne qui utilise l'IA mieux que vous. » 


Écoutez le directeur général d'Indeed, Chris Hyams, mener une entrevue avec une experte de l'IA et ancienne pilote de F/A-18 Hornet, la docteure en ingénierie des systèmes Missy Cummings, dans le balado d'Indeed, « Here to Help »*.

* Articles en anglais