Évaluations du leadership reposant sur l’IA représentées par l’IA scannant le cerveau humain

Blog

Pouvez-vous faire confiance aux évaluations de leadership reposant sur l’IA ?

Les évaluations du leadership reposant sur l’IA sont des outils performants, mais pouvons-nous leur faire confiance pour appuyer le processus de prise de décision au travail ? La réponse dépend de leur développement et de leur utilisation responsable.

Date de publication : 3 mai 2023

Durée de lecture : 13 min

Auteur : Chris Coughlin

/ Ressources / Blogs / Pouvez-vous faire confiance aux évaluations de leadership reposant sur l’IA ?


Depuis la sortie de ChatGPT par OpenAI le 2022 novembre, suivie de plusieurs autres bots d’intelligence artificielle massifs (IA), la façon dont l'IA imprègne tous les aspects de notre vie fait l'objet d'une attention renouvelée. Dans le secteur du leadership, l’une des questions les plus fréquemment posées est de savoir si nous pouvons faire confiance aux évaluations de leadership reposant sur l’IA.

Ces questions sur l’utilisation de l’IA dans l’évaluation ne sont pas une nouveauté. Alors que le lancement de nouveaux bots d’IA a attiré l’attention, les psychologues du travail et des organisations, les responsables des Ressources humaines et les services juridiques doivent répondre à des questions sur l’IA depuis plus d’une décennie.

Il n’existe aucun consensus sur l’utilisation de l’IA dans les évaluations en milieu professionnel. Cependant, la plupart des développeurs d’évaluations sont conscients de la puissance et des capacités que l’IA pourrait apporter, tout en comprenant la nécessité de faire preuve de la diligence nécessaire pour s'assurer que les inconvénients ne l’emportent pas sur les avantages.

Les évaluations du leadership reposant sur l’IA pourraient apporter de nouvelles améliorations à l’évaluation traditionnelle (par exemple, des économies de coûts, des prédictions améliorées) si elles sont correctement mises en place. L’impact pourrait être cependant désastreux si vous n'abordez pas les facteurs de risques de l'IA.

Au fur et à mesure que l’IA fait son entrée en milieu professionnel, il est essentiel de trouver un équilibre entre les avantages potentiels et le besoin de transparence, de responsabilité et les questions éthiques. Dans cet article, j’aborderai les principales préoccupations que les RH et les leaders d’entreprise devraient prendre en compte quand ils envisagent d’utiliser l’IA dans les évaluations du leadership.


Quand et pourquoi utiliser les évaluations pour les leaders

Avant d’aborder plus en détail l’IA, fixons les objectifs et les utilisations de l’évaluation. Chez DDI, notre mission est de recruter, de valoriser et de faire évoluer des leaders exceptionnels qui guident les autres vers un avenir meilleur, et nous recommandons et utilisons l’évaluation pour vous aider dans ces tâches.

Les évaluations avant et après le recrutement peuvent être des outils précieux pour les organisations afin d’améliorer leurs procédures de sélection, d'évolution et de formation. Les évaluations préalables au recrutement peuvent être utilisées pour évaluer les compétences, les capacités, les connaissances, la personnalité et les modes de travail d’un candidat. Ils permettent de s'assurer que le candidat est en adéquation avec le poste et la culture de l'entreprise, tout en utilisant des critères professionnels clés pour prédire ses performances une fois en poste. Ces évaluations peuvent aussi permettre d'identifier des domaines problématiques, tels que l'absence d'intervention comportementale efficace dans une simulation, afin de faciliter le processus de prise de décision pour sélectionner le candidat idéal.

Les évaluations post-recrutement sont utilisées pour évaluer la performance des collaborateurs et fournir un feedback pour le développement et la formation. Ces évaluations peuvent être utilisées pour identifier les domaines dans lesquels un employé est solide en termes de perfomance (les « atouts ») et ceux où il peut avoir besoin d’une aide supplémentaire (les « axes de croissance »), comme la formation ou le coaching. Les évaluations post-recrutement peuvent en outre aider à identifier les problèmes potentiels avant qu’ils ne deviennent des problèmes majeurs, tels qu’une faible productivité ou une insatisfaction au travail.

La façon dont vous utilisez les évaluations du leadership — en tant qu’outil de sélection ou de développement — a une répercussion sur la nécessité d'examiner minutieusement le recours à l'IA. Bien qu'il soit nécessaire de se montrer perspicace dans la façon dont vous utilisez l'évaluation pour le développement, les évaluations utilisées pour prendre des décisions en matière de recrutement exigent un examen plus approfondi. Ces outils doivent être équitables aux yeux du candidat et rassurer le responsable du recrutement sur le fait qu’ils prédisent avec précision les performances. Et surtout, ils doivent en outre pouvoir affronter un éventuel contrôle juridique.


Le potentiel de l’IA dans l’évaluation du leadership

Compte tenu du soin avec lequel nous devons utiliser l’IA, certaines personnes se demandent si nous devrions nous en servir dans les évaluations. Cependant, les avantages potentiels sont considérables. L’utilisation de l’IA dans les évaluations du leadership a le potentiel de révolutionner la façon dont nous identifions et formons les leaders efficaces, en obtenant ainsi de meilleurs résultats pour les organisations et la société dans son ensemble.

Sans exagération, les possibilités deviennent infinies concernant les avantages de l’utilisation de l’IA pour effectuer vos programmes d’évaluation. D’un point de vue pratique, voici quelques-uns des avantages potentiels des évaluations de leadership reposant sur l’IA :

  • Économies accrues pour l’élaboration, la notation et l’administration des évaluations.
  • Efficacité accrue pour améliorer l'expérience du candidat (par ex., réduction des délais administratifs pour obtenir les solutions d'une évaluation) et l'expérience de l'administrateur (par ex., immédiateté des résultats de vos candidats).
  • Capacité accrue d'incorporer de nombreux paramètres afin d'augmenter la cohérence, la fiabilité et la validité des résultats pour une utilisation maximale de la solution d'évaluation.
  • Capacité à réduire les préjugés et les évaluations subjectives afin de réduire le risque d’impact négatif et d’erreur d'appréciation.

Les avantages puissants offrent une forte incitation à appliquer la technologie de l’IA pour de meilleurs résultats. Bien évidemment, le défi consiste à savoir comment optimiser ces avantages tout en réduisant les risques.


5 principales préoccupations liées à l’utilisation de l’IA dans le recrutement et les évaluations

L’utilisation croissante d’évaluations de leadership reposant sur l’IA a suscité des inquiétudes à bien des égards. Bon nombre de ces préoccupations sont récurrentes au fil du temps avec chaque nouvelle avancée technologique. La bonne nouvelle est que le secteur a rapidement évolué pour créer de nouvelles normes qui combattent ces préoccupations. Néanmoins, il est essentiel de continuer à se poser ces questions et à prêter attention à la façon dont les prestataires de services d’évaluation y répondent.

Voici quelques-unes des préoccupations les plus courantes :

1. Confidentialité et sécurité des données

L’une des principales préoccupations liées à l’utilisation de la technologie de l’IA est la protection des données privées des personnes. Souvent, les personnes ne savent pas quelles données sont recueillies à leur sujet et comment elles sont utilisées, ce qui est un problème majeur si ces données peuvent avoir une incidence sur leur emploi.

Par exemple, une importante entreprise d’outils de recrutement et de sélection reposant sur l’IA a récemment fait l’objet d’une action en justice de la part de la Federal Trade Commission (FTC) aux États-Unis pour avoir prétendument violé le droit à la vie privée des participants. Selon la plainte, l’entreprise a utilisé l’IA pour analyser les expressions faciales, le ton de la voix et d’autres indices non verbaux des candidats lors d’entretiens d’embauche en vidéo.

Les candidats affirment que l’entreprise n’a pas obtenu leur plein consentement ou ne les a pas informés de l’étendue de l’analyse. Depuis que l’action en justice a été intentée, la société a supprimé ces fonctionnalités de son produit.

Cet exemple montre le potentiel de l’IA dans la prédiction de la performance au travail, mais aussi les risques liés au déploiement de nouvelles technologies sans tenir compte des conséquences juridiques.

2. Préjugés

Les préjugés sont l’un des problèmes les plus courants et les plus préoccupants auxquels sont confrontés les programmes d’IA. Les algorithmes apprennent en utilisant les systèmes et les données existants. Si le préjugé est intégré dans les systèmes existants, l’algorithme résultant affichera sans doute aussi ce préjugé. Comme le dit l’adage, « quand on rentre de mauvaises données, on obtient de mauvaises données. »

Il existe plus méthodes afin d’entraîner les algorithmes pour qu’ils aient moins de préjugés que les systèmes actuels. Par exemple, il est essentiel de disposer d’un ensemble de données de formation diversifié et représentatif. En d’autres termes, les données doivent refléter avec précision la composition de la population réelle que l’algorithme est censé mesurer. Les données de formation doivent inclure un éventail de sexes, d’ethnies, d’âges, de cultures et de milieux socio-économiques différents.  En outre, le prétraitement ou le nettoyage des données de formation est une étape essentielle pour tenir compte des valeurs manquantes, des erreurs, des valeurs aberrantes importantes ou des données non pertinentes qui pourraient biaiser la sortie de l’algorithme. Cependant, à chaque progrès de l’IA, il existe de nouvelles possibilités d’introduire des biais dans le système. Il est donc important de lier les mesures reposant sur l’IA à des critères reposant sur l’emploi et de tester, surveiller et évaluer régulièrement vos algorithmes pour détecter les préjugés dans les candidatures ayant des enjeux élevés, avec une fréquence allant au-delà de la surveillance d’évaluation typique ou classique.

3. Tricher ou faire semblant

La tricherie ou les fausses réponses a toujours été une préoccupation, même avant que les évaluations ne jouent un rôle dans les processus de prise de décision. L’accent était davantage mis sur la tricherie/fausses réponses avec la transition des rencontres d'embauche avec un papier et un crayon aux embauches par ordinateurs. Au milieu des années 2000, les spécialistes et les chercheurs ont réagi en menant des recherches qui ont abouti à des normes et à des recommandations, en encourageant l'adoptation des meilleures pratiques pour les normes d’évaluation en ligne d’aujourd’hui, connues sous le terme peu maniable de « tests en ligne non supervisés » (UIT). Des stratégies telles que les limites de temps, les programmes de surveillance virtuelle, etc., ont permis de préserver l’intégrité des réponses des candidats.

Les craintes de tricherie et de fausses réponses sont ravivées maintenant que l’IA peut fournir des réponses à des questions ouvertes. Cependant, il existe déjà des méthodes en cours pour lutter contre ce défi. Par exemple, les tests de personnalité à choix forcé peuvent lutter contre une approche de l’IA pour apporter une fausse réponse au test. Au fur et à mesure que l’IA progresse, il en va de même pour les approches du secteur visant à prévenir la tricherie.

4. Le problème de la « boîte noire »

La « boîte noire » décrit la capacité de l’IA à montrer que deux choses sont corrélées sans pouvoir expliquer pourquoi. Je dirais qu’il s’agit de l’un des défis les plus inédits et les plus préoccupants de l’IA.

Un exemple célèbre de boîte noire s’est produit lorsque des chercheurs tentaient d’entraîner l’IA à identifier le cancer de la peau. Ils ont fourni au système de nombreuses images de lésions cutanées malignes et bénignes et ont constaté que l’algorithme était capable d’identifier correctement celles qui étaient malignes.

Mais comment le sait-il ? En y regardant de plus près, les chercheurs ont découvert que l'algorithme estimait que toute image d'une lésion contenant également une règle indiquait une tumeur maligne. C’est parce que les règles sont toujours ajoutés dans les photos médicales des lésions malignes pour montrer la taille de la lésion. Pourtant, pour l’algorithme, la simple présence d’une règle dans l’image indiquait probablement un cancer.

Cette logique erronnée est l’un des défis les plus potentiellement préjudiciables de l’IA. Dans le cas des évaluations de leadership, il est essentiel d’être en mesure d’expliquer comment les modèles prédisent les compétences ou les scores de notre évaluation et qui peuvent être observés dans notre documentation technique. Tout professionnel des RH devrait être extrêmement prudent avant d’utiliser des évaluations pour lesquelles le « comment » et le « pourquoi » des résultats ne peuvent pas être expliqués.

5. Responsabilité juridique

Tous ces défis aboutissent à une préoccupation plus large : la responsabilité juridique. Les gouvernements locaux, étatiques et fédéraux adoptent rapidement de nouvelles lois pour protéger la vie privée des individus et l’égalité des chances au travail.

Pourtant, l’augmentation des poursuites ne signifie pas que les entreprises ne devraient pas utiliser les évaluations pour évaluer les candidats. En fait, l’utilisation correcte des données peut aider à réduire les préjugés dans le processus. Cela signifie que vous devez comprendre exactement ce que vous évaluez, comment l’évaluation fonctionne et comment elle est liée aux emplois pour lesquels vous recrutez. Je ne saurais trop insister sur ce point : vous devez être en mesure de fournir une documentation complète sur le développement et la notation d’une évaluation basée sur l’IA.


Critères d’utilisation des évaluations de leadership avec l’IA

Comme pour toutes les autres innovations qui arrivent sur le marché, nous devons aller de l’avant avec un optimisme prudent. La puissance de la technologie dépend de la façon dont nous choisissons de l’appliquer. Dans cette section, je vais aborder certains des critères clés que vous devriez utiliser lorsque vous envisagez une évaluation du leadership reposant sur l’IA.

Pour ceux qui souhaitent approfondir l’utilisation des évaluations reposant sur l’IA, je recommande vivement de lire les récentes directives publiées par la Société pour la psychologie industrielle et organisationnelle)(SIOP). Chez DDI, nous suivons ces lignes directrices pour développer et utiliser des évaluations de leadership reposant sur l’IA.

Si vous ne voulez pas vous attarder sur les recommandations techniques, voici quelques questions de premier ordre que nous vous recommandons de poser lorsque vous envisagez des évaluations susceptibles d'inclure une composante d’IA :

  1. Quels types de données objectives collectez-vous ? Vous pouvez collecter de nombreux types de données, dont certaines sont plus fiables que d’autres pour prédire les performances au travail. Voici un aperçu des types de données connus sous le nom de « signes par rapport aux échantillons ».
  2. Comment mesurez-vous la validité et la fiabilité ? Une évaluation doit être à la fois valide (c’est-à-dire qu’elle mesure avec précision ce pour quoi elle a été conçue) et fiable (c’est-à-dire qu’elle fournit des scores similaires pour les personnes ayant le même niveau de caractéristique). Tout fournisseur d’évaluation devrait être en mesure de répondre à ces questions et de fournir la documentation.
  3. Utilisez-vous des évaluateurs humains, et si oui, comment les formez-vous ? Certains fournisseurs d’évaluation utilisent aussi des évaluateurs humains — comme procède DDI — en conjonction avec l’IA. Cette combinaison d’évaluation humaine et technologique est un moyen puissant de contrebalancer les préjugés et d’offrir une vision plus nuancée et holistique des capacités d’une personne. Cependant, vous devez vous assurer que les évaluateurs suivent une formation appropriée.
  4. Comment effectuez-vous le contrôle de la qualité ? Les évaluations doivent être proposées avec cohérence, avec des différences minimales entre les différentes méthodes de prestation, telles que les navigateurs, le matériel, etc. Il est aussi essentiel qu’elles respectent les normes d’accessibilité.
  5. Comment minimisez-vous les préjugés de l’apprentissage automatique ? Le développeur de l’évaluation doit être capable d’expliquer les mesures qu’il prend pour lutter contre les préjugés de son algorithme.
  6. Comment les évaluations sont-elles surveillées et tenues à jour ? Au fil du temps, les concepteurs d’évaluations doivent surveiller régulièrement leurs données pour détecter les signes persistants de préjugés parmi les groupes, y compris les personnes handicapées. En outre, vous devez vous assurer que vous mettez à jour les normes mondiales et régionales si nécessaire pour effectuer des comparaisons équitables.

Bien que cette liste ne soit pas exhaustive, c’est un bon point de départ pour réfléchir aux questions à poser à votre développeur d’évaluation.


La qualité des données dépend de la façon dont vous les utilisez

Les données ne servent à rien tant qu'elles sont classées dans une étagère. Tout dépend de la façon dont vous les utilisez.

Si vous utilisez des données pour prendre des décisions en matière de leadership, je vous laisse ces quelques principes directeurs :

  1. Tout est une question de pertinence de l’emploi. Cela doit être votre principe directeur avant tout. Chaque donnée que vous considérez doit être directement pertinente pour le travail que la personne est appelée à effectuer — ou vous ne devriez pas l’utiliser. Il est important de noter que, surtout lorsque l'on parle de l’IA, vous devez être en mesure d’expliquer pourquoi et comment les données sont liées aux performances. Vous ne pouvez pas accepter la « boîte noire ».
  2. L’évaluation devrait être une source d’information parmi tant d’autres. Les données d’évaluation doivent éclairer la prise de décision et non dicter les résultats. Les résultats d’une évaluation doivent être examinés, discutés et intégrés à d’autres informations, telles que la performance au travail, le comportement au travail, les qualités personnelles, etc. Il ne doit pas s’agir de la seule information utilisée pour prendre une décision.
  3. Les données font partie d’un dialogue structuré. L’une des plus grandes erreurs que nous constatons chez les entreprises est de parler et d’utiliser les données de façon incohérente, ce qui peut entraîner des préjugés. Assurez-vous d’avoir un processus structuré pour les discussions sur l’évaluation des talents intégrant les données avec cohérence.
  4. N’oubliez pas ces règles de conduite. Les évaluations peuvent mesurer de nombreux aspects d’une personne. Certains éléments, comme les traits de personnalité, peuvent vous donner un aperçu de ce qu’une personne est susceptible de faire ou de ce qui la motive. Pourtant, au bout du compte, le comportement et les choix des leaders détermineront leur performance au travail. Prenez donc soin de réfléchir de manière holistique à la façon dont vous accordez de la valeur aux évaluations de personnalité par rapport au comportement.

En conclusion :

Garder le rythme

La technologie de l’IA progresse à un rythme sans précédent, et nous ressentons cet impact partout. Cependant, la technologie se développe plus rapidement que nous ne pouvons l’évaluer de manière critique, ce qui crée un défi majeur pour les entreprises et les particuliers qui tentent de suivre les dernières avancées en matière d’IA.

Il est essentiel de s’adapter aux nouvelles technologies et d’exploiter leur potentiel, mais il est tout aussi important de bien réfléchir à l’impact de l’IA, en particulier lorsqu’il s’agit de décisions qui affectent la vie des gens. Le 2023 mars, des chefs d’entreprise, des chercheurs et des philosophes ont lancé un appel à l’action demandant une pause de six mois dans le développement de l’IA au-delà du modèle GPT-4 pour permettre au monde de rattraper le développement de l’IA.

Alors que d’autres débattent de l’utilisation et de la réglementation de l’IA, c’est à nous de tirer parti de cette opportunité tout en minimisant ou en éliminant les risques. Quand elle est bien utilisée, nous pensons que l’utilisation de l’IA dans les évaluations peut aider les entreprises à sélectionner et à développer de meilleurs leaders avec moins de préjugés. Pour ce faire, les systèmes d’évaluation du leadership reposant sur l'IA doivent être transparents, explicables et impartiaux.

De plus, les entreprises doivent veiller à ne pas s’appuyer entièrement sur la technologie de l’IA et à ne pas négliger le facteur humain. Utiliser des freins et des contrepoids entre les modèles d’IA et les décisions humaines peut conduire à de bien meilleurs résultats que l’utilisation de la technologie ou de l'appréciation humaine seule. Les décisions prises par l’IA doivent toujours être contrôlées et vérifiées par des humains pour garantir leur validité et leur équité.

En fin de compte, la technologie de l’IA est et sera de plus en plus un outil précieux pour les évaluations, mais nous devons aborder la mise en œuvre de façons responsable pour nous assurer qu’elle sert au mieux les intérêts de toutes les parties prenantes concernées.


Apprenez-en davantage sur les évaluations de leadership avec le Guide ultime de l’évaluation du leadership de DDI.

Chris Coughlin est responsable du développement et de la conception du contenu d’évaluation chez DDI, où il dirige une équipe de scientifiques qui développent, testent, valident, assurent l’assurance qualité, déploient et maintiennent des évaluations innovantes pour la sélection des dirigeants, l’apprentissage et le développement du leadership, ainsi que des solutions pour les cadres. Il aime coacher ses filles au football et en mathématiques, servir de cobaye pour la frappe de son fils au baseball et assister à des matchs de jeu-questionnaire en équipe dans des restaurants locaux avec sa famille. Enfin, Chris aime jouer à Catan avec sa famille et ses amis (et il déclare résolument que Catan est le meilleur jeu de société de tous les temps) pendant ses week-ends de repos.