mardi, 23 avril 2024

Pourquoi l’IA dans l’embauche pourrait faire plus de mal que de bien

Crédit : Temps de rêve

L’utilisation de l’intelligence artificielle dans le processus de recrutement a augmenté ces dernières années, les entreprises se tournant vers des évaluations automatisées, des entretiens numériques et des analyses de données pour analyser les CV et sélectionner les candidats. Mais alors que l’informatique s’efforce d’améliorer la diversité, l’équité et l’inclusion (DEI), il s’avère que l’IA peut faire plus de mal qu’aider si les entreprises ne sont pas stratégiques et réfléchies à la façon dont elles mettent en œuvre la technologie.

« Le biais provient généralement des données. Si vous ne disposez pas d’un ensemble de données représentatif ou d’un certain nombre de caractéristiques sur lesquelles vous décidez, alors bien sûr, vous ne serez pas en mesure de trouver et d’évaluer correctement les candidats », déclare Jelena Kovačević, membre de l’IEEE, William R. Berkley Professeur et doyen de la NYU Tandon School of Engineering.

Le principal problème avec l’utilisation de l’IA pour le recrutement est que, dans une industrie à prédominance masculine et blanche depuis des décennies, les données historiques sur lesquelles les systèmes de recrutement d’IA sont construits auront finalement un biais inhérent.

Sans divers ensembles de données historiques pour former les algorithmes d’IA, les outils de recrutement d’IA sont très susceptibles de comporter les mêmes biais qui existent dans le recrutement de technologies depuis les années 80. Pourtant, utilisée efficacement, l’IA peut aider à créer un processus de recrutement plus efficace et plus équitable, selon les experts.

Les dangers des biais dans l’IA

Étant donné que les algorithmes d’IA sont généralement entraînés sur des données antérieures, le biais avec l’IA est toujours un problème. En science des données, le biais est défini comme une erreur résultant d’hypothèses erronées dans l’algorithme d’apprentissage.

Entraînez vos algorithmes avec des données qui ne reflètent pas le paysage actuel, et vous obtiendrez des résultats erronés. En tant que tel, avec l’embauche, en particulier dans un secteur comme l’informatique, qui a connu des problèmes historiques avec la diversité, la formation d’un algorithme sur les données d’embauche historiques peut être une grosse erreur.

« Il est très difficile de s’assurer qu’un logiciel d’IA n’est pas intrinsèquement biaisé ou n’a pas d’effets biaisés », déclare Ben Winters, spécialiste de l’IA et des droits de l’homme à l’Electronic Privacy Information Center. Bien que des mesures puissent être prises pour éviter cela, ajoute-t-il, « il a été démontré que de nombreux systèmes ont des effets biaisés en fonction de la race et du handicap. »

Si vous ne disposez pas d’une diversité appréciable dans votre ensemble de données, il est alors impossible pour un algorithme de savoir comment les individus des groupes sous-représentés se seraient comportés dans le passé. Au lieu de cela, votre algorithme sera biaisé par rapport à ce que représente votre ensemble de données et comparera tous les futurs candidats à cet archétype, explique Kovačević.

« Par exemple, si les Noirs étaient systématiquement exclus du passé, et si vous n’aviez aucune femme dans le pipeline dans le passé, et que vous créez un algorithme basé sur cela, il n’y a aucune chance que l’avenir soit correctement prédit. Si vous n’embauchez que des « écoles de l’Ivy League », alors vous ne savez vraiment pas comment un candidat d’une école moins connue se comportera, il y a donc plusieurs niveaux de préjugés », dit-elle.

Wendy Rentschler, responsable de la responsabilité sociale d’entreprise, de la diversité, de l’équité et de l’inclusion chez BMC Software, est parfaitement consciente des inconvénients potentiels que l’IA peut apporter au processus de recrutement. Elle cite un cas tristement célèbre de la tentative d’Amazon de développer un outil de recrutement d’IA comme excellent exemple : l’entreprise a dû fermer le projet parce que le algorithme discriminé contre les femmes< /a>.

« Si la plus grande et la plus grande entreprise de logiciels ne peut pas le faire, j’accorde une grande attention à toutes les technologies des ressources humaines et à leurs affirmations selon lesquelles elles sont capables de le faire », déclare Rentschler.

Certaines sociétés de logiciels de recrutement d’IA font de grandes déclarations, mais il reste à voir si leur logiciel peut aider à déterminer le bon candidat. La technologie peut aider les entreprises à rationaliser le processus d’embauche et à trouver de nouvelles façons d’identifier des candidats qualifiés à l’aide de l’IA, mais il est important de ne pas laisser les prétentions ambitieuses obscurcir le jugement.

Si vous essayez d’améliorer la DEI dans votre organisation, l’IA peut sembler être une solution miracle ou une solution miracle, mais si vous n’êtes pas stratégique quant à votre utilisation de l’IA dans le processus de recrutement, cela peut se retourner contre vous. La clé est de vous assurer que votre processus de recrutement et les outils que vous utilisez n’excluent pas les groupes traditionnellement sous-représentés.

Discrimination avec l’IA

Il appartient aux entreprises de s’assurer qu’elles utilisent l’IA dans le processus de recrutement de la manière la plus éthique possible et de ne pas être victimes d’affirmations exagérées sur ce que les outils peuvent faire. Matthew Scherer, conseiller principal en matière de politique pour la protection de la vie privée des travailleurs au Center for Democracy & Technology, souligne que, étant donné que le service des ressources humaines ne génère pas de revenus et est généralement étiqueté comme une dépense, les dirigeants sont parfois désireux d’apporter une technologie d’automatisation qui peut aider réduire les coûts.

Cet empressement, cependant, peut amener les entreprises à négliger les aspects négatifs potentiels du logiciel qu’elles utilisent. Scherer note également que de nombreuses affirmations faites par les sociétés de logiciels d’embauche d’IA sont souvent exagérées, voire complètement fausses.

« En particulier les outils qui prétendent faire des choses comme analyser les expressions faciales des gens, leur ton de voix, tout ce qui mesure des aspects de la personnalité, c’est de l’huile de serpent », dit-il.

Au mieux, les outils qui prétendent mesurer le ton de la voix, les expressions et d’autres aspects de la personnalité d’un candidat dans, par exemple, un entretien vidéo « mesurent à quel point une personne est culturellement « normale » », ce qui peut finalement exclure des candidats avec un handicap ou tout candidat qui ne correspond pas à ce que l’algorithme détermine comme un candidat typique.

Ces outils peuvent également mettre les candidats handicapés dans la position inconfortable d’avoir à décider s’ils doivent divulguer tout handicap avant le processus d’entretien. Les candidats handicapés peuvent craindre que s’ils ne le divulguent pas, ils n’obtiendront pas les aménagements nécessaires pour l’évaluation automatisée, mais ils pourraient ne pas être à l’aise de divulguer un handicap aussi tôt dans le processus d’embauche, voire pas du tout.

Et comme le souligne Rentschler, le BIPOC, les femmes et les candidats handicapés sont souvent habitués à la pratique du « changement de code » dans les entretiens, c’est-à-dire lorsque des groupes sous-représentés font certains ajustements dans la façon dont ils parlent, apparaissent ou se comportent, en afin de mettre les autres plus à l’aise. Dans ce cas, les systèmes d’IA pourraient détecter cela et identifier à tort leur comportement comme inauthentique ou malhonnête, repoussant ainsi des candidats potentiellement forts.

Scherer affirme que les lois sur la discrimination se divisent en deux catégories : un impact disparate, c’est-à-dire une discrimination non intentionnelle ; et un traitement disparate, qui est une discrimination intentionnelle. Il est difficile de concevoir un outil qui puisse éviter un impact disparate « sans favoriser explicitement les candidats de groupes particuliers, ce qui constituerait un traitement disparate en vertu de la loi fédérale ».

Réglementations en matière d’embauche d’IA

L’IA est une technologie relativement nouvelle, qui laisse peu de contrôle sur la législation, les politiques et les lois relatives à la confidentialité et aux pratiques commerciales. Winters signale une plainte FTC 2019 déposée par EPIC alléguant que HireVue utilisait pratiques commerciales trompeuses liées à l’utilisation de la reconnaissance faciale dans son logiciel de recrutement.

HireVue prétendait proposer un logiciel qui « suivit et analyse la parole et les mouvements du visage des candidats pour pouvoir analyser l’ajustement, l’intelligence émotionnelle, les compétences en communication, les capacités cognitives, la capacité de résolution de problèmes, et plus encore ». HireVue a finalement retiré ses revendications de reconnaissance faciale et l’utilisation de la technologie dans son logiciel.

Mais il existe une technologie similaire qui utilise des jeux pour « mesurer prétendument les attributs comportementaux subjectifs et les faire correspondre à l’adéquation organisationnelle » ou qui utilisera l’IA pour « explorer Internet à la recherche d’informations accessibles au public sur les déclarations d’un candidat, puis les analyser pour déceler le rouge potentiel drapeaux ou fit », selon Winters.

La quantité de données que l’IA peut collecter sur un candidat lors de l’analyse de ses entretiens vidéo, évaluations, CV, profils LinkedIn ou autres profils publics sur les réseaux sociaux suscite également des inquiétudes. Souvent, les candidats peuvent même ne pas savoir qu’ils sont analysés par des outils d’IA dans le processus d’entretien et il existe peu de réglementations sur la façon dont ces données sont gérées.

« Dans l’ensemble, les outils de recrutement d’IA sont actuellement très peu surveillés. Plusieurs projets de loi étatiques ou locaux ont été déposés. Cependant, bon nombre de ces projets de loi comportent des lacunes importantes, à savoir qu’ils ne s’appliquent pas aux agences gouvernementales et offrent des solutions de contournement importantes.

« L’avenir de la réglementation en matière de recrutement assisté par l’IA devrait exiger une transparence importante, des contrôles sur l’application de ces outils, des limites strictes de collecte, d’utilisation et de conservation des données, ainsi que des tests tiers indépendants publiés librement », déclare Winters. .

Utilisation responsable de l’IA dans le recrutement

Rentschler et son équipe chez BMC se sont concentrés sur la recherche de moyens d’utiliser l’IA pour aider le « capital humain de l’entreprise à être plus stratégique ».

Ils ont mis en place des outils qui sélectionnent rapidement les candidats à l’aide d’évaluations basées sur les compétences pour le poste auquel ils postulent et qui programment instantanément des entretiens pour entrer en contact avec un recruteur. BMC a également utilisé l’IA pour identifier le langage problématique dans ses descriptions de poste, en veillant à ce qu’elles soient non sexistes et inclusives pour chaque candidat.

BMC a également utilisé le logiciel pour connecter les nouvelles recrues à leurs avantages et aux informations organisationnelles internes pendant le processus d’intégration. L’objectif de Rentschler est de trouver des moyens de mettre en œuvre l’IA et l’automatisation qui peuvent aider les humains de son équipe à faire leur travail plus efficacement, plutôt que de les remplacer.

Bien que les algorithmes d’IA puissent comporter des biais inhérents en fonction des données d’embauche historiques, une façon d’éviter cela est de se concentrer davantage sur l’embauche basée sur les compétences. L’équipe de Rentschler n’utilise que des outils d’IA pour identifier les candidats qui ont des compétences spécifiques qu’ils cherchent à ajouter à leur main-d’œuvre, et ignore tout autre identifiant tel que l’éducation, le sexe, les noms et d’autres informations potentiellement identifiantes qui auraient pu historiquement exclure un candidat de le processus.

Ce faisant, BMC a embauché des candidats issus d’horizons inattendus, explique Rentschler, y compris un réfugié syrien qui était à l’origine dentiste, mais qui avait également une certaine expérience du codage. Étant donné que le système se concentrait uniquement sur la recherche de candidats ayant des compétences en codage, l’ancien dentiste a réussi à passer le filtre et a été embauché par l’entreprise.

D’autres stratégies éthiques incluent la mise en place de freins et contrepoids. Scherer a consulté une entreprise qui a conçu un outil pour envoyer des candidats potentiels à un recruteur, qui examinerait ensuite leurs curriculum vitae et déciderait s’ils correspondaient bien au poste.

Même si ce recruteur rejetait un CV, le CV du candidat serait à nouveau soumis à l’algorithme, et s’il était signalé comme un bon candidat potentiel, il serait envoyé à un autre recruteur qui ne saurait pas qu’il a déjà été examiné par quelqu’un d’autre de l’équipe. Cela garantit que les CV ont été vérifiés par des humains et qu’ils ne s’appuient pas uniquement sur l’IA pour déterminer des candidats qualifiés. Cela garantit également que les recruteurs ne négligent pas les candidats qualifiés.

« Il est important que l’humain conserve son jugement et ne se fie pas uniquement à ce que dit la machine. Et c’est la chose pour laquelle il est difficile de se former, car la chose la plus facile à faire pour un recruteur humain sera toujours de simplement dire : « Je vais simplement suivre tout ce que la machine me dit si l’entreprise s’attend à ce que j’utilise cet outil », déclare Scherer.

.

Toute l’actualité en temps réel, est sur L’Entrepreneur

LAISSER UN COMMENTAIRE

S'il vous plaît entrez votre commentaire!
S'il vous plaît entrez votre nom ici