La discrimination artificielle

Aux Etats-Unis, l’état de l’Illinois a récemment attiré l’attention du grand public sur l’utilisation massive de l’Intelligence Artificielle dans l’évaluation de candidatures en ligne en promulguant « The Artificial Intelligence Video Interview Act », un décret qui garantit les droits des candidats confrontés à ces technologies.

L’utilisation de l’IA dans le recrutement n’est certes pas une nouveauté, mais jusque-là ces applications s’en étaient tenues aux phases de recherche d’offres, de présélection ou d’évaluation de candidatures en ligne, toujours en amont de l’entretien d’embauche proprement dit, le domaine réservé du recruteur. Ce n’est déjà plus le cas aux Etats-Unis, notamment, où de grands groupes comme Unilever ou Goldman Sachs, ont franchi le pas de laisser à l’IA le soin d’analyser et de « noter » les interviews vidéo de leurs candidats, sur la base de leurs expressions faciales, de leurs choix de mots, de leur langage corporel ou du ton de leur voix.

L’IA en question

Au-delà de la fascination ou de la défiance vis-à-vis de ces nouveaux outils, leur déploiement appelle beaucoup de questions pratiques : Que mesurent-ils au juste chez les candidats ? Est-ce toujours pertinent du point de vue professionnel et par rapport au poste considéré ? Respectent-ils seulement les droits des candidats ? Ces solutions se déploient aussi rapidement que discrètement, pour l’instant dans des pays à la réglementation des données personnelles plus flexible qu’en France, et sans s’entourer, semble-t-il, de la rigueur de construction ou des précautions d’utilisation auxquels les procédures d’évaluation classiques, comme les tests psychométriques, par exemple, sont assujetties.

Avant tout, il convient de lever quelques possibles malentendus concernant l’évaluation des entretiens vidéo par l’IA. D’abord, ce ne sont pas tout à fait des entretiens vidéo, mais plutôt des candidatures vidéo. Les candidats les réalisent en ligne, sur une plateforme dédiée, en suivant une trame de questions prédéfinies. Ensuite, l’IA n’élimine pas automatiquement des candidatures vidéo au terme de son évaluation ; elle leur attribue des scores et les classe par ordre de performance pour analyse ultérieure par les recruteurs. Enfin, ces « entretiens vidéo » n’ont pas vocation à remplacer les entretiens physiques avec les recruteurs et les managers. Les candidats sélectionnés par l’IA n’échapperont pas à des entretiens d’embauche avec des êtres humains à l’issue du processus de sélection, ne serait-ce que pour faire connaissance avant de s’engager mutuellement.

L’IA objective ?

L’adoption de ces nouvelles technologies par le grand public ne va pas de soi. C’est pourquoi les entreprises utilisatrices justifient volontiers leur recours par la prétendue neutralisation des biais humains, notamment discriminatoires, dans les évaluations menées par l’IA. C’est oublier que les premières expérimentations de recrutement par IA ont démontré qu’elles véhiculaient également des biais discriminatoires. Pire encore, l’industrialisation de la sélection donnent à ces mécanismes discriminatoires une plus grande ampleur, d’autant plus inquiétante qu’ils ne sont pas toujours visibles immédiatement et quasi impossibles à corriger.

Le problème se niche dans le fonctionnement même de ces solutions, qui ne s’embarrassent pas d’identifier les critères prédictifs de réussite ou d’analyser toutes les compétences objectives nécessaires poste par poste pour les évaluer chez les candidats potentiels. Le machine-learning s’affranchit totalement de ces précautions en se basant exclusivement sur les expériences de succès antérieurs au sein de l’entreprise pour calibrer son analyse. C’est donc à partir de données issues de collaborateurs « en réussite » que l’algorithme construit le modèle de candidat idéal, dont il s’appliquera à identifier des clones parfaits en fonctions des masses d’informations auxquelles il a accès. Sans même s’attarder sur la pertinence ou la fiabilité des données considérées pour cette évaluation (en eux-mêmes sujets à débats), le principe de modéliser les populations « à succès » pour les reproduire, si elle revêt l’apparence du bons sens, est la plus pernicieuse qui soit. Elle aboutirait par exemple à exclure les femmes des postes avec du management sous prétexte qu’elles sont moins représentées aujourd’hui dans les populations de managers, du fait de dynamiques discriminatoires antérieures.

En outre, et bien qu’il n’entre aucun critère discriminatoire direct dans la programmation de ces algorithmes, la multitude des données analysées par une IA recèle nécessairement des indices de notre genre, de notre âge ou de notre origine, par exemple, et cela même si l’on s’en tient à une simple analyse sémantique du discours. A l’insu de leurs concepteurs, ces indices contribuent à la définition du modèle de réussite niché au cœur de l’algorithme, dont les biais, inaccessibles aux programmateurs eux-mêmes, ne peuvent se révéler qu’à travers l’analyse des résultats. C’est ainsi que les premières expérimentations de recrutement par IA, comme chez Amazon par exemple, ont tourné court en dépit de solides cautions scientifiques et des meilleures intentions du monde : les discriminations produites étaient trop patentes. Aujourd’hui, avec les dernières générations d’IA évaluatrice, le risque de discrimination systémique persiste, même si les biais sont devenus plus difficiles à percevoir, posant même de nouvelles questions de fond. Comme la pertinence de la reproduction à l’identique des populations de collaborateurs « à succès » pour la performance ou la pérennité de l’entreprise. Ces effets-là pourraient ne se manifester qu’à long terme avec de probables impacts sur la capacité à s’adapter ou à innover pour les entreprises. Et une impossibilité de fait pour certaines populations de candidats d’y entrer en dépit de leur potentiel et de leur motivation.

L’IA respectueuse des droits des candidats ?

Pourtant, à la faveur de l’engouement des entreprises pour l’IA et du volontarisme de start-ups décomplexées, de tels outils sont de plus en plus utilisés aujourd’hui, y compris en Europe, profitant parfois d’un cadre réglementaire inadapté au mode de fonctionnement de ces nouvelles technologies. En France, ce déploiement est freiné par la réglementation très stricte en matière de recrutement et de discrimination. Ces solutions ne peuvent en effet pas garantir que les candidats ne sont évalués que sur des compétences professionnelles en rapport direct avec le poste considéré et selon des méthodes « pertinentes » comme l’exige la Loi. En outre, si une entreprise utilisatrice venait à être mise en cause pour discrimination à l’embauche et placée dans l’obligation de s’en justifier, elle serait dans l’incapacité de prouver sa bonne foi car le mécanisme de la discrimination potentielle resterait inaccessible du fait de l’effet « boite noire » du machine-learning. Et d’ailleurs, qui de l’éditeur ou de l’entreprise, du recruteur, ou même du développeur, devrait endosser la responsabilité d’une discrimination avérée ? En tout cas pas l’IA.

A défaut d’être en mesure de maîtriser les biais discriminatoires indirects, les éditeurs et les entreprises utilisatrices de ces solutions s’entourent de toutes les précautions juridiques dans leur mise en œuvre, ne serait-ce que pour se protéger des éventuelles conséquences. A commencer par la validation du consentement explicite des candidats, comme la réglementation l’impose dans de nombreux pays d’ailleurs. Mais pour des candidats désireux de rejoindre une belle entreprise, l’option de refuser le processus de recrutement proposé est-elle vraiment envisageable ? Comme pour la mise en œuvre du RGPD, qui n’a fait que rajouter un clic de consentement à notre routine de navigation sur le web, il ne s’agit là que d’une illusion de choix. Conséquence : si les entreprises sont juridiquement à l’abri, les candidats restent seuls exposés aux risques de ces technologies encore mal maîtrisées.

L’IA aux commandes ?

Bien sûr, ces outils restent officiellement une « aide à la décision » et l’IA n’élimine pas automatiquement des candidatures en phase de présélection. C’est vrai, mais en apparence seulement. Car les entretiens vidéo évalués par l’IA peuvent durer jusqu’à 30 minutes et leur nombre est nécessairement important puisque la finalité même de l’outil est d’analyser un plus grand nombre de candidatures. Il est dès lors « humain », pour un recruteur, de concentrer ses efforts sur les candidatures les mieux notées par l’IA, pour s’épargner des heures, voire des journées entières, de visionnage. Le scoring des candidatures sur la base de tests en ligne ou d’analyse sémantique des CVs, qui existe déjà depuis longtemps, avaient abouti exactement au même effet. Cependant, avec les CVs, les recruteurs gardaient encore la possibilité de passer en revue toutes les candidatures, du moins en théorie, à raison de quelques secondes par CV. Avec les candidatures vidéo, cela devient impossible. Ainsi, même si la corrélation n’est pas directe, l’IA écarte de fait les candidatures « mal notées » du processus d’évaluation. L’IA évaluatrice de candidatures vidéo prend bel et bien les commandes du processus de recrutement.

Les bénéfices de l’IA pour les candidats

L’IA est bien sûr porteuse de belles promesses pour les candidats, sitôt qu’on l’aura domestiquée. A tout le moins, elle donne déjà à toutes les candidatures une chance d’être « évaluées », que ce soit par l’intermédiaire d’une vidéo ou à travers l’analyse des mots clés d’un CV. C’est aujourd’hui le principal problème qui se pose dans le processus de sélection basée sur un processus exclusivement humain, notamment pour les employeurs les plus attractifs qui peuvent recevoir plus d’1 million de candidatures par an. Quand l’évaluation en masse par l’IA sera incontestable, il n’y aura plus, en théorie, de candidatures « oubliées » et les candidats « parfaits » n’échapperont plus aux entreprises.

L’IA améliore également l’expérience candidat en personnalisant la navigation sur le site carrière et en facilitant le processus de recrutement. Il faut bien reconnaître que l’ergonomie de la plupart des processus de recrutement en ligne accuse une bonne dizaine d’année de retard sur l’expérience proposée par les sites marchands par exemple. Les systèmes de gestion de candidatures du marché, davantage concentrés sur le traitement des données en masse que sur l’expérience candidat en sont la cause. L’IA est au cœur de nombreuses applications, complémentaires aux ATS, qui fleurissent sur les sites carrière, fluidifiant le processus de recherche d’offres et de candidatures pour les candidats et bénéficiant indirectement à l’image de l’employeur.

L’IA évaluatrice d’entretiens vidéo est cependant un cas à part. L’obligation de passer par une interview vidéo fastidieuse pour accéder à un processus de recrutement et la perspective de voir sa prestation évaluée par une Intelligence Artificielle notoirement imparfaite n’a en effet rien de réjouissant pour les candidats, ni de valorisant pour l’image de l’employeur. Il peut paraître surprenant d’ailleurs que dans un marché des talents prétendument favorable aux candidats l’on puisse leur imposer ce genre d’épreuves. Mais il est vrai que toutes les entreprises ne sont pas égales sur le marché des marques employeurs et ce n’est pas un hasard si les entreprises qui mènent ces expérimentations figurent parmi les plus attractives du marché. Elles peuvent se le permettre.

La responsabilité des entreprises

La course à l’innovation et aux optimisations de process ne s’impose pas à nous. Nous pouvons aussi décider d’adopter une attitude responsable face à des technologies peu matures et choisir, par principe, des pratiques de recrutement 100% respectueuses du droit et des attentes des candidats. Le processus de recrutement est un domaine éminemment sensible tant par ses enjeux opérationnels et réglementaires pour l’entreprise que par les responsabilités qu’il implique vis à vis des candidats. Et pourtant, depuis la phase de sélection des candidatures, qui concentre l’essentiel des risques discriminatoires, jusqu’au suivi des candidatures, source intarissable de frustration chez les candidats privés de réponses négatives, en passant bien sûr par les techniques d’évaluation, qui se doivent d’être irréprochables, le processus de recrutement ne bénéficie pas aujourd’hui du degré de contrôle et de normalisation qu’il mérite. Il n’est pas dans le pouvoir des candidats d’y remédier, ni dans les projets du législateur de s’y atteler semble-t-il. C’est donc aux entreprises elles-mêmes de se saisir de ce sujet si sensible et de s’imposer leur propre éthique de recrutement, même si elle doit leur faire renoncer à des gains sensibles de productivité. L’IA évaluatrice d’entretiens vidéo, par les questions de droit qu’elle soulève et la méfiance qu’elle suscite, pourrait bien déclencher cette prise de conscience, et pourquoi pas mener à une réflexion commune sur un label de qualité des processus de recrutement, comme il en existe déjà pour la diversité et la mixité. La balle est dans le camp des recruteurs.

Taper votre recherche ici