Partager:
Vera a fait passer des entretiens à 1,4 million de demandeurs d'emploi: à l'image de ce robot russe, l'intelligence artificielle (IA) appliquée au recrutement est en plein essor, un phénomène qui n'est pas sans conséquences éthiques.
Avant de créer "Robot Vera", la start-up russe Stafory se voyait en "Uber des recruteurs", avec une armée de personnes non salariées, passant des coups de fil contre rémunération.
Mais depuis janvier 2017, c'est un programme informatique qui pose les questions par téléphone, toujours les mêmes, pour trouver des candidats à des emplois peu qualifiés. D'après Stafory, il accomplit en une heure des tâches qui prenaient une semaine auparavant.
"Au début les entretiens étaient rédigés", raconte Alexei Kostarev, co-fondateur de la start-up. "Mais plus maintenant. Aujourd'hui (Vera) répond même aux questions, qu'elle comprend à 85%. On l'a formée avec les entretiens et avec Wikipedia. On lui a même fait ingurgiter 160.000 livres."
"Robot Vera" a 200 clients, des grandes entreprises comme Ikea qui gardent complètement la main sur le reste de la sélection. Même si le robot peut désormais conduire d'autres entretiens informatifs, en cas de démission, par exemple. "Les gens sont plus honnêtes avec un robot, ils lui disent des choses qu'ils ne diraient pas à une personne", s'amuse Alexei Kostarev.
- "Clonage" -
La plateforme américaine de recrutement ZipRecruiter, elle, propose une "expérience en temps réel" aux entreprises. Chaque offre est simultanément publiée sur une centaine de sites et réseaux sociaux, tandis que l'algorithme notifie immédiatement les candidats les plus appropriés selon lui parmi les dix millions d'inscrits auprès de la société elle-même.
L'employeur, de son côté, reçoit une liste avec les candidats débusqués. L'algorithme estampille les "meilleurs" et fait des suggestions supplémentaires, en fonction des profils que l'entreprise a "aimés".
"L'algorithme est tellement sophistiqué, que nous ne pouvons pas disséquer a posteriori comment il est parvenu à cette sélection", explique Ian Siegel, PDG de ZipRecruiter. "Mais le niveau de satisfaction est beaucoup plus élevé qu'avec la méthode traditionnelle."
Ian Siegel assure que le risque de reproduire les préjugés des employeurs, conscients ou non, est pris en compte. "Tous ces algorithmes apprennent à partir des processus de décision des humains, et le risque d'institutionnaliser ces biais existe."
"Le problème de l'IA dite +forte+ en ressources humaines, c'est que c'est simplement du clonage", renchérit Jérémy Lamri, président du Lab RH, une association de start-up.
- Homme blanc de 42 ans -
Si un algorithme auto-apprenant se base sur des plateformes comme LinkedIn, un réseau social populaire surtout auprès des cadres, il déduira peut-être que le profil idéal d'un responsable informatique est un homme blanc de 42 ans possédant tel diplôme.
Comment corriger ces biais discriminants ? En utilisant des systèmes d'IA plus "faibles", selon Jérémy Lamri: des algorithmes "simples", avec des critères pré-définis par les humains, et sans apprentissage automatique de la part du programme ("machine learning").
Mais la tendance est à l'invention de programmes capables de détecter des qualités encore plus subjectives, car les critères d'embauche ont évolué.
Les connaissances déclinent au profit des compétences dites "comportementales", plus difficiles à mesurer, mais pour lesquelles les recruteurs aimeraient aussi disposer de technologies clé en main.
"Si demain quelqu'un invente un scanner capable d'identifier juste avec votre œil votre capacité à être performant, malheureusement je pense que plein de boîtes l'adopteront", remarque Jérémy Lamri. "Il faut poser un cadre éthique. Ce n'est pas parce que la technologie peut faire quelque chose qu'elle doit le faire."
"Il y a de plus en plus de nouveaux outils, on va pouvoir détecter les émotions sur les visages par exemple", constate Laurent da Silva, directeur général de Badenoch & Clark et de Spring, filiales d'Adecco dédiées au recrutement des cadres.
Mais il n'a pas été convaincu par une start-up qui évaluait des entretiens vidéos selon des critères subjectifs, tels que l'intonation: "On a trouvé que le fait d'être filmé entraînait un biais dans la qualité des réponses des candidats".
Les machines peuvent s'occuper de la sélection initiale, "mais la transaction finale sera toujours l'histoire d'une rencontre", rassure Laurent da Silva. "C'est comme dans la vie privée, (...) à la fin c'est deux personnes qui se disent oui."