L’IA recrute pour vous

L’utilisation des services d’ensembles de règles protège-t-elle contre les préjugés ou les améliore-t-elle? Cette question essentielle est apparue comme un motif d’inquiétude pour les partisans de la technologie ainsi que pour ses sceptiques, mais il est plus compliqué d’y parvenir que de donner la bonne réponse. L’emploi n’est presque jamais un choix individuel, mais plutôt l’aboutissement d’une série de choix plus petits et séquentiels. Les techniques jouent des emplois distincts tout au long de cette technique: certaines orientent les offres d’emploi vers un certain nombre de candidats potentiels, tandis que d’autres désignent des personnes indirectes pour le recrutement. L’analyse prédictive des instruments et la cote de crédit reprennent, et aident les superviseurs à employer à examiner les compétences des prospects de manière nouvelle, en utilisant les deux informations classiques et uniques. Beaucoup pensent que les algorithmes peuvent aider les décisionnaires humains à prévenir leurs propres préjugés en ajoutant de la persistance à l’approche de recrutement. Mais les algorithmes apportent de nouveaux dangers. Ils sont capables de dupliquer des biais institutionnels et antiques, amplifiant les inconvénients cachés dans les détails de données tels que la fréquentation universitaire ou les évaluations d’analyse de performance.

Même si des ensembles de règles éliminent une part de subjectivité dans l’utilisation des services d’approche, les personnes seront toujours grandement impliquées dans la suppression des choix d’embauche. Les différends selon lesquels les techniques «objectives» sont plus justes et plus exactes que les êtres humains faillibles ne savent pas que, dans la plupart des cas, ils sont également impliqués. Pour comprendre les biais liés à l’utilisation des services d’algorithmes et aux moyens de les atténuer, nous devons apprendre comment les systèmes prédictifs fonctionnent à chaque étape de l’approche employante. Bien qu’ils révèlent généralement un élément d’ancrage dans la compréhension du dispositif, les outils utilisés précédemment pouvaient être essentiellement distincts de ceux utilisés ultérieurement. Même les ressources qui semblent effectuer le même travail pourraient dépendre d’informations d’un type totalement différent ou présenter des prophéties de manières très différentes. Notre examen des ressources prédictives tout au long du processus de sélection permet de clarifier ce que font les «algorithmes de recrutement» et où et comment les préjugés peuvent entrer dans le processus. Malheureusement, nous avons constaté que la plupart des services utilisant des algorithmes dériveraient par défaut dans la direction du biais. Même si leur contribution probable à la réduction des préjugés sociaux ne devrait pas être réduite, seules les ressources qui s’attaquent de manière proactive à des disparités encore plus profondes laisseront tout espoir que les technologies prédictives puissent contribuer à encourager l’équité plutôt que l’éroder. L’utilisation des services de l’approche commence effectivement bien avant qu’un demandeur d’emploi soumette un logiciel.

Au stade du «sourcing» ou de l’embauche, aide prédictive à l’innovation technologique destinée à promouvoir les possibilités d’emploi, informe les demandeurs d’emploi sur les emplois les plus susceptibles de plaire, et propose aux employeurs potentiels des candidats potentiels à la surface. Pour attirer des individus, de nombreuses entreprises utilisent des programmes d’annonces algorithmiques et des panneaux de tâches pour atteindre les chercheurs d’emploi les plus «pertinents». Ces méthodes, qui promettent aux entreprises une meilleure utilisation des budgets de dépenses de recrutement, produisent généralement des estimations remarquablement superficielles: elles ne prédisent pas qui peut réussir dans le poste, mais qui cliquera probablement simplement sur cette offre d’emploi. Ces prévisions font souvent en sorte que les offres d’emploi soient fournies de manière à soutenir les stéréotypes sexuels et raciaux, même lorsque les entreprises n’ont pas ce genre d’intention. Dans une recherche que nous avons menée récemment avec des collègues de la Northeastern University ou d’un collège et de l’USC, nous avons notamment constaté que les annonces généralement ciblées sur Facebook ou sur MySpace pour des postes de caissiers sur le marché alimentaire avaient été prouvées devant un public composé de 85% de femmes. avec les compagnies de taxi ont accompagné les téléspectateurs qui avaient été environ 75% de couleur noire. C’est vraiment une circonstance parfaite de votre algorithme reproduisant les préjugés du monde réel, sans implication humaine. Entre-temps, des panneaux de tâches personnalisés tels que ZipRecruiter tentent de comprendre automatiquement les préférences des recruteurs et utilisent toutes ces estimations pour solliciter des personnes similaires.

A l’instar de Facebook ou de Twitter, ces méthodes de suggestion sont spécialement conçues pour localiser et reproduire les schémas de comportement des consommateurs, en modernisant les estimations de manière dynamique à mesure que les entreprises et les demandeurs d’emploi se rencontrent. Lorsque le processus constate que les employeurs se connectent plus fréquemment avec des hommes blancs et brillants, il peut très bien localiser des mandataires pour les caractéristiques des personnes (par exemple, devenir Jared ou participer à une crosse au lycée) et reproduire cette conception. Ce type d’impact indésirable peut avoir lieu sans formation explicite, et pire, sans reconnaissance individuelle. Traquer des algorithmes ne sera probablement pas une surface d’imagination pour la plupart d’entre nous chaque fois qu’ils pensent «algorithme d’embauche». Cependant, les décisions informatisées prises au début de la phase à partir de l’entonnoir employé sont très répandues. À titre d’exemple, l’instrument mis au rebut par Amazon sur le marché en ligne pour les filles défavorisées n’était pas un outil de variété pour évaluer des personnes réelles, mais un outil permettant de révéler les personnes inactives que les employeurs pouvaient obtenir. Le repérage d’algorithmes ne permet pas nécessairement de décliner ouvertement les personnes, mais comme le dit Pauline Kim, juriste, «ne pas dire aux individus leur chance d’emploi est un obstacle très efficace» pour les personnes à la recherche d’un emploi. Ces outils peuvent ne pas toujours être efficaces pour les lignes de commande dystopiques, mais ils jouent néanmoins un rôle essentiel pour déterminer qui a accès aux services de procédure par quelque moyen que ce soit.