Algorithmes sexistes

L’accès aux annonces d’emploi n’est pas le même sur les réseaux sociaux selon que vous soyez un homme ou une femme. Comment les algorithmes reproduisent-ils les discriminations ? Démonstration.

Nathalie Ducommun : Vous cherchez peut-être un nouveau job, du coup vous scrutez les annonces proposées par Facebook, eh bien si vous êtes une femme vous ne recevez pas les mêmes propositions que si vous êtes un homme, indépendamment de toute autre caractéristique. Cette petite discrimination de départ c’est le fait des algorithmes et le sexisme des algorithmes, vous allez le voir, ce n’est pas anodin quand on sait que de plus en plus d’entreprises les utilisent pour recruter du personnel. C’est le reportage signé Cécile Tran-Tien.

Cécile Tran-Tien : Trouver des offres d’emploi, un jeu d’enfant sur Internet. En quelques clics des centaines d’annonces surgissent, des offres instantanées, géolocalisées et ultra-personnalisées. Grâce à leurs puissants algorithmes, Facebook et Google s’imposent aujourd’hui dans le monde du recrutement. L’ambition affichée c’est des machines plus efficaces et plus justes que l’homme, mais déjà des voix s’élèvent.

Isabelle Collet : On est aussi dans un mythe techniciste qui nous dit puisque c’est un logiciel c’est objectif. Non, pas du tout, puisqu’il y a des hommes et très peu de femmes qui, derrière, développent ces logiciels, ce n’est pas objectif.

Cécile Tran-Tien : La preuve en images. Regardez ce petit test. Un homme, une femme, deux téléphones, mais une seule et même recherche : emploi à Genève dans un rayon de cinq kilomètres. Aucun des deux n’a précisé son âge, son expérience ni même ses diplômes et pourtant les résultats obtenus n’ont rien à voir ! Pour elle secrétaire, baby-sitter ou encore vendeuse en poissonnerie, le tout à temps partiel. Pour lui prestataire de service, professeur ou chef d’équipe, majoritairement à temps plein. Un brin sexiste et, vous allez le voir, nous ne sommes pas au bout de nos surprises.
Notre expérience a démarré il y a quelques semaines en plein cœur de Berlin, tout près de la très touristique Alexander Place. Nicolas Kayser-Bril travaille pour une ONG [AlgorithmWatch] spécialisée dans la surveillance des algorithmes. Pour nous, il s’est glissé dans la peau d’un recruteur et a posté de réelles offres d’emploi sur Google et Facebook : infirmier, avocat ou encore chauffeur. Son but, vérifier qui reçoit réellement ces annonces.

Nicolas Kayser-Bril : Certaines pubs ont été montrées quasiment uniquement à des hommes, comme la publicité pour les chauffeurs de poids lourd, et d’autres ont été montrées quasiment uniquement à des femmes comme la publicité pour des emplois d’infirmier/infirmière ou d’éducateur/éducatrice de jeunes enfants.
La discrimination a lieu avant que quiconque n’ait cliqué sur la publicité. Donc l’optimisation n’est pas en fonction des réactions des Suisses et des Suissesses, mais bien en fonction de critères inconnus que Facebook décide avant même que la publicité ne soit montrée à qui que ce soit.

Cécile Tran-Tien : Véritable boîte noire, l’algorithme de Facebook n’a jamais été rendu public. Impossible donc de comprendre comment l’intelligence artificielle opère ses choix.
À Berlin, l’équipe de Nicolas Kayser-Bril a donc décidé de pousser l’expérience un peu plus loin.

Nicolas Kayser-Bril : On a fait une expérience où on a changé les photos et on s’est aperçu que Facebook utilise les photos pour discriminer en fonction de stéréotypes grossiers. Si vous faites une publicité pour des emplois de chauffeur/chauffeuse de poids lourd avec des cosmétiques, la publicité ne sera montrée quasiment qu’à des femmes. Inversement, si vous écrivez à Facebook que vous recherchez des chauffeuses de poids lourd, que vous mettez une image de poids lourd, ça ne sera quand même montré qu’à des hommes.

Cécile Tran-Tien : Un ciblage systématique des sexes qui pose question, car les discriminations à l’embauche sont légalement interdites en Suisse. Alors neutres ou sexistes les algorithmes ? Contactés, Facebook et Google n’ont pas souhaité commenter.
Loin de la Silicon Valley, Isabelle Collet est devenue la bête noire des GAFAM. Professeure à l’université de Genève, cette informaticienne de formation traque les discriminations sexistes créées par le numérique. Elle a suivi de près l’exemple d’Amazon, premier à se casser les dents sur le recrutement via des algorithmes.

Isabelle Collet : Amazon, qui a plutôt eu du succès chaque fois qu’ils ont automatisé un processus, a voulu automatiser son recrutement. L’idée était que les cinq meilleurs CV sélectionnés par l’intelligence artificielle les personnes seront embauchées directement. Dans les cinq meilleurs CV il y avait une majorité d’hommes, c’était gênant. Ils ont dit « l’algorithme est sexiste, on ne l’emploie pas ». Non ! Non ! Les RH d’Amazon étaient sexistes. L’algorithme s’est contenté de reproduire ce que d’ordinaire on faisait aux RH d’Amazon, c’est-à-dire on constatait que pour avoir une promotion, un bon salaire ou pour être gardé il valait mieux être un homme. Ce n’est pas l’algorithme qu’il fallait jeter, il fallait réinterroger sa manière de gérer ses ressources humaines.

Cécile Tran-Tien : Mais en Suisse qu’en est-il ? Sélectionner des CV, recruter de futurs candidats grâce à des algorithmes, on n’y est pas encore.
Dans cette entreprise, leader du placement temporaire en Romandie [Interiman Group], on reçoit plus de 200 000 candidatures par année. Forcément on réfléchit à l’intelligence artificielle, mais on se méfie aussi.
Grégory Papin est responsable digital, c’est par lui que la robotisation arrive par petites touches, surtout pour accélérer l’expérience des candidats.

Grégory Papin : Au moment où il va postuler, typiquement on va lui demander de déposer uniquement son CV et automatiquement on a un robot qui va faire de l’analyse sémantique, reconnaître son nom, son prénom, son adresse, ses numéros de téléphone, toutes ses coordonnées et puis il va pré-renseigner un formulaire. Ce formulaire sera toujours modifiable et toujours à la portée du candidat. Aujourd’hui ça serait très difficile de faire confiance à 100 % dans l’intelligence artificielle, dans le traitement de ces petites candidatures-là qu’on va faire.

Cécile Tran-Tien : Au siège du groupe romand on réfléchit pourtant déjà à la prochaine étape : croiser les CV et les offres existantes pour proposer automatiquement des emplois ciblés aux candidats, mais les questions éthiques ne sont jamais bien loin.

Grégory Papin : Aujourd’hui on aurait clairement un problème éthique de se dire qu’on traite les candidats de manière totalement automatique et on leur fait passer des entretiens totalement automatiques. On a besoin du regard de nos consultants et de leur expertise. Maintenant, notre position n’est pas d’exclure les nouvelles technologies, au contraire, mais il ne fait pas voir qu’à travers l’intelligence artificielle, on aura toujours besoin de l’humain dans le traitement du recrutement.

Cécile Tran-Tien : À quelques kilomètres de là certains vont déjà beaucoup plus loin. Nous sommes à Martigny dans cet institut de recherche mondialement reconnu [1], on planche sur l’algorithme conçu et entraîné depuis des mois pour analyser des entretiens d’embauche. Michael Villamizar et Jean-Marc Odobez sont les têtes pensantes de ce projet.

Jean-Marc Odobez : On a des exemples d’entretiens d’embauche qui peuvent exploités pour apprendre à nos algorithmes à reconnaître les expressions.

Cécile Tran-Tien : Peur, joie, surprise. Objectif final : aider les recruteurs à découvrir si un candidat simule son enthousiaste ou si son discours n’est pas cohérent par rapport à ses émotions. Pour y arriver, le moindre mouvement des muscles du visage est décortiqué.

Jean-Marc Odobez : Ce qu’on doit repérer sur un visage, par exemple typiquement pour une expression de surprise c’est plutôt, éventuellement, le haussement des sourcils qui sera plus caractéristique. Ouvrir la bouche oui, mais quand on parle on va rarement ouvrir la bouche en même temps que le haussement des sourcils, donc ce qui va revenir plutôt ce sont principalement les sourcils.
Pour une expression de tristesse c’est plutôt, effectivement, les lèvres qui vont tomber.
Pour la joie, c’est plutôt effectivement l’inverse, des lèvres qui vont plutôt monter et puis être en colère, c’est, par exemple, le rapprochement entre les yeux au niveau des sourcils.

Cécile Tran-Tien : Là encore, l’objectif de la machine c’est d’être impartiale, mais ce chercheur en est conscient, de nombreux biais de sexe ou d’âge peuvent exister.

Jean-Marc Odobez : Par exemple une personne âgée aura des rides qui pourront être interprétées directement comme des expressions même si, au moment présent, la personne n’est pas en train d’exprimer cette expression. On a des rides d’expression qui apparaissent et qui peuvent être interprétées, donc en entrée il faut aussi fournir des données qui tiennent compte, par exemple, de l’âge.
Quand on a 100 CV et qu’on ne peut pas faire 100 entretiens, qu’il faudra quand même, de toute façon, prendre une décision, ça peut être un outil, mais ça doit rester un outil et ensuite, derrière, il y a des humains qui prennent les décisions.

Cécile Tran-Tien : Corriger les algorithmes et neutraliser les biais sexistes ou racistes quand on les repère, c’est possible. Quelques étages plus bas, dans la très sécurisée salle biométrique, c’est justement l’une des tâches de Sébastien Marcel.
Dans ce laboratoire, on entraîne les algorithmes à repérer le vrai du faux notamment grâce à ces masques en silicone. Mais pour corriger les biais de genre, il faut agir à la racine même des données d’apprentissage des algorithmes.

Sébastien Marcel : La raison pour laquelle certains des algorithmes de ces systèmes de reconnaissance sont biaisés, c’est parce qu’ils ont été entraînés, pour la plupart, à partir d’une base de données qui était elle-même biaisée. Soit on essaye de corriger les données elles-mêmes qui ont servi à créer les systèmes de reconnaissance en rendant ces données non biaisées, c’est-à-dire avoir autant d’hommes que de femmes pour prendre un exemple, mais ce n’est pas toujours possible parce que souvent les systèmes sont déjà entraînés, créés, donc on n’a plus accès aux données originales.

Cécile Tran-Tien : Deuxième solution, plus simple et moins coûteuse, casser les codes, enfin plutôt, changer ceux qui écrivent les codes.
Quatre soirs par semaine Luana Braga vient étudier le code et les algorithmes dans cette haute école spécialisée de Genève.
En 2020, cette jeune femme fait encore figure d’exception dans un univers hautement masculin.

Luana Braga : Le premier jour, quand on est arrivés, j’ai compté, on était quatre sur les 65. Dans ma classe, par exemple, on est deux filles sur 14 et c’est un peu dommage. Je suis habituée, ce n’est pas grave, j’y vais, je frappe à la porte et « bonjour ! ». Ce n’est pas très grave, mais c’est vrai, effectivement, que j’aurais bien voulu avoir plus de femmes à mes côtés.

Cécile Tran-Tien : Ce soir-là, c’est exercice pratique et création d’un petit jeu pour apprendre à écrire des lignes de commande. Luana s’accroche, car, elle en est convaincue, plus de diversité et plus de femmes codeuses pourrait changer la façon dont les algorithmes régissent notre société.

Luana Braga : Actuellement on a un pourcentage de plus ou moins 90 % de personnes qui sont de sexe masculin, blancs, européens, et forcément ils vont faire des choses programmées pour eux, ce qui est tout à fait, plus ou moins, normal. Je ne pense pas que c’est fait exprès. Je pense plutôt que vu qu’il n’y en pas, eh bien ceux qui sont là le font, tout simplement. Pour moi c’était la stratégie en fait, c’était vraiment de voir les domaines dans lesquels je pourrais peut-être apporter quelque chose, avoir un plus et me démarquer, parce que dans les autres domaines c’est très difficile de se démarquer, c’est vraiment très difficile et là c’est le contraire.

Cécile Tran-Tien : En attendant que le code change, c’est aux recruteurs de redoubler de vigilance. Charlène Kurer et son associé en sont bien conscients. Ces deux entrepreneurs genevois doivent recruter des assistants pour leur nouvel espace de flottaison, de la détente en apesanteur dans une eau chargée en sel.
Pour trouver la ou les perles rares, Charlène Kurer a choisi de déposer son annonce uniquement sur Facebook.

Charlène Kurer : Je pense que ce qui a pas mal joué c’est la localisation. J’ai mis « on te décrit comme quelqu’un de dynamique et pro-actif/ve. Tu es disponible de 10 à 40 % de ton temps, donc n’attends plus, ce poste est fait pour toi. »

Associé de Charlène Kurer : On a reçu combien de candidatures ?

Charlène Kurer : Là on est à une quarantaine.

Cécile Tran-Tien : Une annonce non genrée et une image neutre, ici on a fait attention aux moindres détails en espérant que l‘algorithme de Facebook ne vienne pas biaiser ce recrutement.

Charlène Kurer : Pour notre centre de flottaison, on aimerait des hommes comme des femmes, on n’a vraiment pas de préférence. Pour nous ce serait un vrai problème que l’algorithme Facebook choisisse à notre place, finalement, des critères qu’on n’a pas mis, plutôt des hommes, plutôt des femmes. Pour nous oui, ce serait un vrai souci.

Cécile Tran-Tien : Effort récompensé pour cette recruteuse, son annonce a attiré autant de CV d’hommes que de femmes.
De leur côté, Facebook et Google ne nous ont toujours pas répondu et n’ont pas annoncé de rectificatif de leur algorithme. Nos questions semblent pourtant bien être parvenues car Google a choisi d’effacer la majorité de nos annonces pourtant payées et encore valides.

Références

Média d’origine

Titre :

Algorithmes sexistes

Personne⋅s :
- Cécile Tran-Tien - Isabelle Collet - Nathalie Ducommun
Source :

Vidéo

Lieu :

RTS - Émission Mise au point

Date :
Durée :

13 min

Licence :
Verbatim
Crédits des visuels :

Computer Coding PNG Icon - Licence CC0

Avertissement : Transcription réalisée par nos soins, fidèle aux propos des intervenant⋅e⋅s mais rendant le discours fluide. Les positions exprimées sont celles des personnes qui interviennent et ne rejoignent pas nécessairement celles de l'April, qui ne sera en aucun cas tenue responsable de leurs propos.