« Technoféminisme » : Mathilde Saliou raconte le problème du numérique avec la diversité

L’Atelier des médias reçoit la journaliste Mathilde Saliou, qui publie Technoféminisme – Comment le numérique aggrave les inégalités chez Grasset. Elle montre comment le milieu de la tech s’est fermé aux femmes et propose des pistes de solution pour davantage d’égalité dans le numérique.

Steven Jambot : « Si on mélangeait numérique et féminisme, qu’est-ce que ça donnerait ? Voici une proposition. Bonne lecture », c’est la dédicace que contenait le livre que m’a adressé mon invitée du jour.
Mathilde Saliou est journaliste, spécialisée dans le numérique. Si vous êtes une ou un fidèle de cette émission, son nom vous dit peut-être quelque chose puisqu’elle a fait partie de l’équipe de L’Atelier des médias. En 2018, elle avait produit plusieurs émissions dont les intitulés donnent les prémices de l’ouvrage dont nous allons parler : « Dans la tête des intelligences artificielles », « Quand le féminisme rencontre le podcast » ou encore « Les journalistes face au cyberharcèlement ». Mathilde Saliou vient de publier, aux éditions Grasset, Technoféminisme – Comment le numérique aggrave les inégalités, un livre qui résonne avec le thème choisi en 2023 par l’ONU pour la Journée internationale des droits des femmes : « Pour un monde digital inclusif : innovation et technologies pour l’égalité des sexes ».
Salut, c’est Steven Jambot. Pendant 20 minutes à la radio, un peu plus si vous choisissez notre podcast, vous écoutez L’Atelier des médias.
Bonjour Mathilde.

Mathilde Saliou : Bonjour Steven.

Steven Jambot : Ton livre parle de questions féministes, mais c’est une réflexion sur les enjeux d’égalité à l’ère numérique et, pour t’emparer de ces sujets, tu as appliqué les principes de la Critique Médias [1]. Explique-nous.

Mathilde Saliou : Comme tu l’as si bien rappelé, merci d’ailleurs, j’ai commencé à travailler sur ces sujets pour des émissions et aussi dans des articles qui s’intéressaient plutôt aux questions de représentation dans les médias. J’ai aussi été engagée dans l’association Prenons la Une [2] qui travaille sur la représentation des femmes dans les médias et dans les rédactions. En parallèle, je creusais mes sujets numériques, l’intelligence artificielle pour L’Atelier des médias, les questions de cyberviolence, etc., et je me suis rendu compte qu’en fait le monde numérique, qu’on présente quelquefois comme une transformation de l’information, eh bien c’est exactement ça : c’est une transformation de l’information, c’est énormément de données, d’éléments qu’on pourrait considérer comme on le fait quand on regarde des articles de journaux. Peut-être, donc, qu’il était possible d’y accoler ces outils de critique des médias même si c’est un peu un raccourci, mais il me semble que c’est une bonne manière pour expliquer la démarche que j’ai essayé de faire.
On en parlera peut-être plus tard, mais typiquement, dans l’intelligence artificielle, un des problèmes les plus évidents ce sont les questions de représentation : si on n’a pas des données qui ressemblent à la société dans son entier dans la machine, alors celle-ci représentera, en sortie, la société de manière biaisée, un peu comme certaines critiques qu’on peut faire aux médias quand on dit « vous ne mettez pas assez de femmes, vous ne tendez pas assez le micro à certaines minorités, etc. »

Steven Jambot : Tu as eu envie de faire quelque chose d’accessible, de vulgariser, de montrer que le numérique est partout dans nos vies et que, même sans nous en rendre compte, cela a des impacts directs sur notre vie.

Mathilde Saliou : C’est exactement cela. Je voulais vraiment faire une entreprise de vulgarisation. Il me semble qu’il y a un problème qui reste assez important dans le monde numérique qui est qu’il y a un gros discours autour du fait qu’il faut être expert, il faut être data scientist, il faut avoir des compétences très poussées en mathématiques et en informatique pour comprendre les innovations qui ont cours. Or, les technologies qui sont produites, les produits qui sont vendus par cette industrie, inondent actuellement la totalité de notre monde, de notre vie quotidienne, en tout cas dans les pays occidentaux. Il me paraissait donc évident, en tant que citoyen/citoyenne, même sans être expert, qu’on puisse quand même avoir droit au chapitre, droit à la discussion. Donc, pour cela, il fallait qu’on nous explique peut-être au moins les bases. En fait, j’ai décidé de le faire en prenant l’angle de ces questions de représentation et d’inégalités parce qu’il m’a semblé que ça pouvait être une nouvelle manière d’expliquer les enjeux du monde numérique. Je recoupe certaines thématiques qu’on connaît déjà sur la surveillance, sur la protection de la vie privée, mais en les abordant avec l’angle des discriminations et de représentation. Je me suis dit que, peut-être, ça rendrait plus compréhensibles certaines thématiques.

Steven Jambot : Dans certaines parties de ton livre, tu as une approche historique pour montrer comment le milieu de la tech est fermé aux femmes jusqu’à effacer leurs contributions, les exemples sont nombreux. Je vais citer quelques noms, c’est important de les citer : Augusta Ada Lovelace [3], Annie Cannon [4], Hedy Lamarr [5], Grace Murray [6], Annie Jean Easley [7], Dorothy Vaughan [8]. Peut-être veux-tu nous parler de certaines d’entre elles ?

Mathilde Saliou : Oui. Il me semblait important d’en parler parce que, dans l’histoire du numérique, on entend souvent parler de grands noms, Steve Jobs, Elon Musk et compagnie, mais on oublie qu’en fait c’est toute une industrie, il y avait plein de gens dedans, y compris plein de femmes et plein de personnes issues de ce qu’on appelle la diversité. Bref ! Par exemple Dorothy Vaughan [8], qui a travaillé à la NASA, fait partie d’une des premières femmes afro-américaines qui aient rejoint cette industrie à la fois informatique et, dans ce cas spécifique, spatiale. C’est une femme au parcours très intéressant parce que c’est aussi une des premières femmes à avoir eu un rôle de management dans cette entité qu’était la NASA. Elle est aussi devenue très vite experte dans un langage qui s’appelle le Fortran, qui a été très utile dans les entreprises. D’ailleurs, la NASA est assez intéressante : à l’heure de la ségrégation raciale qui avait encore cours à l’époque aux États-Unis, elle ne pouvait pas aller contre les lois, néanmoins elle a permis à des femmes, en particulier des femmes noires, d’avoir des carrières qu’il leur aurait été difficile d’avoir ailleurs dans la société américaine. Rien que pour cela je trouve que c’est important de le rappeler. Creuser l’histoire du numérique sert aussi à cela, il y a aussi des éléments assez chouettes même s’il y en a de beaucoup plus négatifs quand on se penche sur les processus d’effacement des femmes dans les années qui ont suivi, autour des années 70 par exemple.

Steven Jambot : L’effacement des femmes. Montrer qu’il y a des petites mains derrière les machines, « des ordinateurs en jupe », je crois d’ailleurs que c’est l’expression qui revient dans ton livre. Effacer les femmes mais aussi effacer les minorités.

Mathilde Saliou : Exactement. C’est un problème qui n’est pas spécifique au monde numérique, soyons bien clairs, néanmoins, comme je le disais tout à l’heure, comme cette couche technologique est devenue très importante dans nos usages, il me semblait important de décortiquer. Typiquement, un des sites les plus utilisés, sur lequel on se tourne le plus à l’échelle de la planète c’est Wikipédia qui est une super encyclopédie. Même si on en avait peur au début des années 2000, aujourd’hui elle a vraiment largement gagné ses lettres de noblesse, elle est vraiment très solide. Et pourtant, quand on creuse, on se rend compte que parmi les contributeurs et les contributrices, il y a 90 % de contributeurs hommes et 10 % de contributeurs femmes ou non-binaires. Ou alors, en termes de représentation des populations de la planète, il y a 70 % des contributeurs et contributrices qui viennent des pays européens ou américains, États-Unis, et, pour le continent africain, ce n’est que 1,5 % des contributeurs de cette encyclopédie. À mon sens c’est un problème parce que l’Afrique c’est 1,3 milliard de personnes, ce n’est pas du tout représentatif, il manque forcément des choses dans cette encyclopédie.

Steven Jambot : Il y a un terme qui revient aussi à plusieurs reprises dans ton livre c’est la notion de cyberharcèlement. Tu écris « en ligne, les femmes courent 27 fois plus de risques d’être visées par du cyberharcèlement que les hommes » et tu décortiques, tu décris des communautés qui se soudent autour de tendances anti-progressistes.

Mathilde Saliou : Ce que je voulais faire dans cette entreprise de vulgarisation, c’était aussi bien m’intéresser aux usages qu’on a dans les mondes en ligne, donc tout ce dont on a parlé avant, l’industrie elle-même, etc., et, en particulier dans les usages de discussion qu’on a pu développer en ligne. On constate qu’il y a, et depuis très longtemps, des problèmes de cyberviolence. Les chiffres et les études montrent que ces cyberviolences ne touchent pas tout le monde de la même manière, ça touche beaucoup plus violemment les femmes que les hommes, ça touche aussi beaucoup plus violemment toutes les personnes issues de toutes sortes de minorités.
Il se trouve que hors-ligne, dans le monde de la recherche, notamment féministe, des chercheuses se sont déjà penchées sur ces problématiques et constatent que de la même manière qu’il peut exister une intersectionnalité des discriminations dont on est victime, qui créent des expériences particulières, il existe une sorte d’intersectionnalité des haines, c’est-à-dire un point où on peut faire rejoindre la détestation des femmes, la détestation des personnes LGBT, la détestation des personnes non-blanches, etc. Comme en ligne on n’a pas mis, on a vraiment fait exprès de très peu mettre, pendant longtemps, des limites au discours dans un idéal de protection de la liberté d’expression…

Steven Jambot : Et aussi de free speech à l’américaine.

Mathilde Saliou : C’est ça. En fait, on a laissé les discours négatifs et violents proliférer, voire, dans certains cas, les algorithmes les ont poussés parce qu’ils ont constaté que ça nous faisait rester plus longtemps sur les réseaux sociaux. Du coup, l’effet pervers c’est que les personnes qui sont visées par ces discours de haine sont beaucoup plus victimes de violence qu’elles ne le seraient dans l’espace public hors ligne. Et à mon avis le grand danger, d’ailleurs ce n’est pas mon seul avis, ce sont aussi des choses qui sont constatées dans des rapports, ça a un effet direct sur la liberté d’expression de ces personnes-là, les personnes qui font partie d’une minorité. Donc, quand un Elon Musk dit qu’il reprend Twitter, qu’il va enlever la majorité de ses règles de modération et faire revenir les comptes qui avaient été bloqués au nom de la liberté d’expression, en fait il met en danger la liberté d’expression d’autres personnes qui sont, encore une fois, des personnes issues de toutes sortes de minorités.

Steven Jambot : Et il fait proliférer des discours haineux en tout genre.
Ton livre n’est pas du tout anti-technologie, puisque, tu le dis aussi, les plateformes, Internet en général, ont permis l’émergence de mouvements de tout type, notamment de mouvements féministes en ligne. Tu cites évidemment #MeToo qui a, je cite, « aidé à prendre enfin au sérieux les plaintes des femmes ». Tu cites aussi # Balance ton saï-saï, balance ton pervers en wolof.

Mathilde Saliou : Oui, parce qu’une dimension qu’on ne voit pas forcément au quotidien c’est que beaucoup des mouvements qui se sont répandus via les plateformes internet – les plateformes ne connaissent pas les frontières – ont eu aussi des effets assez réels dans plein de pays différents. #MeToo,typiquement, a eu des répercussions, parfois avec des adaptations de hashtags : en France on avait #balancetonporc, au Sénégal il y a eu # Balance ton saï-saï. Ce sont autant de variantes d’un même mouvement qui sont adaptées aux contextes locaux et aux urgences locales. Peut-être que ce ne sont pas exactement les mêmes personnes qui ont été visées en France, aux États-Unis où c’était beaucoup le cinéma à l’origine, et au Sénégal, néanmoins l’idée est la même derrière : les femmes qui en ont marre de tous les cas de harcèlement sexistes et sexuels dont elles peuvent être victimes dans la vie courante se rendent compte, grâce à la force des outils en ligne, qu’elles ne sont pas seules, elles sont même beaucoup, qu’elles peuvent faire effet de masse et, qu’en faisant effet de masse, elles peuvent faire bouger petit à petit certaines idées pas forcément très progressistes ancrées dans la société ou pas forcément très à leur avantage qui sont ancrées dans la société et je pense que c’est un avantage.
De toute façon, j’ai écrit ce livre parce que j’adore Internet et j’adore le numérique. Mon but c’est justement, comme je l’aime beaucoup, d’essayer de le faire évoluer pour qu’il soit plus ouvert à tout le monde en fait.

Steven Jambot : Tu adresses aussi, évidemment, une critique aux médias. Tu le disais tout à l’heure, tu as été membre de l’association Prenons la Une [2] dont tu as été secrétaire générale de 2020 à 2022. C’est une association française qui milite pour une meilleure représentation des femmes dans les médias et pour l’égalité dans les rédactions. Je cite un passage de ton livre : « Dans le numérique nous, société, faisons exactement la même erreur que le monde médiatique lorsque celui-ci sur-représente des problématiques qu’il ferait mieux de laisser dans l’ombre et sous-représente des questions aussi urgentes que le changement climatique ». As-tu l’impression que les médias font de mieux en mieux leur boulot tout de même ?

Mathilde Saliou : Bonne question ! Sur les questions de représentation, je ne sais pas, ça avance dans certains coins, mais on va toujours repérer des problèmes ailleurs.
Sur les questions de changement climatique, je crois, oui, qu’il y a quand même une prise de conscience qui ne peut être que positive et qu’il y a de plus en plus d’articles de qualité qui sont lancés.
Sur les questions numériques et, encore une fois, c’est aussi pour cela que je fais de la vulgarisation, je pense que les médias pourraient mieux faire, notamment sur tout ce qui touche à l’intelligence artificielle. C’est vrai que ChatGPT [9] c’est fascinant, c’est vrai que ça envoie du texte qui ressemble vraiment à ce que des humains pourraient produire, mais, en tant que journalistes, nous avons le devoir d’expliquer comment ça marche, d’expliquer là où ça ne va pas, et aussi de ne pas participer à l’anthropomorphisation qui sert beaucoup les discours marketing des grandes entreprises numériques, mais qui, en fait, nous fait oublier la différence entre ce qu’est le produit d’une machine statistique, ce qu’est ChatGPT, et un discours produit par un humain qui a réfléchi, qui a une expérience sensorielle réelle, des expériences de pensée, etc. Il ne faut pas qu’on participe à brouiller les lignes entre ces deux entités très différentes. Au contraire, en tant que journalistes, nous devrions participer à donner des outils à tout un chacun pour bien comprendre ce qui est en jeu et, par exemple aussi, les intérêts économiques derrière, les enjeux politiques que ces machines posent, etc.

Steven Jambot : Vous écoutez L’Atelier des médias de RFI. Mon invitée est la journaliste Mathilde Saliou qui publie chez Grasset un livre intitulé Technoféminisme – Comment le numérique aggrave les inégalités.
Ouvrons une séquence de questions courtes, réponses courtes : y a-t-il, Mathilde, un réseau social où une femme peut évoluer sans crainte en 2023 ?

Mathilde Saliou : Non, mais il y a probablement des sous-groupes, des forums dans lesquels des règles précises sont mises en place et, dans ces cas-là, femmes et minorités peuvent évoluer sans crainte dans ces lieux-là.

Steven Jambot : Si tu rencontrais Mark Zuckerberg, qu’est-ce que tu auras envie de lui dire ?

Mathilde Saliou : Partage le pouvoir ! Si tu veux je l’explique.

Steven Jambot : Explique !

Mathilde Saliou : Il se trouve que cet homme, dont l’entreprise Meta touche virtuellement la moitié de l’humanité, possède 58 % des parts donnant droit de vote au conseil d’administration de son entreprise. Ça veut donc dire, en soi, que personne ne peut lui tenir tête s’il fait une bêtise, or on sait qu’il a fait des bêtises, donc il faut qu’il partage le pouvoir.

Steven Jambot : Un mot pour tes collègues de l’association Prenons la Une [2] ?

Mathilde Saliou : Continuez, c’est vraiment trop bien ce que vous faites !

Steven Jambot : Un conseil à donner aux femmes et aux filles qui nous écoutent et pourraient être désabusées par le monde numérique.

Mathilde Saliou : N’ayez pas peur. Il y a quand même plein de choses super à faire, vous êtes tout à fait capables de les faire, que ce soit des choses très techniques ou simplement prendre en main des outils x ou y comme vous le faites quand vous allez sur les réseaux sociaux. Et surtout, il est important que vous vous y intéressiez et que vous participiez parce qu’il n’y a que comme ça qu’on pourra faire en sorte que le monde numérique soit plus égalitaire, plus inclusif. Il faut donc qu’on participe toutes à la discussion.

Steven Jambot : Mathilde Saliou, tu as parlé tout à l’heure des algorithmes. Les algorithmes ont des biais qui sont discriminants, par essence, pour plusieurs raisons. On va peut-être les prendre les uns après les autres. Déjà les biais qui sont présents dans les données : ce n’est pas parce que l’on prend énormément de données que l’on réussira à avoir quelque chose d’équilibré.

Mathilde Saliou : Cela fait tout à fait partie des discours qu’il faudrait qu’on arrive à mieux détricoter en tant que média. Mais effectivement, les données en soi c’est comme de l’information, c’est de l’information, ce sont des choses qui représentent la société. Les données ne viennent pas d’une espèce d’éther hors du monde, elles viennent des traces de nos activités en ligne, principalement. Comme il se trouve qu’on vit dans un monde encore relativement inégalitaire, ce n’est pas complètement étonnant que dans les données qu’on récupère on retrouve le même type de représentations biaisées. Par exemple, dans les jeux qui servent à entraîner des algorithmes de reconnaissance faciale, il y a souvent plus d’hommes que de femmes, plus de personnes blanches que de personnes non-blanches si ça a été fait par une entreprise américaine ou européenne. On peut décider de corriger cela en lissant, par exemple, les résultats. C’est une piste de solution possible.

Steven Jambot : Autre biais, celui qui est dans la tête des développeurs. Souvent les développeurs, dans tout le monde de la technologie, sont des hommes blancs, des pays du Nord, qui conçoivent des machines avec ce biais-là qui est simplement le biais de leur origine.

Mathilde Saliou : Exactement. Ils sont très brillants, ils ont souvent fait de grandes écoles, il y a aussi toute une dimension de classe sociale qu’on peut prendre en compte. Néanmoins, comme l’industrie numérique est assez peu diversifiée dans ses forces humaines, ils ont du mal à voir quels pourraient être les angles morts de leur réflexion. Tant qu’on laisse les choses se faire comme ça et qu’on laisse ensuite les produits aller jusque sur le marché, eh bien les utilisateurs, à terme, se rendent compte des problèmes qui peuvent émerger parce qu’ils les subissent. De même qu’on fait des contrôles par exemple sur les médicaments en amont, on pourrait tout à fait faire des contrôles sur les machines algorithmiques en amont. Voilà encore une nouvelle piste de solution possible.

Steven Jambot : Et dernière dimension, la question du contexte. On sait que les algorithmes sont souvent très mauvais en matière de contexte et ChatGPT l’est aussi.

Mathilde Saliou : Quelquefois j’explique un peu différemment la question du contexte. Si on prend un algorithme qui vise à vous donner de l’information par exemple, puisque nous sommes sur L’Atelier des médias, cet algorithme ne sera pas construit de la même manière s’il est fait par des chercheurs ou des journalistes, par exemple, qui voudraient uniquement vous donner la meilleure information possible en fonction de vos préférences, etc. Si, en revanche, c’est fait par une plateforme qui tire son argent de la publicité qu’elle vous montre, et c’est le cas dans Facebook, l’algorithme ne sera pas pile orienté dans le but de vous donner la meilleure information, mais plutôt dans le but de vous faire rester le plus longtemps possible connecté. C’est un peu ce dont on parlait tout à l’heure, c’est même exactement ce dont on parlait tout à l’heure. Ça explique, au moins en partie, pourquoi sur Facebook l’algorithme est aussi gourmand en contenus clivants, violents, c’est les données pareil sur Twitter, parce que tout cela ce sont des moyens de vous faire rester accroché. On s’en est rendu compte avec des études scientifiques, c’est triste mais c’est la vie !

Steven Jambot : Nous faisons partie de l’algorithme, tu l’écris d’ailleurs dans Technoféminisme, c’est-à-dire que dans nos activités en ligne nous contribuons à entraîner ces algorithmes quand on nous demande, pour accéder à un site, de vérifier que nous ne sommes pas un robot en déterminant, en choisissant quel bout de l’image constitue un feu tricolore, un vélo, ou autre chose. On ne se rend pas forcément compte que nous sommes, nous aussi, des travailleurs du clic comme les appelle Antonio Casilli [10].

Mathilde Saliou : Complètement. Dans certains espaces du Web où, pour accéder à des sites, c’est l’exemple le plus parlant, on participe à entraîner les machines d’entreprises qui, ensuite, vont tirer profit de ces machines. Déjà je pense qu’il y alà tout un espace de réflexion : sommes-nous d’accord avec cela, c’est un peu du travail gratuit.
Il y a une autre dimension que ta question soulève, c’est la dimension de la responsabilité. Encore une fois sur les réseaux sociaux, si on fait partie de l’algorithme et si on participe par notre comportement à angler les sujets qui nous seront présentés ensuite, peut-être qu’on devrait prendre un peu plus conscience de la responsabilité qu’on a dans l’état de la conversation en ligne. OK, les algorithmes sont très gourmands en contenus violents, clivants, etc., mais nous participons à lui montrer que c’est bien quand on participe à cette violence, quand on participe typiquement à une campagne de harcèlement ou alors à envoyer plein de commentaires rageurs à des gens en ne réfléchissant pas au fait que ce sont des vrais gens derrière l’écran. Peut-être que si, petit à petit, on se mettait à prêter un peu plus attention à ça et à moins donner d’ampleur à ce type de contenu, ça pourrait permettre de renverser, au moins un peu, la balance et à assainir, au moins un peu, la discussion.

Steven Jambot : C’est ce que l’on appelle le care, donc l’attention.

Mathilde Saliou : Ça participe à ça. Après c’est normal, on vit dans un monde et dans une époque très individualiste, le système économique est fait comme ça, l’expansion des outils numériques pousse à ça, on est enfermé dans nos bulles et tout. Mais si on fait effectivement l’effort de repenser que même si on est dans une bulle, c’est avec des vrais gens qu’on est en communication et qu’on peut éviter de les mettre en danger, typiquement quand on parle de ces cas de violence sur des réseaux sociaux, si on prête attention à leur humanité, on pourra certainement aider à ralentir un peu et à affaiblir la violence qu’on constate actuellement.

Steven Jambot : On n’a pas beaucoup parlé du financement de la tech, mais c’est central. Dans ce monde, l’argent est partout. Ce que tu démontres dans ton livre c’est aussi que les entreprises de la tech passent à côté d’opportunités économiques en oubliant la part que représentent les femmes dans l’humanité.

Mathilde Saliou : Eh oui, ce ne sont pas les seuls. Le monde de la finance l’a fait avant elles et il se trouve que le monde de la finance est très intéressé par le monde de la tech, ça fait donc une espèce de double effet Kiss Cool, si je peux le dire comme ça.
Oui, les femmes sont moins financées, ont beaucoup plus de mal à trouver des financements que les hommes quand elles portent des projets de startups numériques en particulier. Encore ce matin l’association SISTA [11] qui est une association, en France, qui pousse justement à ouvrir le monde numérique français à plus de diversité, a montré que sur toute la somme levée l’an dernier, en 2022, par des startups de la tech, seulement 11 % avaient été levés par des projets portés par des femmes ou des équipes mixtes. C’est beaucoup trop peu si le but est d’arriver à 50 % de startups montées par des hommes, 50 % montées par les femmes. Il va donc falloir aussi faire un travail sur les réflexions financières et la manière dont on aiguille les fonds.

Steven Jambot : Le thème de la Journée internationale des droits des femmes 2023, le 8 mars, est : « Pour un monde digital inclusif : innovation et technologies pour l’égalité des sexes », je le disais en introduction. Ce thème est associé au thème prioritaire de la 67e session de la Commission de la condition de la femme de l’ONU à savoir, je cite, j’ouvre les guillemets, « L’innovation, le changement technologique et l’éducation à l’ère numérique pour réaliser l’égalité des sexes et autonomiser toutes les femmes et les filles ». J’aimerais qu’on parle maintenant, pour terminer, justement des solutions pour essayer d’atteindre ces objectifs. Dans l’introduction de ton livre tu écris : « Ce que j’aimerais faire en observant le genre et la diversité dans nos espaces en ligne, c’est chercher une sorte de milieu entre la dystopie et le solutionnisme, de nouvelles voies, de la nuance et des pas de côté ». C’est très difficile de faire ça en 2023 quand même !

Mathilde Saliou : Oui, mais c’est nécessaire puisque je suis convaincue que le solutionnisme technologique ne marche pas. En fait, typiquement, quand on veut sortir un algorithme pour résoudre chaque problème qu’on trouve, le risque c’est plus de créer de nouveaux problèmes que de vraiment résoudre la problématique avec intelligence et nuance. La dystopie, ce n’est pas idéal non plus parce que ça fait peur à tout le monde. Comment fait-on pour avancer ? Du coup, mon but c’est d’essayer de chercher des morceaux de solutions. Il y en a dans plein de domaines. Il y en a peut-être sur les usages pour ceux qui préfèrent réfléchir aux usages qu’on a en ligne, il y en a qui sont peut-être sur les financements si jamais vous travaillez plus dans cette industrie, il y en a peut-être plus dans l’éducation. On sait qu’à l’heure actuelle les filles et les garçons ne sont pas exactement socialisés de la même manière et on va plus pousser les garçons vers des carrières et des intérêts liés aux mathématiques, à l’informatique pourquoi pas, ce qui va ensuite les pousser potentiellement plus à aller vers la tech. Et on dit aux filles « ça ne va pas être un peu dur pour toi ? Ce n’est pas un peu trop abstrait ? Etc. ». Si déjà on travaillait à changer ces discours, on changerait les blocages qu’elles finissent par se mettre dans la tête parce que la société les leur a mis et, potentiellement, elles seraient plus intéressées par aller vers la tech, ça pourrait donc commencer à résoudre cette question de l’inégalité dans l’industrie elle-même. Je suis persuadée qu’une fois qu’on aura plus de diversité dans l’industrie, on aura des outils qui feront un peu plus attention aux risques qui peuvent être posés à toutes sortes de minorités.
Après, il y a la dimension de la responsabilité : qu’on réfléchisse un peu plus à notre impact sur nos voisins, sur nos collègues, sur les gens avec qui on est en interaction via Internet.

Steven Jambot : Donc réfléchir à deux fois avant de poster un commentaire sur Facebook par exemple.

Mathilde Saliou : C’est ça, par exemple. Ce n’est pas du tout la seule solution, mais je pense vraiment que ça participe. On a beaucoup parlé de violence, mais, en fait, pour la désinformation c’est pareil. Quand on fait circuler une information parce qu’elle nous a vraiment paru dingue, « tu as vu cette histoire sur le vaccin » ou je ne sais quoi, et qu’on n’a pas pris le temps de vérifier si c’était bien un vrai média qui l’avait envoyée, si ça avait l’air vraiment plausible ou pas, eh bien on participe à la diffusion de ces théories qui sont quelquefois dangereuses, en fait certaines théories du complot.
Cela dit, ce n’est pas du tout qu’aux utilisateurs et les utilisateurs ne pourront pas résoudre les problèmes tout seuls, il faut absolument que l’industrie elle-même fasse des efforts et, pour que l’industrie fasse des efforts, il faut que nos responsables politiques mettent des cadres.

Steven Jambot : Il faut qu’il y ait de la régulation, notamment contre les Big Tech qui, comme tu l’écris, sont autant éditrices que dictatrices actuellement.

Mathilde Saliou : En tant qu’utilisateur, en tout cas, on n’a vraiment aucun moyen de lutter contre la force monétaire, politique, contre l’ampleur d’entreprises aussi vastes que sont un Meta ou un Google. C’est pour cela que je pense vraiment que le pouvoir politique a, lui, des outils beaucoup plus efficaces pour mettre des limites qu’un simple citoyen qui ne serait pas content et il faut qu’il s’en empare. Après, en Europe, on est quand même dans une situation où il y a déjà de grosses discussions qui sont engagées dans cette direction,donc c’est bien, mais il faut que ça se multiplie, je pense.

Steven Jambot : Merci beaucoup Mathilde Saliou. C’était un plaisir de te retrouver au micro de L’Atelier des médias.

Mathilde Saliou : Merci. Oui, avec plaisir.

Steven Jambot : Ton livre, Technoféminisme – Comment le numérique aggrave les inégalités, paru aux éditions Grasset, est disponible en librairie mais aussi en format numérique.
La fin de cette émission approche et, comme chaque semaine, on va entendre une des voix de la communauté des blogueuses et blogueurs francophones de RFI c’est Mondoblog audio.

Voix off : RFI.

[Partie non transcrite]