Comment le numérique limite les libertés des femmes et des minorités ...et ce qu’on peut faire pour l’en empêcher

Bonjour. Merci à tous d’être là.
Je ne vais pas vous raconter tout ce qu’il y a dans ce livre [Technoféminisme - Comment le numérique aggrave les inégalités] parce que c’est difficile en 30 minutes, mais je vais essayer de trouver deux gros axes, comment les questions d’inégalité sont encodées par la tech et ce qu’on peut faire pour lutter contre.
J’ai beaucoup travaillé sur ce sujet pour écrire l’essai Technoféminisme qui est sorti il y a un peu plus de deux mois chez Grasset. Je continue de travailler sur la question sur le temps long, donc, si vous voulez voir, je vous ai mis mon compte Twitter [@mathildsl, mon compte Mastodon [@mathildesaliou chez piaille.fr ]. Actuellement, je travaille pour Next INpact [1] et pour d’autres médias aussi.

Deux histoires

Pour commencer, je vais vous raconter deux histoires, une qui va être plus centrée sur les questions d’outils et l’autre sur les questions d’usage.

La première c’est celle d’Amazon qui, en 2014, décide de fabriquer un algorithme pour l’aider dans ses processus de recrutement. L’idée c’était de construire une machine à laquelle on soumettrait quelque chose comme une centaine de CV et l’algorithme devait les trier, les hiérarchiser et renvoyer les cinq CV les plus pertinents pour le job qu’il s’agissait de pourvoir aux équipes de ressources humaines. Sauf que la machine n’a pas super bien fonctionné. Ils ont tout fait pour corriger les données qu’ils mettaient dans l’entraînement de l’algorithme, pour corriger les tuyaux, pour corriger toute cette expérimentation, mais quoi qu’ils fassent, la machine refusait de garder les CV de femmes et ne faisait que sélectionner des CV d’hommes. Ils ont eu beau travailler dessus en 2014, en 2015, en 2016, en 2017, en 2018, la machine a gardé ce biais absolu contre les femmes, elle ne voulait pas les embaucher, donc Amazon a fini par lâcher l’affaire et par remiser l’outil en question.

En 2015, donc un an après le début de l’expérimentation d’Amazon, l’Unesco se penche sur un autre sujet, sur la question des usages, et qui essaye de voir à quel point les femmes et les filles sont victimes de violences dans les espaces numériques [2]. On commençait à voir que, quand même, il y avait de grosses problématiques de cyberharcèlement qui touchent un peu tout le monde, mais qui touchent plus spécifiquement les femmes et les filles. À l’époque, le chiffre auquel on aboutit : trois femmes sur quatre ont déjà été exposées à ce type de violence, exposée ça veut dire qu’on a été soit victime soit témoin.
En 2021, il y a donc deux ans, The Economist Intelligence Unit a refait le même type de travail [3] et a constaté que la proportion avait encore augmenté : 85 % des femmes qui sont présentes en ligne ont déjà été exposées à une forme ou une autre de violence numérique.

Deux points communs

Il y a deux points communs à ces histoires : le premier c’est qu’on parle de violence sexiste, violence contre les femmes ; le deuxième c’est que ces types de violence ou de discrimination pour le cas d’Amazon sont des problématiques qui ont été perpétrées, perpétuées, par des moyens techniques, des moyens technologiques en l’occurrence.

Masculin-neutre

Je vous rassure, la technologie n’a rien inventé en termes de sexisme, de misogynie, d’inégalités. D’ailleurs, je vais beaucoup parler de ces questions d’égalité femme/homme, mais, très souvent, ça peut se décliner sur toutes les problématiques de racisme, homophobie, etc.

Il se trouve que nous vivons dans un monde qui, on l’oublie un peu ou, même, on ne le sait pas – moi-même je l’ai découvert il n’y a finalement pas si longtemps –, est souvent pensé au masculin-neutre. Là où on croit que c’est neutre, en fait le monde est plus ou moins construit plutôt pour les hommes. Une autrice, Caroline Criado Perez, explique cela très bien dans son livre Femmes invisibles. Elle montre comment, dans plein d’espaces sociaux, par exemple dans la manière dont on teste nos médicaments avant de les mettre sur le marché, dans la manière dont on construit des outils de sécurité, dans la manière dont on construit toutes sortes d’objets qu’on utilise au quotidien, en fait on le fait en se basant sur des données qui montrent plutôt la situation des hommes et qui, donc, oublient celle des femmes. De fait, ça veut dire que les produits qu’on fabrique ont tendance à participer aux inégalités qui existent.

L’année dernière, me semble-t-il, ou l’année d’avant, je ne sais plus, une jeune artiste, Eléa-Jeanne Schmitter, a décidé de mettre en images pas mal des données qui sont rapportées et qui ont été enquêtés par Caroline Criado Perez. Donc là, vous voyez ces mains sur un clavier de piano. Vous ne le saviez peut-être pas, moi je l’ai découvert il y a deux ans, s’il y a si peu de virtuoses pianistes femmes, c’est parce que l’immense majorité des pianos qui sont mis en vente et faciles d’accès sur le marché ont été construits sur la taille moyenne des mains des hommes. Or, la taille moyenne des mains des femmes, c’est deux à cinq centimètres plus petit, donc c’est beaucoup plus difficile de faire les grands écarts qui permettent de devenir virtuose si on a des plus petites mains, et pourtant les pianos adaptés aux mains de femmes existent, on pourrait les trouver, on pourrait les mettre en vente, simplement il a été décidé qu’on en produirait en moins grand nombre.
Eléa-Jeanne Schmitter a illustré plein d’autres chiffres de ce type, notamment, la deuxième image, c’est une ceinture de sécurité en voiture. Il se trouve que la manière dont on sécurise nos voitures est faite en testant les airbags et les ceintures de sécurité sur des mannequins qui sont construits sur la taille moyenne d’un homme moyen, encore une fois. Or, le corps des femmes moyennes est différent, il n’est pas juste plus petit, nous sommes aussi construites différemment. Ce qui arrive, une fois que tous ces produits sont mis sur le marché, qu’on part en voiture et que, potentiellement, on a un accident – statistiquement, les hommes sont plus souvent pris dans des accidents de voiture que les femmes –, mais, quand une femme est prise dans un accident de voiture, elle subit des blessures beaucoup plus graves et beaucoup plus difficiles à soigner parce que les dispositifs de sécurité n’ont pas été construits de manière aussi neutre que ce qu’on croit. Ils ont plutôt été mal construits pour les femmes, mais bien construits pour les hommes.

Impartial le numérique, vraiment ?

Pourquoi je vous raconte tout ça ? Parce qu’il est une industrie qui pense, en tout cas qui a tendance à dire dans certains de ses discours marketing : « Les inégalités, pas de problème ! On produit des outils qui sont impartiaux, qui sont neutres, qui vont permettre de sortir de ces biais-là, donc vont fournir de meilleurs résultats que ceux, par exemple, que le jugement humain pourrait donner ». Cette industrie, c’est l’industrie numérique, sauf que l’industrie numérique n’a pas forcément pris conscience de cette histoire de masculin-neutre que je viens de vous expliquer. Et le résultat a donné cette illustration qu’a faite Eléa-Jeanne Schmitter. Quand Apple sort Siri, en 2011, on peut lui demander « où trouver du viagra » et le robot répond, il n’y a pas de problème, il vous donne une adresse, une petite pharmacie facile à trouver. Ou alors, si vous lui demandez « où trouver des prostituées », pareil, Siri vous répond et vous donne une adresse. Si, en revanche, vous lui posez la question : « Siri, j’ai été victime d’une agression, je me suis fait violer – ce qui est écrit sur cet exemple –, la machine, à l’époque, était infichue de répondre, elle n’était même pas capable de vous diriger vers un appel, une ligne d’appel de soutien psychologique ou de vous donner des indications pour aller à la police si jamais vous vouliez porter plainte, ce genre de choses. Pareil sur les questions d’avortement : si vous demandez à Siri : « Siri, j’ai besoin de trouver une pilule du lendemain ou carrément d’avorter », selon le niveau de la question, le robot n’était pas fichu de vous apporter une réponse.
Ce sont des usages assez spécifiques, mais c’était assez parlant sur les questions de « on a mis une priorité sur le fait de pouvoir trouver des prostituées à l’aide de Siri, par contre, pour aller au Planning familial, c’est plus complexe !

Cette problématique qui vient des données et de la manière dont la société est construite en vrai, ça ne sort pas de nulle part, on la retrouve aussi dans tous les pans algorithmiques. J’en ai parlé un petit peu avec l’histoire d’Amazon, mais ça arrive aussi dans le monde de la reconnaissance faciale.

En 2018, une chercheuse, Joy Buolamwini, a sorti une étude qui s’appelle Gender Shades [4] dans laquelle elle est allée analyser les résultats fournis par les trois plus grands modèles de reconnaissance faciale qui étaient disponibles et utilisés sur le marché, donc les modèles de Microsoft, Face++ et IBM. Elle a constaté que les trois machines reconnaissaient beaucoup mieux les hommes que les femmes et reconnaissaient aussi beaucoup mieux les peaux claires que les peaux foncées. Plus vous aviez une peau noire, plus elle était foncée, moins la machine fonctionnait et, à la fin, dans les cas les plus marqués, c’était quasi comme si la machine jouait à pile ou face en termes de résultats de reconnaissance.

Là, on arrive dans un truc qui est une illustration directe de ce que certains mouvements féministes qualifient d’intersectionnalité, c’est un concept de sciences sociales. Quand on est au croisement de deux types de discrimination, par exemple je suis une femme et j’ai la peau noire, on est encore moins bien servi, on est encore moins bien traité par l’outil que simplement quand on est une femme à la peau blanche ou simplement quand on est un homme à la peau noire. L’écart énorme de différence montre bien que les outils qui utilisaient, à l’époque, l’algorithme de reconnaissance d’IBM servaient vraiment très mal les femmes noires en comparaison de ceux qui étaient le mieux servis, les hommes à la peau blanche.

Le problème, c’est que ces algos étaient déjà et continuent d’être utilisés dans des outils de la vie courante. Un exemple de base serait, si jamais vous utilisez la reconnaissance faciale pour déverrouiller votre téléphone, potentiellement, selon votre tête, vous serez plus ou moins bien servi, c’est un peu raccourci, mais, en gros, c’est l’idée.

Le truc, c’est qu’on utilise aussi ces techniques pour traiter les flux vidéos, notamment des caméras de surveillance qui sont utilisées par les forces de police, en tout cas dans les pays qui l’autorisent. À l’époque, c’était, par exemple, aux États-Unis et en Grande-Bretagne.
Or, comme on vient de le dire, ça ne fonctionne pas très bien sur certains types de visage, certains types de peau, et que, notamment aux États-Unis, il y a une histoire de racisme assez intense, on a déjà plusieurs cas, et on a en eu un dernier il y a encore deux semaines : des personnes se retrouvent mises en garde à vue de quelques heures à quelques jours, parfois, et doivent dépenser des milliers de dollars pour se défendre sur la foi d’un résultat erroné d’un algorithme, d’un logiciel. Ça soulève plein de questions politiques, sociales : pourquoi la police a-t-elle pris pour argent comptant le résultat du logiciel, etc. ? Ce sont des choses qui ont besoin d’être discutées à l’échelle de la société, mais, dans le fond, il y a quand même, à la base, un problème technique qui demande à être corrigé.
Si le sujet vous intéresse, je vous invite à regarder Coded Bias, qui est un super documentaire disponible sur Netflix, me semble-t-il, dans lequel vous verrez d’ailleurs Joy Buolamwini qui est à l’origine de l’étude dont je vous parlais tout à l’heure.

Un autre type de cas où les algorithmes posent des problèmes, un autre exemple qui, à mon sens, est assez parlant, c’est dans le système des aides sociales, des allocations sociales.
Il se trouve que depuis plusieurs années, dans plusieurs pays, on a mis en place des systèmes pour essayer de lutter contre la fraude aux aides sociales. Et, pour faire cela, on a déployé des machines algorithmiques. Sauf que ces machines, vous vous y attendiez peut-être, ne sont pas complètement impartiales, elles ne sont pas parfaitement neutres et elles embarquent des préconçus ou des erreurs qui n’ont pas forcément été repérées à temps, en tout cas qui n’ont pas forcément été repérées avant que les algorithmes, qui ont des impacts sur la vie des gens, soient déployés dans ces machines.
Il se trouve qu’aux Pays-Bas en particulier ça a créé un énorme scandale qui a mené à la démission du gouvernement, en 2021, parce qu’un gros nombre de foyers s’étaient retrouvés dans des situations économiques vraiment compliquées parce qu’ils étaient extrêmement souvent visés par des procédures de vérifications qu’ils n’étaient pas en train de frauder. Sauf qu’une procédure de vérification c’est quelque chose de lourd : il faut donner des papiers, prouver sa bonne foi, démontrer qu’on a vraiment le droit aux allocations qu’on a reçues, etc. Dans certains cas, ça veut aussi dire qu’on suspend les allocations pendant le temps où on met en place la mesure de contrôle. Du coup, des familles se sont vraiment retrouvées dans des situations économiques très compliquées, à ne pas réussir à boucler les fins de mois.
Il a fallu que des observateurs extérieurs voient le nombre de plaintes d’allocataires aux aides sociales augmenter et fassent tout le raisonnement qui leur a ensuite permis de remonter à la machine. Le problème : c’était une machine qui sélectionnait les dossiers suspectés de fraude en leur donnant des scores très hauts, avec un calcul algorithmique que vous saurez certainement beaucoup mieux expliquer que moi, d’ailleurs, et on s’est rendu compte qu’elle ne visait pas tout le monde de la même manière. Encore une fois, le service n’était pas rendu de la même manière. Je ne connais pas exactement la loi néerlandaise sur la question, mais en France, dans nos textes, il est interdit de discriminer sur ce type de service. Il y a donc vraiment un problème de droits fondamentaux, encore une fois, qui arrive dans ces questions-là.
On s’est donc rendu compte que les machines ne visaient pas tout le monde de la même manière avec ces contrôles de suspicion, de lutte contre la fraude.
Après, ça reste un algorithme, donc, comme très souvent, très difficile d’obtenir le code, d’aller fouiller parce que, à la fois les constructeurs et les opérateurs, là, en l’occurrence, les institutions, n’aiment pas trop donner leur cuisine interne.

Heureusement, un modèle en particulier a pu être étudié par Wired dans cet article, que vous pouvez lire si jamais le sujet vous intéresse, c’est l’algorithme qui est utilisé par la ville de Rotterdam. Là, c’était assez clair, une fois qu’ils ont réussi, en rétro-ingénierie, à tout bien remettre au clair, que la machine présentait vraiment des suspicions beaucoup plus fortes dès que vous étiez jeune, dès que vous étiez parent, dès que vous étiez une femme, dès que vous aviez de faibles compétences en néerlandais. Si vous cochiez une ou plusieurs de ces cases, il y avait toutes les chances pour que vous vous preniez plus et plus souvent des contrôles de lutte contre la fraude.

Garbage in, garbage out

Des petits exemples pour vous dire deux choses.

Déjà la tech, les outils qu’on construit ne sont pas impartiaux. Vous connaissez bien, à priori, ce bon vieux dicton : Garbage in, garbage out. Il se trouve que la société elle-même est pleine d’inégalités. Ce n’est pas parce qu’on construit une machine informatique qui serait basée notamment sur des mathématiques, que les mathématiques sont des sciences exactes, donc que ça rendrait les choses plus neutres, plus impartiales ou plus exactes, ce n’est pas parce qu’on a construit ça que le résultat final est vraiment meilleur. Au contraire ! Si on a rentré dans la machine des données qui représentent une société inégalitaire, elle va sortir des résultats inégalitaires.
Le problème, comme illustré avec le cas des aides sociales, c’est que le vernis de la machine peut complexifier encore le fait de lutter contre ces inégalités. En gros, si vous allez vous plaindre puisque ça fait la quatrième fois qu’on vous contrôle pour fraude alors que vous savez que vous ne fraudez pas, potentiellement la personne qui fournit les aides sociales va vous dire : « Ce n’est pas moi, c’est la machine, et la machine a calculé, elle sait mieux que moi ! »

Droits fondamentaux en danger

Cette idée de neutralité, d’impartialité, peut potentiellement poser de vrais problèmes pour les droits fondamentaux.

J’ai parlé de cette question de discrimination, mais aussi, comme vous l’avez vu avec l’exemple des personnes qui se retrouvent en garde à vue aux États-Unis, ce sont des attaques directes sur le droit de se balader, sur la liberté des personnes concernées, ce sont aussi des attaques directes sur la présomption d’innocence des personnes en question. Ça pose donc de vrais problèmes si on ne met pas en place des garde-fous qui peuvent éviter d’en arriver là.

Au tout début, je vous ai aussi parlé d’un autre exemple, plus côté usages, qui est celui de la cyberviolence.
Il se trouve que tout le monde peut être visé par la cyberviolence, j’en suis désolée, en particulier si vous êtes dans une profession exposée. Le plus souvent, les professions exposées ce sont les personnalités politiques, activistes, journalistes, célébrités, actuellement influenceurs/influenceuses, potentiellement aussi scientifiques, il y a beaucoup d’énervement sur les questions de climat en ce moment, donc certains scientifiques se prennent des volées de bois vert sur les réseaux sociaux.

On constate, en revanche, c’est que, quelle que soit la raison pour laquelle vous vous prenez du cyber-harcèlement, si vous êtes une femme, ça va être beaucoup plus vénère que si vous êtes un homme. En gros, pour les journalistes, dont je connais bien le cas, quand un journaliste se prend une volée de cyberharcèlement, on l’attaque sur son travail, on va lui dire que son média est vendu à je ne sais quel pouvoir économique ou quel pouvoir politique. Si c’est une femme, elle va se prendre exactement la même chose, mais, en plus, elle va se prendre des insultes sur son corps, sa sexualité, qui vont la rabaisser à des dimensions hyper-misogynes, sexistes, etc. Ça fait donc une double dose de violence assez dure à gérer.
C’est quelque chose qui arrive aussi chez nos politiques, d’ailleurs les députées EELV ont voulu sensibiliser sur la question en créant un compte Instagram. J’ai essayé de prendre la capture la plus soft possible, mais je pense qu’elles ont rajouté des trucs depuis, ce qu’elles se prennent au quotidien est assez intense.

Même si là, pour des questions de temps, je vais surtout parler des vagues de harcèlement au sens insultes et menaces, il faut bien avoir conscience qu’il y a toutes sortes de cyberviolence qui existent dans les espaces numériques, qui prolifèrent dans les espaces numériques, faute, notamment, d’outils suffisants pour bloquer la violence quand elle a lieu. Par exemple, il faut avoir conscience que les violences conjugales, qui sont un sujet qu’on connaît quand même de mieux en mieux, on entend plus parler des féminicides depuis cinq ans, on commence à comprendre que c’est vraiment un fait de société, eh bien toutes ces violences ont un pan numérique quasiment à chaque fois, dans neuf cas sur dix selon le centre Hubertine Auclert [5].
Des violences conjugales version numérique, ça veut dire, par exemple, que le ou la conjointe violente, mais ce sont très souvent des hommes, harcèle à coup de textos, en utilisant tous les réseaux sociaux, etc. Ça peut aussi vouloir dire qu’il récupère ses mots de passe et ses identifiants et qu’il va l’espionner sur ses comptes sociaux, soit il va prendre le contrôle de ses comptes bancaires ou, encore une fois, de la CAF et des allocations sociales, ce qui lui permet d’accroître son emprise économique.
Après, plein d’autres types de cyberviolence se mélangent dans certains cas. C’est un phénomène assez énorme.

L’impact de tout cela est très clair. C’est déjà un impact sur la santé mentale des victimes. Ça crée de la perte de confiance en soi, ça crée des symptômes d’anxiété, des symptômes de stress, dans certains cas ça peut plonger dans des symptômes dépressifs. Et surtout, pour revenir à la question des libertés et des droits fondamentaux, ça attaque directement la liberté d’expression des personnes qui sont en ligne puisqu’elles ont tendance à se replier sur elles-mêmes, par exemple à ne plus parler du sujet qui a suscité la vague de cyberharcèlement. Ça attaque aussi, pour le cas spécifique des journalistes, désolée pour mon côté corporatiste, la liberté d’informer, puisque, parmi les personnes de la profession qui sont visées par ces violences, un certain nombre songe quelquefois, à la suite des vagues les plus violentes, à quitter le métier.

Encore une fois, on est sur une attaque de diverses libertés qui, à mon sens, sont assez importantes pour le maintien de la démocratie.

Pourquoi tout cela prolifère-t-il depuis un grand nombre d’années ? D’après Swati Chaturvedi, une journaliste indienne, mais aussi de la part de plus en plus de chercheuses et de chercheurs, parce que la haine, en fait, sert beaucoup les plateformes sur lesquelles on passe du temps. C’est là où on revient sur le lien entre l’infrastructure et les usages.

Chez Facebook par exemple, ou chez YouTube, mais commençons par Facebook, eux-mêmes savent en interne, depuis 2016, que quelque chose comme 63 % des gens qui rentrent dans des groupes extrémistes y sont rentrés parce que le groupe leur a été suggéré par l’algorithme dans la petite boîte « Suggestions » en haut à droite, je crois, je ne connais pas beaucoup.

Chez YouTube, on sait aussi que l’algorithme adore, mais vraiment il adore les contenus complotistes – si vous regardez une seule vidéo sur le fait que la terre est plate, vous allez très vite vous retrouver dans un vortex –, mais aussi les contenus haineux. Pourquoi ? Parce que les contenus haineux nous rivent à l’écran et, du coup, si on est rivé à l’écran, ils peuvent nous montrer plein de publicités et, s’ils peuvent nous montrer plein de publicités, ils sont super contents parce qu’ils gagnent plein d’argent. J’en fais des blagues, mais ce n’est pas très drôle !

En fait, c’est un fonctionnement similaire pour la plupart des grandes plateformes sociales que nous utilisons au quotidien et c’est en ça que Swati Chaturvedi dit : « Hate is their business model  », la haine est le leur modèle d’affaires, parce que, effectivement, eux en tirent profit, donc ça explique aussi, au moins en partie, pourquoi ils sont aussi longs à mettre en place des garde-fous, des logiques de modération, etc.

Juste pour indication, on sait depuis 2007/2008 qu’il y a des problèmes de cyberharcèlement sur Twitter et Facebook, sachant qu’ils ont été respectivement créés en 2004 et 2006, je crois, et, sur Twitter, ils ont attendu sept ans pour mettre en place leur premier outil de modération. Peut-être qu’il y a un problème en termes de temps de ce côté-là !

Infrastructures - Usages

Donc deux gros exemples.
Un plutôt algorithme, que j’ai appelé infrastructures, et un autre plutôt sur les usages numériques, comment dans les espaces numériques, dans la tech, dans la manière dont on la construit, mais aussi dans la manière dont on l’utilise, ces outils peuvent être utilisés pour attaquer les libertés des femmes et des minorités, pour les amoindrir, pour les mettre en danger.

Une des raisons pour lesquelles je trouve urgent d’y réfléchir, d’en parler, pour laquelle j’ai écrit mon essai, c’est que ça menace la démocratie en entier, en fait ça menace les hommes comme les femmes, ça menace absolument tout le monde.

De plus en plus de chercheurs montrent, par exemple, qu’il y a des liens entre misogynie, usages numériques et montée des extrêmes, notamment de l’extrême droite, dans plusieurs pays du monde.

En fait, comme la misogynie reste relativement peu prise au sérieux, relativement acceptée et qu’on n’a pas mis en place de garde-fous dans les espaces numériques, on a pu s’en servir, en parler, véhiculer plein d’idées misogynes et on se rend compte que ça permet d’emmener les personnes les plus susceptibles de se radicaliser vers les idées les plus extrêmes. C’est comme cela qu’on a retrouvé, parmi les gens qui ont participé à mettre Donald Trump au pouvoir, des grands théoriciens, si je peux les appeler comme ça, d’idées très misogynes ou d’idées qu’ils appellent masculinistes. Le masculinisme n’est pas exactement le miroir du féminisme, parce que le féminisme vise, en gros, l’égalité entre les femmes et les hommes. Le masculinisme, ce sont des idées qui visent, spécifiquement, à faire disparaître les femmes, à les priver de certains droits, pour le dire très grossièrement, à les faire rentrer à la cuisine et basta !

On a vu aussi des grands théoriciens de ces idées parmi les gens qui sont allés jusqu’à attaquer le Capitole en janvier 2021, parce qu’ils ne voulaient pas admettre que Donald Trump ait perdu ces élections. De la même manière au Brésil, au début de cette année, on a aussi vu des grands théoriciens de ces idées parmi les gens qui sont allés attaquer la Place des Trois Pouvoirs à Brasília, au Brésil, dans une espèce de reproduction de ce qui s’était passé avec Trump aux États-Unis.

Formation/Vulgarisation

Je suis désolée de vous avoir plombé l’ambiance, il y a quand même quelques solutions.
Si je parle des problèmes, c’est bien parce que, en vrai, je suis hyper-intéressée par le monde numérique, je suis persuadée que ça peut permettre de faire énormément de choses. Nommer les problèmes, à priori, ça permet, ensuite, de travailler pour les faire disparaître, pour améliorer les choses.

Dans mon essai, parmi les pistes de solutions que je vais vous présenter vite fait ici, je vois trois grandes pistes de travail que chacun peut prendre à sa mesure en fonction de son expertise, de son intérêt, le jour x ou le jour y.

La première, c’est travailler sur les questions de formation et de vulgarisation. Déjà, par exemple, comme la conférence que je viens d’aller voir, de Mélanie Jarrar [6], sur les données personnelles. Si on formait plus les utilisateurs sur la protection de leurs données personnelles, ça permettrait déjà de mettre en place un premier niveau de sécurisation face à des affaires de cyberharcèlement, parce que, en gros, les gens auraient un peu moins de données à disposition type adresse, comptes divers, si jamais on tombe sous les attaques d’un doxer.
Donc formation aux usages et aux bases des principes numériques, formations adaptées au grand public, bien sûr.

Formation aussi sur les questions d’égalité, de pourquoi les inégalités subsistent, pourquoi elles se renforcent dans certains endroits, qu’est-ce qui permet de lutter contre. Il n’y a qu’en comprenant bien les bases de ces mécanismes qu’on peut travailler pour renverser la balance. J’ai beaucoup exposé sur comment le numérique pouvait renforcer les inégalités, mais on peut aussi tout à fait décider de se servir de ces outils pour faire exactement l’inverse, la formation sert aussi à ça.

Responsabilité (soin)

Le deuxième axe de travail, à mon sens, c’est réfléchir à notre responsabilité à tous et toutes en tant que citoyens, en tant qu’usagers du numérique, aussi en tant que constructeurs des mondes tech.

En tant qu’usager, c’est, par exemple, avoir conscience que oui, c’est vrai, les algorithmes des réseaux sociaux aiment beaucoup la violence, aiment beaucoup les contenus clivants, mais, en attendant, c’est nous qui postons des tweets super énervés et des réponses super agressives quand on a vu une information qui vraiment nous agace. Au lieu de continuer à laisser libre cours à notre colère, on pourrait décider de se lever, d’aller se faire un petit thé, de revenir et de constater que pas besoin, en fait, de poster ce tweet énervé ou ce commentaire rageur. C’est une forme de prendre soin de l’état du discours public, on peut participer, déjà soi-même, à renverser un peu le problème.

Après côté construction, fabrication des outils tech, il me semble qu’il faut vraiment avoir conscience de la responsabilité qu’on a dans le fait qu’un outil peut être détourné vers des usages négatifs. Ça peut être, par exemple, construire des outils dans lesquels on prévoit dès le début des formes de garde-fous, des outils de sécurisation, dans lesquels on mettrait dès le départ des outils de modération, par exemple si on parle de réseaux sociaux, plutôt que d’attendre sept ans pour le faire. C’est en mettant ce type d’outil dans les mains des utilisateurs qu’on pourra éviter que ça parte en cacahuètes.

Pouvoir

La dernière réflexion est assez théorique. Je pense qu’il faut qu’on réfléchisse à la répartition du pouvoir, déjà parce que le monde numérique est plein d’exemples de deux polarités : la première c’est l’infrastructure qui, elle-même, est gérée de manière super distribuée et, par-dessus, les applications, en tout cas celles des GAFAM, qui sont construites de manière super hiérarchique avec une toute petite poignée de personnes qui récupère tout le pouvoir politique, mais aussi tout le pouvoir économique, tout l’argent, le profit, et tout le pouvoir décisionnel. Par exemple chez Meta, Mark Zuckerberg possède 58 % des parts qui donnent droit de vote au conseil d’administration, ce qui veut dire que quasiment personne ne peut lui tenir tête, alors que, virtuellement, il touche la moitié de l’humanité. C’est hyper-bizarre qu’on ait laissé faire ça !
Il y a donc une réflexion à avoir sur ça : est-ce qu’on ne ferait pas mieux de pousser plus les logiques distribuées. On a l’exemple de la gestion de l’infrastructure elle-même, on a aussi des exemples à la Wikipédia qui fonctionnent super bien. Peut-être qu’il faut qu’on travaille sur ces questions, qu’on ramène plus de distribution, ça permettra aussi d’attirer plus de diversité de profils, que ce soit plus de femmes, plus de diversité au sens social, mais aussi diversité des expertises pour que les informaticiens travaillent plus avec des experts en sciences humaines, travaillent plus avec des utilisateurs, pourquoi pas, travaillent plus avec la société civile.
Il me semble qu’il n’y a que comme ça qu’on arrivera à construire un monde numérique un peu plus inclusif, un peu plus doux, un peu plus sympathique pour tout le monde.

Et puis la réflexion sur le pouvoir, c’est aussi ne pas oublier que tout ça, en fait, montre que le monde numérique est éminemment politique. On peut donc demander des régulations politiques si on estime qu’il en faut sur certains outils, sur certaines entités.

Merci pour votre attention et je vous remets, si jamais vous voulez qu’on en discute sur les réseaux : Twitter, @mathildsl ; Mastodon, @mathildesaliou chez piaille.fr .

[Applaudissements]