Réseaux sociaux, les temps modèrent


Nicolas Martin : Chaque minute, ce sont 350 000 messages qui sont postés sur Twitter, ça fait 21 millions par heure. À ce rythme-là, comment est-il possible d’envisager une modération, de s’assurer que face à cette déferlante aucun de ces messages ne contienne de propos haineux, inappropriés, de fausses informations ou d’images violentes ? C’est tout l’enjeu quantitatif de la modération sur les réseaux sociaux, auquel il faut ajouter l’enjeu qualitatif : qu’est-ce qui doit être modéré, interdit ou supprimé sans pour autant porter atteinte à la liberté d’expression ? Entre modérateurs humains et algorithmes, législations nationales et internationales, le problème atteint un certain degré de raffinement dans la complexité.

« Réseaux sociaux : les temps modèrent », c’est le programme censuré qui est le nôtre pour l’heure qui vient. Bienvenue dans La Méthode scientifique.
Et pour tout comprendre aux arcanes, bien complexes comme vous allez l’entendre, de la modération des réseaux sociaux, j’ai le plaisir de recevoir aujourd’hui Leila Mörch. Bonjour.

Leila Mörch : Bonjour.

Nicolas Martin : Vous êtes coordinatrice du projet de recherche du Content Policy and Society Lab à l’université de Stanford en Californie. Et nous sommes en ligne avec Asma Mhalla, bonjour.

Asma Mhalla : Bonjour.

Nicolas Martin : Vous êtes enseignante à Sciences Po, spécialiste des enjeux politiques et géopolitiques du numérique, et j’ai d’ores et déjà à mes côtés notre doctorante, Julie Charpenet. Bonjour.

Julie Charpenet : Bonjour.

Nicolas Martin : On vous entendra tout à l’heure, vers 16 heures 30, nous présenter vos travaux de recherche.
On commence par celle qui a dû fermer 17 de ses 25 comptes Twitter pour des raisons que je ne dévoilerai pas, c’est Natacha Triou pour Le journal des sciences.

[Partie non transcrite]

Nicolas Martin : Le 25 avril dernier, Elon Musk, aujourd’hui homme le plus riche du monde et patron de SpaceX et Tesla, annonçait son intention de racheter le réseau social Twitter pour la modique somme de 44 milliards de dollars. Pourquoi donc vouloir débourser autant d’argent pour un réseau social qui ne génère un chiffre d’affaires que, avec beaucoup de guillemets évidemment, de « cinq milliards » ? Pour le rendre plus rentable, certes, mais surtout au nom de la liberté d’expression. Pour le milliardaire, les règles de Twitter, que l’on pourrait juger de ce côté-ci de l’Atlantique plutôt lâches, sont au contraire pour lui trop strictes. Son intention est de rendre la liberté d’expression, sur le réseau social, complète, y compris pour exprimer des opinions qui sont ici, en Europe, condamnées par la loi. Comment modérer les réseaux sociaux ? Qui pour les modérer ? Êtres humains ou algorithmes ? Doivent-ils ou non être filtrés ? Que disent les lois et comment les géants d’Internet s’y conforment-ils ou non ? Un problème qui, comme vous allez l’entendre, s’apparente à la quadrature du cercle. Pourtant, dès le début d’Internet, de la nature même de ce réseau de communication décentralisé, la question de ce qui peut s’y dire ou non se posait, comme en atteste notre archive du jour, nous sommes en 1993.

Journaliste : Sur Internet donc, code de conduite implicite d’une part et d’autre part code d’écriture qui permet de resituer plus précisément les émotions de chacun, Josiane Jouët [1].

Josiane Jouët : Il existe effectivement des codes de bonne conduite sur Internet comme ils existaient, d’ailleurs, sur le réseau télématique français, sur Internet ça s’appelle la nétiquette [2], contraction de net et du terme « étiquette ». C’est finalement tout ce que vous êtes censé faire et éviter de faire quand vous naviguez sur un réseau. Il faut savoir se présenter, il y a des codes de bienséance minimaux à respecter, d’ailleurs, si vous ne les respectez pas, plus personne, bien sûr, ne répondra à vos messages, vous serez éjecté. La même chose se passait, effectivement, sur les forums du Minitel français.

Nicolas Martin : Voilà ! La nétiquette, ou Net étiquette, ça paraît délicieusement désuet aujourd’hui, mais ça pose finalement, dès le départ, les enjeux de base de ce que ce nouvel outil de communication qu’était Internet, que commençait à être Internet, produisait sur la façon de communiquer sur la liberté d’expression, Leïla Mörch.

Leila Mörch : Ce qui est assez intéressant, et je pense que la position d’Elon Musk, en ce moment, révèle bien à quel point il est encore sur certains aspects, en tout cas on peut imaginer, dans cette époque du début du Net ou du début du Web, où, en fait, il s’agissait de lutter contre une certaine forme de conservatisme religieux et où, finalement, Internet était une forme d’espace à conquérir pour sortir de visions où il fallait être très pudique, où il ne fallait pas parler de sexualité, où il ne fallait pas avoir de violence — juste une image de jeu vidéo hyper-pixelisée de quelqu’un dont la tête explosait était complètement inimaginable sur les réseaux sociaux. On peut imaginer que lui, dans sa tête est encore dans cet espace-là, avec une forme de splinternet [3] où il se dit « il faut qu’on retrouve cette liberté-là. Le Web est censé être vraiment cet espace où on a de la place, où on peut s’exprimer librement ». Or, entre-temps, il y a eu une histoire de l’Internet et il y a eu aussi une révélation au grand public de ce que la massification sur les réseaux sociaux peut amener de haine, peut amener de danger. Donc, en fait, c’est assez intéressant de faire ce retour-là en arrière pour voir comment peut-être les fondateurs de Twitter avaient la même vision qu’Elon Musk et puis un jour ils se sont pris le mur de la réalité. Cette mythologie-là est intéressante à décortiquer.

Nicolas Martin : Ce qui est intéressant et ce qu’on entend aussi dans cette archive, Asma Mhalla, c’est qu’avec le Web — 1993 c’est effectivement l’apparition, les débuts du www [World Wide Web] — on était bien face à une transformation complète de la façon de s’exprimer, en tout cas de la façon dont on pouvait délivrer son information par rapport aux médias traditionnels. On était face un réseau ouvert, décentralisé, sur lequel le contrôle était très difficile, donc se posait immédiatement la question : que peut-on y dire ? Est-ce qu’on doit tout y dire ? Est-ce que ce doit être un espace totalement de libéralisme informationnel ou est-ce qu’il faut, là aussi, appliquer des règles un peu de l’ancien monde ?

Asma Mhalla : En fait au début de l’utopie d’Internet, il y avait évidemment cette idée, très fausse en réalité, d’un espace ouvert et égalitaire avec, d’ailleurs, les prémices de l’économie de la connaissance, c’est-à-dire un accès absolument libre et gratuit à la connaissance pour tous et toutes. L’idée, en fait, ce que vous dites très justement, c’est d’horizontaliser la parole de tous, donc un outil de démocratie directe qui devait, aurait dû repenser l’exercice même démocratique et même de ce qu’est la parole publique. En fait, je ne suis pas tellement en phase pour sur-psychologiser Musk en disant qu’il a une vision. Il a certes une vision utopique mais pas tellement bloquée du tout dans les années 60-70, c’est-à-dire aux prémices de ce qu’était Internet, en tout cas le protocole en lui-même. Je pense, au contraire, que c’est un anarchiste de droite qui peut, d’un point de vue sociétal, pencher vers l’Alt-right américaine [4] parfois, sur certains combats, et qui a une vision, en fait, très en ligne avec l’acception américaine de la liberté d’expression, premier amendement de la Constitution [5], une acception de la liberté d’expression maximaliste et sacralisée par la Constitution elle-même d’ailleurs, et renforcé derrière par la section 230 [6], un texte qui, en fait, déresponsabilise le rôle des plateformes quant à leur responsabilité de modération et qui leur donne le statut d’hébergeur et non pas d’éditeur, on y reviendra peut-être.
Donc, par rapport à l’horizontalisation de la parole, oui, il y a eu un enjeu qui a été raté et qui a été d’autant plus raté que, au tournant des années 2000, le Web s’est verticalisé à nouveau et on a vu les Big Tech, les fameuses GAFAM, qui ont finalement remis du capitalisme prédateur, captif, capitalisme de surveillance, etc., qui a finalement monétisé ce qui aurait dû être libre et gratuit.
Par ailleurs, et je terminerai là-dessus, je parlais bien d’utopie parce que ça n’a été que ça, une utopie. La littératie numérique initiale, qui aurait dû justement donner à tous les moyens d’accès et de compréhension de ces codes-là, n’a jamais eu lieu. On s’aperçoit, ce sont des travaux de la sociologue américaine Jen Schradie [7] qui le montrent très bien. En réalité, ceux qui ont d’emblée compris les codes étaient, de toute façon, les hommes blancs, lettrés, éduqués, etc., donc on avait une reproduction de ces inégalités pratiquement de façon native.

Nicolas Martin : Je vais poser la question de manière très naïve. Ce que j’essayais de montrer un peu c’est l’ampleur des enjeux de la modération aujourd’hui non plus de l’Internet ou du Web mais des réseaux sociaux, c’est-à-dire d’une partie de cet Internet, de ces plateformes d’expression collective. Quand on voit les différences de législation, comme vient de l’évoquer Asma Mhalla, la différence de conception de ce qu’est la liberté d’expression d’un pays à l’autre — on parle des États-Unis, on pourrait parler de la Russie ou la Chine —, quand on voit la quantité de contenus qui est postée au jour le jour, l’idée, l’objectif d’une modération aujourd’hui fait-elle sens intellectuellement ? Est-ce que ce n’est pas trop de contraintes pour pouvoir vraiment imaginer un jour que ces espaces-là soient modérés au sens où nous le comprenons ici, aujourd’hui, depuis ce studio en France, avec notre conception politique, sociologique et anthropologique ?

Leila Mörch : Déjà, je pense que lorsqu’on imagine la modération, personne n’imagine une modération où il n’y aurait aucun raté. C’est totalement impossible, tout simplement parce qu’elle s’adapte à une espèce de contenu qui est toujours plus conséquent. Après, on a la question des bots qui va arriver, la question des IA qui publient, on a vu ça au moment du scandale Cambridge Analytica [8], avec des messages qui étaient envoyés à hauteur de 90 000 fois de manière personnalisée, donc il y a cet aspect-là, dire qu’il ne faut pas se faire d’illusions. Maintenant, est-ce que c’est une raison pour baisser les bras et dire « de toute façon, quitte à être, on va dire, dans la mouise, autant y aller à fond », on n’est pas trop sûrs non plus, parce que les premières victimes, finalement, ce seront les gens qui n’auront pas les moyens de s’équiper, qui n’auront pas les moyens de lutter pour ça. Encore une fois, et c’est toute la vision peut-être de la liberté d’expression à l’américaine, et encore celle-ci est de plus en plus divisée, ou à l’européenne, c’est comment est-ce que celle-ci peut être distribuée, partagée, ou est-ce que c’est la loi du plus fort comme ce qu’on peut voir aux États-Unis ? Encore une fois cette histoire de premier amendement est assez marrante parce que le premier amendement, en fait, normalement ne concerne pas directement les plateformes. Le premier amendement, normalement, s’applique au gouvernement, s’applique à l’État, s’applique à ces positions-là. Les plateformes, elles, comme disait très bien Asma Mhalla, sont régies par la section 230. La section 230 leur donne la possibilité, ou non, de modérer. En fait, le premier amendement ne concerne pas en premier lieu les entreprises privées. Pendant longtemps beaucoup disaient : « La section 230, ça permet aux grandes plateformes de faire ce qu’elles veulent, atteinte à la liberté d’expression ! », ce à quoi les démocrates répondaient : « Attention, le premier amendement c’est pour les organismes publics, ça ne concerne pas les entreprises privées ». Maintenant qu’Elon Musk est arrivé et dit lui-même : « Je fais ce que je veux sur ma plateforme », beaucoup disent : « Attention, il faut modérer ». Non, les entreprises privées font ce qu’elles veulent en leur demeure, mais le premier amendement, à l’origine, c’est vraiment pour la partie gouvernement et on voit qu’aujourd’hui on a un ’’overlap entre le public et le privé.

Voix off : France Culture - La Méthode scientifique - Nicolas Martin.

Nicolas Martin : Nous parlons donc de la modération sur les réseaux sociaux, tout au long de cette heure, en compagnie de Leïla Mörch et d’Asma Mhalla. Peut-être peut-on commencer, Asma Mhalla, par expliquer aujourd’hui comment sont modérés les réseaux sociaux. Concrètement, comment ça marche. On va se fonder sur Twitter, Facebook et Instagram principalement, mais est-ce que vous pouvez nous expliquer comment c’est modéré ?

Asma Mhalla : Vous avez deux grands volets, ou deux grandes façons de le faire.
D’abord, ce sont des modérations humaines, donc ce sont vraiment des individus comme vous et moi qui sont souvent, d’ailleurs, dans des contrées lointaines, Philippines, Afrique du Nord, Caucase, qui sont absolument sous-payés, dans des conditions délétères, avec d’ailleurs des traumatismes psychologiques très profonds, souvent très mal accompagnés par les plateformes, et qui vont vraiment modérer, en direct, avec des heures de travail et des jours ouvrés, les contenus, la quantité phénoménale de contenus et d’informations qui circulent sur les réseaux sociaux. Ça, ce sont les modérateurs humains, sous-payés, dans des conditions que j’évoquais. Là, on est extrêmement en-dessous de ce que pourrait être une ambition minimale de modération. Un réseau social comme Twitter, 300 millions d’utilisateurs actifs, a 2000 modérateurs dans le monde. Facebook c’est à peu près dans les mêmes proportions, donc on est vraiment sur de la sous-modération humaine.
Et puis le deuxième grand volet de la modération, c’est ce qu’on commence à voir apparaître, c’est l’automatisation avec des débuts d’algorithmes d’intelligence artificielle, pas très sophistiqués, qui essaient d’encoder, d’encapsuler un maximum d’informations de ce qui pourrait être modéré, c’est-à-dire censuré, invisibilisé, ou pas. Votre question est particulièrement d’actualité et intéressante parce qu’on a vu les failles, ce week-end même, suite aux tueries de Buffalo [9]. Certes, le life streaming sur Twitch a été coupé dès la deuxième minute, donc assez vite par rapport à Christchurch, où, en fait, c’est là où tout le débat avait réellement commencé, il n’avait été coupé qu’au bout de 17 minutes, donc là il y a eu une réelle amélioration. En revanche, les extraits de vidéo ont continué à circuler pendant plus de 48 heures durant le week-end. Donc s’est posée la question : malgré tous les outils d’automatisation, les plateformes existantes, le travail de signalement y compris en France sur PHAROS [10] qui est la plateforme de signalement, on n’a pas réussi à endiguer ce type de viralité ou de contenus extrêmement viraux qui sont d’abord relayés par les communautés suprémacistes et ensuite, par capillarité et boule de neige, sont récupérés par les différents bords politiques pour décrier, pour dénoncer, etc. Peu importe pourvu que, finalement, on parle du contenu ! Typiquement, l’exemple de Buffalo ce week-end est un échec fondamental de ce qu’est ou de ce qu’aurait dû être la modération, qu’elle soit humaine — et en l’occurrence c’était un dimanche, donc on peut supposer que les équipes étaient en sous-effectif, donc problème organisationnel ­— et puis derrière une automatisation qui visiblement, concrètement, a été totalement faillible, en tout cas n’a pas réussi.
Et plus largement sur la question de la modération, ou de la faisabilité même de la modération, c’est là le principal problème, plus exactement vous en avez deux à mon sens.
Le premier, très terre-à-terre, c’est la question opérationnelle. Est-ce qu’on est en mesure, aujourd’hui, d’industrialiser des moyens, d’une part de modération mais surtout du contrôle de la modération. Typiquement, dans le Digital Services Act [11], le DSA dont on reparlera sûrement, on prévoit des instances de contrôle avec le régulateur, avec la justice. On voit aujourd’hui l’état de la justice, on voit aujourd’hui qu’à l’Arcom [Autorité de régulation de la communication audiovisuelle et numérique], le régulateur français, ils sont 350 collaborateurs, donc se pose réellement la question des moyens financiers, compétences, techniques, technologiques, et en réalité la question, ou la réponse aujourd’hui, est très claire : nous n’avons pas les moyens d’industrialiser une modération qui soit en mesure de faire face à la volumétrie absolument extraordinaire de contenus et d’informations qui circulent. Ça, c’est le premier niveau de réponse.
Le deuxième niveau, qui est beaucoup plus philosophique, c’est de dire que dès l’instant où on bute sur une voie sans issue qu’est la modération aujourd’hui, plutôt que de s’entêter, il faut chercher comment contourner la difficulté et, à mon sens, il faut remonter la chaîne de valeur. La modération, en réalité, c’est quand c’est déjà trop tard. Donc il va falloir repenser la question de l’éducation, la question du régulateur, le rôle de l’État, la responsabilité des plateformes, leur modèle économique, etc. Ce sont les véritables questions qui, d’ailleurs et par parenthèses, vont s’amplifier avec le Métavers [12] qui va arriver dans les prochaines années.

Nicolas Martin : Je ne sais pas si on va avoir le temps d’aborder toutes ces questions dans les 40 minutes qui restent de l’émission. En tout cas on voit bien ce qui est important, Leïla Mörch, et ce que pointe Asma Mhalla, c’est effectivement ce à quoi, finalement, on venait au début, c’est-à-dire que c’est quelque chose de titanesque, que la modération c’est écrêter vraiment à la marge des comportements abusifs et on voit aussi que même en tentant d’écrêter à la marge ces comportements abusifs-là, l’intelligence artificielle, comme on va l’entendre dans pas longtemps, se trompe et finit par cibler les mauvais messages. Finalement que reste-t-il de l’intention de cette modération qui a tout de même pour ambition de protéger les utilisatrices et les utilisateurs de messages de caractère haineux qui peuvent leur nuire dans les conditions que l’on entend et qui, par ailleurs, sont humainement, comme on vient de l’entendre, particulièrement scandaleuses pour ce qui est de la modération humaine ?

Leila Mörch : Complètement. Je pense que lorsqu’il s’agit de la modération, il s’agit de n’être ni trop pessimiste ni trop optimiste. Quand on voit la façon dont le droit s’est construit dans la vie réelle, ça a mis des années, des années et des années à pouvoir adresser toutes les situations de violence dans la rue. Aujourd’hui on voudrait, pour des plateformes qui ont moins de 20 ans, qu’on trouve la solution en six mois. C’est pour dire qu’il y a déjà une question de moyens à mettre en avant et les plateformes ne mettent pas les moyens.

Nicolas Martin : Ce n’est pas qu’elles n’ont pas les moyens par ailleurs !

Leila Mörch : Ce n’est pas qu’elles n’ont pas les moyens, elles ne les mettent pas !, mais il y a aussi des questions de méthode. À vouloir dire « la modération IA ne convient pas parce qu’elle a des biais, parce qu’elle n’est pas explicable », est-ce que ça veut donc dire qu’on sacrifie, finalement, des personnes humaines ? Je vous invite tous à lire trois témoignages, maximum, de ce que voient les modérateurs. Honnêtement, on ne peut pas demander plus d’effectifs humains que ça, parce que c’est trop dur en fait à voir.

Nicolas Martin : Il faut préciser par ailleurs qu’il y a deux ans Facebook a été condamné à verser 52 millions de dollars à des milliers de modérateurs pour compensation des traumatismes liés à leur travail, puisque ce sont des gens qui sont confrontés, à longueur de journée, à des contenus haineux, à des vidéos de meurtre, donc ce sont des gens qui vivent et qui témoignent de traumatismes profonds liés à ce métier qui est par ailleurs exercé dans les conditions que décrivait tout à l’heure Asma Mhalla.

Leila Mörch : Complètement. Nous sommes en lien avec beaucoup de modérateurs, notamment avec Chris Gray [13] qui fait un peu partie des leaders de ces modérateurs-là, et ce type-là de condamnations devrait arriver encore plus souvent. Mais, encore une fois, c’est 1) un manque de moyens, 2) un manque de méthode. En fait, lorsqu’on sépare ces questions-là de modération, on se demande finalement à qui revient l’obligation. Est-ce que la plateforme doit décider de tout, tout le temps, qui modère quoi ? Est-ce que c’est elle qui doit les payer ? Est-ce qu’il y a un moment une sorte de conseil extérieur qui peut être monté ? C’est pour ça que nous, au Lab, on essaie vraiment d’avoir une méthode globale qui permette d’avoir ce qu’on appelle la multi-stakeholders approach, la méthode multipartite, on essaye de travailler avec des associations, avec des experts, avec des politiques et avec des modérateurs pour ne pas laisser de trous dans la raquette. Quand on voit ce qui se passe au niveau des tueries de Buffalo, mais aussi sur la modération par exemple en langues non anglophones, c’est un drame absolu. Regardez la modération dans les pays en Afrique, c’est juste hallucinant ! En fait, il n’y a quasiment aucune modération. Sur ces questions-là, on ne pourra avoir que des réponses, peut-être, technologiques, ce qui ne veut pas dire qu’il ne doit pas y avoir des humains derrière ; quand on regarde sur Facebook, 90 % des contenus sont finalement retirés par des IA, ça monte jusqu’à 95 % dans les cas de contenus haineux. Pour moi, finalement, le véritable enjeu d’investissement là-dedans, c’est d’investir dans des meilleures technologies qui vont petit à petit progresser, qui vont petit à petit prendre en compte le contexte si elles travaillent avec des associations, si elles travaillent avec des mises en contexte, si elles travaillent à ne pas être simplement faites par des techniciens, dans un laboratoire au fond de la Silicon Valley, avec des hommes qui ont 50 ans, parfois même beaucoup moins, 25 ans.

Nicolas Martin : Des femmes aussi parfois.

Leila Mörch : Voilà ! Pour finir sur ce sujet-là, donc ça va être 1) rendre ces IA beaucoup plus performantes et on va y arriver parce que la technologie progresse à une vitesse extraordinaire, on va y arriver si honnêtement on va sur le terrain, si honnêtement on fait de la contextualisation. La deuxième chose c’est que ces IA doivent être efficaces mais explicables. C’est vraiment le deuxième aspect de la modération, qui est très peu entendu, et le DSA ne sanctuarise pas ça du tout. Même s’il recommande aux plateformes de justifier leurs décisions de modération, les plateformes sont tenues responsables et peuvent avoir une amende si elle ne retirent pas des contenus, elles ne peuvent pas avoir une amende si elles retirent trop de contenus. En fait c’est vraiment cette partie explicabilité qui va être essentielle.

Nicolas Martin : Je précise que tout à l’heure, dans quelques minutes, dans la deuxième partie de cette émission, on va revenir sur ce qu’Asma Mhalla évoquait tout à l’heure c’est-à-dire le DSA, une directive européenne, on va essayer de poser des questions juridiques et évidemment des questions éthiques, parce que se surajoutent à toute cette problématique, qui est déjà particulièrement complexe, évidemment des enjeux éthiques extrêmement importants. À propos, justement, de ce que vous évoquiez, c’est-à-dire des limites des algorithmes et de l’intérêt à travailler notamment avec des acteurs associatifs, ça tombe bien puisque c’est exactement ce dont on voulait vous parler dans notre reportage du jour. Vous avez peut-être, vous qui nous écoutez, déjà été surprise ou surpris par des messages automatiques de modération de vos posts alors que vous ne pensiez pas à mal et que vous n’aviez pas l’impression d’avoir écrit quelque chose d’horrible, notamment en envoyant des messages à l’intention de votre communauté, avec un certain vocabulaire qui est compris par l’algorithme comme étant une insulte. Bonjour Alexandra Delbot.

Alexandra Delbot : Bonjour Nicolas.

Nicolas Martin : Ce sort que je viens de décrire, c’est ce qui arrive bien trop souvent notamment à des militants ou à des militantes associatifs.

Alexandra Delbot : Exactement, notamment des militants et militantes LGBT. J’ai rencontré Thibault Grison [14], doctorant au SCAI, le Centre de recherche de la Sorbonne sur l’IA, et au laboratoire GRIPIC, le Centre de recherche en sciences de l’information et de la communication du Celsa. Pour étudier comment les algorithmes peuvent censurer certaines publications de militants et militantes LGBT sur Twitter, il utilise deux approches. Une première consiste en une collecte de témoignages, un recueil d’expériences dont les militants et militantes disent être les victimes ; la seconde est une récolte de données nommée reverse engineering. Avec son algorithme, il récolte régulièrement les données de profils ou de tweets avec certains mots-clés et dès qu’il aperçoit qu’un compte est bloqué ou qu’un tweet a disparu il essaye de remonter au contenu modéré, à l’analyser pour déterminer s’il s’agit d’une modération abusive ou non.

Thibault Grison : Dans le contexte de la modération des réseaux sociaux, des personnes, ces cinq dernières années, se sont rendu compte que leurs contenus semblaient être supprimés plus facilement que d’autres, en tout cas ce type de censure-là semblait beaucoup toucher les personnes qui étaient déjà victimes de haine en ligne, des militants antiracistes, LGBT, féministes, etc. Le deuxième contexte, c’est plus au niveau de la recherche on va dire d’un point de vue vraiment épistémologique. Depuis ces 15 dernières années, en tout cas aux États-Unis, il y a beaucoup de travaux qui ont émergé notamment dans les cultural studies, dans le contexte anglo-saxon, où on a commencé à prendre les outils comme l’intelligence artificielle ou, plus largement, tout ce qui relève de l’informatique, du numérique, comme des technologies qui pouvaient reproduire des discriminations et c’est de là qu’émerge le sujet des discriminations algorithmiques qui est encore très peu abordé dans la recherche francophone.

Alexandra Delbot : Donc cette discrimination algorithmique vient de biais dans la conception des algorithmes. Est-ce que ça provient du jeu initial de données ou est-ce que c’est simplement une transposition des biais cognitifs, sous-entendu déjà discriminants, qui existent chez les humains ?

Thibault Grison : Il y a tout un ensemble de causes possibles aux discriminations algorithmiques dues à tout un ensemble de biais algorithmiques qui existent déjà. La conséquence c’est la discrimination algorithmique, la cause c’est le biais algorithmique. Le biais algorithmique peut effectivement être de plusieurs types, soit parce que le jeu de données en lui-même est biaisé : est-ce que c’est parce qu’on se base sur un corpus de données, un jeu de données qui existe déjà, un corpus historique qui, du coup, est déjà lui-même biaisé ? Est-ce qu’on a créé un jeu de données artificiel sans pour autant penser aux biais qu’il pouvait constituer parce qu’on a, du coup, oublié de représenter telle ou telle catégorie de la population ? Il y a aussi un biais algorithmique possible dans les équipes de designers en soi : qui sont ces personnes-là ? Il y a des travaux qui montrent, par exemple, que ce sont majoritairement des hommes blancs, cisgenre, hétérosexuels. Bref ! Je pourrais continuer encore longtemps à parler de ça. Il y a tout un ensemble de biais qui existent et qui, du coup, permettent de formuler différentes hypothèses quand on a un cas de discrimination algorithmique.

Alexandra Delbot : Comment étudier les discriminations dans la modération ? Comment peut-on mesurer ses effets ?

Thibault Grison : Il y a deux approches. La première, ça va être d’abord de faire toute une concaténation de ces discriminations-là, donc de ces formes de censure. Comment ces formes de censure se matérialisent-elles sur les réseaux sociaux ? Est-ce que c’est du déréférencement de contenus ? Est-ce que c’est de la suppression de contenus ? Est-ce que c’est de la suspension de comptes ? Une fois que cette parole militante-là est recueillie, j’essaie de faire ce qu’on appelle de la reverse engineering où, en fait, j’essaie de voir comment fonctionnent ces algorithmes-là. Je récolte des données qui seront même potentiellement susceptibles d’être censurées plus tard, je les récolte à l’instant t, je les récolte au moment où elles sont publiées et, on va dire deux jours après ou 24 heures après, j’essaye de faire différentes hypothèses de temporalité, je repasse dessus avec mes lignes de code pour voir dans quelle mesure elles ont été modérées ou pas.
J’ai ces lignes de code qui ont été développées avec l’ingénieur en informatique Félix Allié. Un nombre, je sais pas, de 200 lignes de code d’un programme informatique, juste pour qu’on puisse collecter, en gros, des mots-clés, notamment des mots-clés comme « gay », « pédé », « gouine », etc., en gros pour voir ce qui est modéré. J’ai juste à taper « Entrée », et boum !, j’ai en résultat de nouvelles lignes qui apparaissent, des lignes de résultats, on me dit pour chaque utilisateur : « M. Tartempion : compte supprimé ; compte modéré, etc. » J’ai ce tableau qui apparaît, j’ai un fichier qui s’enregistre automatiquement sur mon ordinateur avec ce tableau-là.
Du coup j’ai un peu deux collectes : j’ai cette collecte par profil, par statut de profil, et j’ai une autre collecte qui est, en fait, la plus importante dans mon travail, qui est une collecte par tweet qui aurait été modéré où là, c’est une collecte où je fais une recherche par mots-clés, comme je disais, avec les mots-clés « gay », « pédé », « gouine », etc., tout un ensemble de mots-clés qui renvoient à la culture LGBT soit parce que ce sont des insultes qui font l’objet de réappropriations militantes, comme c’est le cas de « pédé », soit parce que ce sont des mots clés neutres qui renvoient à l’orientation sexuelle. Et, sur ce tableau qu’on voit là, je regarde les tweets qui ont été supprimés. Par exemple là j’ai l’exemple d’un tweet qui dit « je suis pédé ». Je retrace le chemin, donc depuis ce tableau je retourne sur le compte de l’utilisateur ou de l’utilisatrice et, en fait, je vois que c’est un militant LGBT qui tweete ça dans une forme de militantisme. Là, en tout cas, il y a un cas de modération que je juge abusif et que les militants et militantes jugent abusifs.
Le propre de mon sujet, c’est que c’est un sujet qui est beaucoup traité en informatique, les biais algorithmiques, mais pas d’un point de vue sciences humaines et sociales, parce que les chercheurs et chercheuses en sciences humaines et sociales ne savent pas vraiment comment marche la machine. En fait, les informaticiens et informaticiennes ne savent pas non plus comment marche vraiment la machine parce que tout ça est opaque. Du coup, dans ma recherche, j’ai à cœur de faire une sorte de recherche action, une recherche un peu située, où j’assume un parti pris militant dans la manière dont je me saisis de mon sujet, et je cherche à rendre cette recherche disponible pour ces sphères militantes-là. À ce stade de ma thèse j’ai un petit peu rationalisé tous les cas de discrimination algorithmique. Mon enjeu, maintenant, c’est d’un peu rationaliser mon corpus : quels termes vais-je choisir ? Est-ce que je vais partir sur des mots-clés, est-ce que je vais partir sur de la recherche par profil, est-ce que je vais repartir sur des entretiens, est-ce que je vais faire un peu de tout ça parce que je travaille aussi sur les chartes de modération, etc. ? En gros, maintenant que j’ai tout ça, qu’est-ce que je fais pour être le plus convaincant dans mon argument et, en même temps, produire des hypothèses sur quels sont ces biais algorithmiques dans le contexte de la modération ?

Nicolas Martin : Voilà ce reportage sur les discriminations algorithmiques. Asma Mhalla, votre réaction à l’un de ces problèmes qui est aussi un problème de taille et de sur-modération ?

Asma Mhalla : Ça revient à ce qu’on disait tout à l’heure. Certes on peut espérer qu’à un moment donné les algorithmes, c’est-à-dire l’encodage, les datasets, la façon dont les algorithmes sont éduqués, sont entraînés, puissent s’améliorer avec le temps, néanmoins il faut être un tout petit peu réaliste, aujourd’hui, les résultats sont, disons, plus que discutables ou modestes. Le problème étant qu’il ne s’agit pas simplement d’un résultat technologique qu’on pourrait juger, évaluer à l’aune d’indicateurs techniques, parce que si ça n’était que ça, il n’y aurait pas tellement de problèmes. Le problème qui est pointé là c’est qu’en effet ça crée d’une part de la discrimination, mais, en réalité, on retrouve ce sujet de l’algorithmisation et de l’automatisation y compris dans les questions de l’État plateforme, des services publics, la reproduction des discriminations d’un certain type de population ; en réalité c’est une reproduction du réel en amplifié. Ce sont exactement les mêmes problématiques qu’on retrouve sur les réseaux sociaux : les réseaux sociaux ne créent pas le problème, ils le reflètent, ils l’amplifient, ils l’orientent. Et si on appose à ce problème déjà initial un algorithme qui ajoute encore des biais, des filtres, donc des choix, et par là donc de la subjectivité, alors on risque d’avoir de grands soucis, d’autant plus que le problème qui s’attache aux réseaux sociaux c’est la question de la liberté d’expression, et là le problème devient fondamentalement politique et non plus simplement technique ou technologique. Ce qui est absolument extraordinairement passionnant dans le sujet c’est, en réalité, que tout ça s’hybride, tout ça est imbriqué : modèle économique, modèle technologique, modèle politique, et les trois s’interpellent en permanence.
Je voulais rebondir tout à l’heure rapidement parce que c’est quand même en lien : on peut parler de modération, et c’est tout le sujet de notre émission, mais il faut parler de la modération des réseaux sociaux en pointant le fait que les réseaux sociaux, eux-mêmes, sont devenus des entreprises politiques et géopolitiques, et on l’a vu à l’aune de la guerre en Ukraine : ça devient aujourd’hui des champs de conflictualité, les réseaux sociaux sont des armes de guerre, sont militarisés ; se joue de la désinformation, de la cyber-déstabilisation, de l’intoxication informationnelle. Ça a commencé en réalité à partir de 2016 avec les différentes ingérences russes dans les campagnes américaines, le Brexit, la campagne présidentielle de 2017, etc. Ce que je veux dire par là, c’est que modérer n’est pas à prendre comme étant quelque chose de complètement neutre où toutes choses étant égales par ailleurs. Le réseau social, par sa gouvernance, par la vision de son patron, sa vision du monde, ses appétences, ses choix politiques — Zuckerberg et le Vietnam en 2020, Musk et l’Ukraine en 2022, etc. — n’est absolument pas neutre. Donc modérer suppose aussi de comprendre quel est le modèle politique et quelle est l’idéologie qui est derrière. Ce qu’on visibilise c’est autant de choses qu’on va invisibiliser ensuite.

Nicolas Martin : C’est exactement ce dont nous allons parler dans quelques minutes, dans la deuxième partie de cette émission. Un mot très rapide, une réaction très rapide Leïla Mörch.

Leila Mörch : Je souscris complètement à ce que dit Asma Mhalla. L’intérêt énorme de cette affaire de Musk c’est qu’il lève le voile sur un problème global. En fait, qu’il s’appelle Musk, qu’il s’appelle Jack Dorsey ou qui s’appelle Zuckerberg, la vraie question c’est de se rendre compte que derrière chaque méthode de modération il est censé y avoir une vision politique. C’est pour ça que nous nous appelons le Content Policy’’ et pas le ’’Content Moderation. On travaille sur les politiques de contenus, c’est-à-dire qu’il y a la couche modération, l’outillage finalement ; il y a la couche régulation, comment est-ce qu’on utilise ces outils ; et la couche politique de contenus, finalement quelle est la vision, c’est quoi la liberté d’expression, comment est-ce qu’un jour on plante un drapeau ; on dit : « OK, ça va peut-être faire des pas contents, ça va peut-être faire des contents, mais voici le modèle et c’est un modèle qu’on va choisir démocratiquement ». Cette politique est laissée aujourd’hui à la main des grandes plateformes. Est-ce qu’il faut ou est-ce qu’il ne faut pas, c’est un autre débat, mais quand on voit l’impact sur la société de ces grandes plateformes, cette politique-là ne peut pas être laissée d’une manière arbitraire, donc 100% en ligne.

Nicolas Martin : On va continuer à discuter de la modération, je vous avais prévenu, c’est évidemment un problème aussi complexe qu’il est passionnant. On va se poser des questions de droit puisque, heureusement, il y a des législations qui peuvent ou non, on va le voir, encadrer ces problèmes de modération de contenus et évidemment les problèmes éthiques qui en découlent. On continue d’en parler dans quelques secondes musicales.

Pause musicale : Carmen de Stromae.

Nicolas Martin : Nous parlons des réseaux sociaux et des multiples problèmes posés par la question de la modération, nous en parlons avec Leïla Mörch qui est coordinatrice du projet de recherche du Content Policy and Society Lab à l’université de Stanford en Californie et Asma Mhalla, qui est enseignante à Sciences Po, spécialiste des enjeux politiques et géopolitiques du numérique, mais tout de suite on passe à la recherche montre en main.
Nous avons le plaisir de recevoir Julie Charpenet [15]. Rebonjour. Vous travaillez sur le pouvoir de modération des réseaux sociaux, contribution à l’étude d’un modèle de régulation des contenus. Vous faites votre thèse depuis septembre 2016 à l’université Côte d’Azur, bienvenue à La recherche montre en main, on vous écoute.

Julie Charpenet : Un immense merci à vous, Nicolas Martin, pour cette invitation. Je suis vraiment ravie d’être ici pour vous parler de la modération des réseaux sociaux sous le prisme juridique, un sujet ô combien d’actualité, comme vous l’avez d’ores et déjà démontré notamment avec le Digital Services Act.
Mon travail de thèse consiste à comprendre et décrire les effets juridiques du pouvoir de modération des réseaux sociaux, en particulier sur la liberté d’expression.
Le premier effet observé tient à la contractualisation de la liberté d’expression, puisque les plateformes définissent contractuellement ce qui peut être vu, lu, su ou dit sur leurs interfaces. En adhérant aux conditions générales d’utilisation, l’utilisateur consent ainsi à se soumettre aux règles de la plateforme et accepte de renoncer, au moins partiellement, à sa liberté d’expression.
Un second effet tient à l’automatisation, dont on a déjà parlé, du contrôle cette fois-ci de l’exercice du droit à la liberté d’expression. Au regard de la croissance exponentielle des flux de contenus sur leur interface, les plateformes n’ont eu d’autre choix que de créer des algorithmes capables de filtrer les contenus en fonction des politiques des entreprises et, il faut le préciser, elles y ont été fortement encouragées par les pouvoirs publics.
Enfin, le pouvoir de modération des réseaux sociaux a pour conséquence une standardisation de la liberté d’expression et, plus fondamentalement, une standardisation du discours à l’échelle mondiale.
Les réseaux sociaux se meuvent dans un environnement transnational et doivent aussi composer avec des lois nationales différentes, voire en parfaite opposition, et le choix n’a pas été fait de définir des règles de modération territorialisées au risque de balkaniser l’Internet ou de limiter le partage des idées et, de l’aveu de la cheffe de politique mondiale de Facebook, l’application de dizaines de règles différentes dans le monde serait incroyablement plus difficile que d’appliquer un ensemble unique et cohérent. Pour ce faire, les règles du discours sont ainsi définies dans les politiques de contenus enserrées dans les conditions générales d’utilisation qui sont, elles, de portée mondiale. Ce sont, en effet, les mêmes pour tous les citoyens du monde quel que soit le droit applicable dans leur pays d’origine. Or les politiques de modération rappellent aux utilisateurs l’interdiction de la diffusion de contenus illicites, c’est-à-dire des contenus interdits par la loi. Mais si les conditions générales d’utilisation sont les mêmes pour tous, de quelle loi s’agit-il ? Compte-tenu du fait que les principaux réseaux sociaux sont américains et que les politiques de contenus sont définies par des juristes largement empreints de la culture du premier amendement, l’intuition première serait de craindre une américanisation du droit à la liberté d’expression. Le droit états-unien serait alors la loi de référence à l’échelle mondiale.
Dans mes recherches, je me suis employée à vérifier cette intuition en analysant et comparant les politiques de contenus des principaux réseaux sociaux américains et, attention spoiler, ce n’est vraiment pas si simple.

Nicolas Martin : Sans blague !

Julie Charpenet : Il apparaît, au contraire, que pour éviter des condamnations dans les États où la loi est plus restrictive, les réseaux sociaux ont une légère tendance à appliquer les lois les plus contraignantes et à les appliquer à des utilisateurs soumis normalement à des lois bien moins restrictives. Ce faisant, les réseaux sociaux créent leurs propres standards de liberté d’expression.
La question qui s’est posée était aussi de savoir si ces standards sont propres à chacune des plateformes. Pour le dire autrement est-ce que la « loi Facebook », entre guillemets, est différente de la « loi Twitter », entre guillemets. Mon travail de comparaison révèle qu’en matière de contenus haineux, par exemple, les politiques de contenus sont similaires entre elles à 78 %. Cela confirme l’hypothèse selon laquelle la standardisation de la liberté d’expression dépasserait les frontières territoriales du droit, mais aussi les frontières des plateformes elles-mêmes.
Dans le même sens, cette standardisation de la liberté d’expression à l’échelle globale résulte de l’utilisation des filtres algorithmiques souvent, d’ailleurs, élaborés en collaboration entre les plateformes, et de ce qu’on appelle la préférence technologique puisqu’au regard du coût de développement de ces outils, les ingénieurs les paramètrent selon la politique de l’entreprise et les appliquent de manière uniforme à l’échelle globale.
Ainsi, par le cumul des fonctions normatives, par l’édiction des règles de modération et des fonctions répressives, par la détection et la sanction du non-respect de ces règles, les réseaux sociaux s’imposent comme les régulateurs d’une conversation mondiale. Ces acteurs privés et économiques, dépourvus de tout mandat démocratique — et c’est peut-être là que le bât blesse essentiellement —, à l’aide d’outils très éloignés des droits fondamentaux — le contrat et les algorithmes — sont devenus les garants de notre liberté d’expression et en définissent les contours.

Nicolas Martin : Merci beaucoup Julie Charpenet.
Il nous reste moins d’un quart d’heure alors qu’il nous faudrait à peu près deux heures pour discuter de tous ces enjeux absolument passionnants intellectuellement. Plusieurs choses. Je vais peut-être vous demander d’essayer de répondre de manière assez courte. La première chose, une question assez simple et pourtant avec des implications assez vastes : est-ce que les lois étatiques, je pense en l’occurrence au DSA européen dont il va falloir nous expliquer ce que c’est, est-ce que les États ont encore un levier sur ces entreprises justement pour les forcer à amender, à revoir, à amplifier, à préciser leur politique de modération ? Leïla Mörch.

Leila Mörch : Pour essayer de le faire hyper-simplement, hyper-schématiquement, donc de manière incomplète, le DSA est une obligation de moyens, le DSA ne définit pas ce qu’est un contenu illicite.

Nicolas Martin : Le « DSA » pour ?

Leila Mörch : Digital Services Act.

Nicolas Martin : Qui va rentrer en fonction normalement en 2023.

Leila Mörch : Exactement. Suivant la taille des plateformes, évidemment, qui sont concernées, ça va être beaucoup plus rapide pour les très grandes plateformes. C’est une obligation de moyens, ce qui fait qu’à nul endroit il n’explique ce qui doit être retiré, la nature de ce qui doit être retiré, c’est vraiment une obligation de moyens. Il y a, d’une certaine manière, un trou dans la raquette parce qu’il y a effectivement une balkanisation, comme très bien dit, de ce qui est illicite ou pas, donc la protection par la loi, en France, va finalement être extrêmement différente de ce qu’on va pouvoir trouver dans d’autres pays voire dans d’autres pays qui n’ont aucun caractère démocratique et dont finalement les conditions d’utilisation des plateformes, souvent, permettent de protéger une forme de discours. C’est la première chose.
La deuxième chose, c’est que ce DSA, encore une fois, oblige les plateformes à des sanctions si elles ne retirent pas les contenus, il n’oblige pas les plateformes à des sanctions si celles-ci retirent trop. Encore une fois c’est, on va dire, un échange à sens unique qui pose énormément de problèmes puisque c’est in fine toujours la liberté d’expression qui est mise en danger.
Par rapport à la question de la standardisation, je souscris complètement à ce qui a été dit, je définirais peut-être juste un peu plus qu’il y a une forme de standardisation de ce qui est interdit. Il n’y a pas de standardisation de ce qui doit être dit, ou du moins pas encore, et ça c’est assez rassurant. Donc finalement, essayer de montrer que cette standardisation n’est peut-être pas si mal si elle est faite de manière démocratique, donc pas par les plateformes ni par uniquement les gouvernements parce que ces gouvernements-là peuvent avoir des intérêts dans ce choix-là. Donc la création d’une sorte de standard sur ce qui vraiment ne doit pas être dit puis ensuite des choses qui tiennent compte des contextes serait beaucoup plus sain en termes de régulation.

Nicolas Martin : On voit bien tout le problème démocratique qui est posé par ces questions, Asma Mhalla ; définir ce qui doit être dit ou ce qui ne doit pas être dit, tout cela est évidemment extrêmement contextuel, extrêmement variable en fonction de l’endroit d’où l’on se place. Par exemple, on peut se poser la question éthique de savoir s’il est tolérable que le compte d’un président de la République démocratiquement élu, en exercice, soit fermé autoritairement par une entreprise privée.

Asma Mhalla : Vous me posez la colle pour finir !

Nicolas Martin : C’est essentiel !

Asma Mhalla : Je vais être extrêmement franche avec vous : mes convictions personnelles n’ont cessé, n’ont littéralement cessé d’osciller sur cette question-là ; je n’ai jamais réussi, et je l’admets très modestement, à me faire une conviction absolument totale, finale, sur le sujet et pourquoi ?

Nicolas Martin : On parle de Donald Trump, je le rappelle rapidement pour ceux qui n’auraient pas compris l’allusion, on parle de la fermeture des comptes Twitter et Facebook de Donald Trump.

Asma Mhalla : 2021, appel de Donald Trump, en tout cas un encouragement du climat insurrectionnel qui commençait d’ailleurs par des plateformes de l’alt-tech — dont on n’a pas du tout parlé parce qu’une heure c’est très court. En réalité, la question de la désinformation au sens large, du complotisme, etc., commence rarement sur les grandes plateformes ; ça commence toujours sur ce qu’on appelle les micros plateformes de l’alt-tech qui ont toujours revendiqué très peu de modération et, par capillarité, ça grossit. Donc les QAnon, etc., avaient commencé sur 4chan, sont arrivés sur Twitter encouragés par Trump, et ça a fini par l’invasion du Capitole, d’une part, et la déplateformisation in extremis et une fois que les élections été perdues par Twitter du même Trump, donc, en fait, quand politiquement l’affaire, en gros, était pliée et Facebook a suivi. C’est pour ça que je reviens sur la question idéologique, politique et aussi des penchants réellement sur l’échiquier politique de tel ou tel patron.
Juste pour remettre les choses dans leur contexte et pour répondre : est-ce qu’on aurait dû ? Chacun se fait une conviction. Il y a des contenus qui sont parfois dans une zone grise qui, légalement aux États-Unis, n’étaient pas interdits d’un point de vue juridique, mais qui sont dans une forme de décence morale et de responsabilité collective. C’est sur ce plan-là, c’est-à-dire quand l’opinion publique a poussé, quand le camp démocrate aussi a poussé et, par ailleurs, un tout petit peu instrumentalisé la chose, qu’on a déplateformisé et probablement à juste titre, peut-être dans un contexte incandescent. Maintenant, est-ce à dire qu’un leader d’opinion est plus sensible à une déplateformisation, à une censure qu’un autre ? C’est un vaste débat qui mériterait, mon cher ami, une émission à part entière.

Nicolas Martin : Et encore, peut-être même deux !

Asma Mhalla : Il faut absolument que je vous donne mes trois points et je vais être très synthétique, donc très simpliste et schématique, mais il faut quand même que je vous réponde. En fait, vos deux questions de cette dernière partie d’émission sont absolument liées.
Première chose. Julie Charpenet, la personne qui a présenté sa thèse, dit quelque chose d’extrêmement juste sur l’hybridation de la philosophie, non pas du droit mais de la philosophie du droit européen — si on devait vraiment le mettre dans un seul sac, encore que c’est beaucoup plus complexe que ça —, et du droit américain. Ce qui est particulièrement intéressant — c’est ce sur quoi je travaille et milite — c’est une espèce de cogouvernance transatlantique parce qu’il va vraiment falloir que les deux se parlent, mais à condition que les États-Unis aient fixé leur doctrine. Or, en réalité, la démocratie américaine est actuellement à la croisée des chemins. Si je devais schématiser vous avez deux grandes écoles qui s’affrontent, l’école Musk, liberté d’expression maximaliste, modération minimale, et l’école Obama qui, lui, regarde du côté de l’Europe, est plutôt dans le camp démocrate progressiste, qui pousse à la transparence algorithmique, à la révision de la section 230, à davantage de modération à l’européenne. Les deux écoles s’affrontent. Aujourd’hui, aux États-Unis, la religion sur la liberté d’expression n’est pas fixée ou, en tout cas, elle est remise en jeu et ça va déterminer fondamentalement la suite et du climat politique américain et donc, par ricochet, l’échiquier géopolitique occidental, donc ce qui va se passer pour nous en Europe. Le DSA nous prémunit et le grand intérêt du DSA, au-delà de telle ou telle mesure ou je ne sais quoi, c’est davantage sa philosophie générale, c’est-à-dire qu’il territorialise des Big Tech qui étaient jusque-là de nationalité, de droit, et d’inspiration américaines. Tout d’un coup, dans le principe et en théorie, il les soumet aux juridictions européennes d’une part, à la Commission, et puis surtout aux juridictions nationales, donc il renvoie vers la loi de 1881, le code pénal, etc., en France.

Nicolas Martin : Asma Mhalla, je vais vous interrompre. J’aimerais poser une question à Julie Charpenet qu’il me semble absolument essentielle d’aborder et, encore une fois, je savais que cette émission allait être trop courte pour toutes les choses que nous avions à dire, on en refera évidemment d’autres pour prolonger cette discussion.
Julie Charpenet, vous abordez aussi un point que nous n’avons pas encore, malheureusement, abordé, qui me semble aussi absolument central c’est finalement cet oubli collectif ou cet impensé. Quand on utilise les réseaux sociaux je pense qu’on a tendance à se faire aveugler par l’écran de fumée de la liberté d’expression et de « je vois tout ce que les gens postent », or il y a évidemment des algorithmes qui choisissent ce que l’on va voir, donc nous ne sommes pas face simplement à un défilé de contenus mais face à une proposition éditoriale. Se pose donc la question, une question centrale dans cette affaire et dans cette problématique de la modération, de la différence entre l’hébergeur et l’éditeur et là aussi c’est central puisque, si on était face à de simples hébergeurs, la question de la modération serait finalement beaucoup plus simple à résoudre.

julie Charpenet : Oui. C’est une excellente remarque. On sort peut-être un petit peu du champ de la modération à proprement parler, puisque là, il est vraiment question d’un ordonnancement et pas d’une curation. C’est effectivement très clairement cet ordonnancement qui a un petit peu fait exploser la classification entre hébergeur et éditeur. On a très clairement la réponse affirmative que Mark Zuckerberg n’est pas l’éditeur, le rédacteur en chef de Facebook. Néanmoins la question est tangente et c’est la raison pour laquelle le DSA n’est pas revenu sur cette question, n’a pas précisé véritablement les différentes positions des acteurs et s’est vraiment concentré sur la procédure de la modération et sur les effets de cette mise en avant de contenus.

Nicolas Martin : Une dernière question pour conclure, Leïla Mörch, peut-être sur les options, en tout cas les possibilités qui ne sont pas encore appliquées qui pourraient permettre justement de redéfinir et de ne pas laisser à des opérateurs privés de décider ce qui relève ou non de la liberté d’expression : et les utilisateurs dans tout ça ?

Leila Mörch : Il y a énormément de questions dans cette question-là. La première. Ces grandes plateformes-là vont finir par ne plus avoir le choix. Le sujet monte politiquement et plus les gens vont se rendre compte, plus les gens vont, finalement, devenir acteurs de leurs réseaux sociaux ; ils vont réclamer la transparence, vont se mettre à signaler de manière plus intelligente. Donc tout ça ce sont des questions d’éducation des enfants, des adultes, des élus, pour que les gens prennent conscience de ce qui se passe. Cet établissement de règles doit se faire de manière collective, doit se faire avec des associations qui remontent du terrain des choses qu’on voit depuis des années. Le DSA, tous les textes en fait, mettent dans la loi des choses sur lesquelles on a des levées de foulards depuis des années et on attend des drames pour les mettre en place.
Donc 1) soyons plus proactifs, 2) mettons des moyens, 3) faisons confiance au terrain et ensuite 4) cessons aussi de penser que la modération va tout résoudre. La modération c’est très bien, la modération c’est extrêmement important, ça ne résoudra pas les comportements humains parce que ce sera une invisibilisation aussi. Ce n’est pas parce qu’on va supprimer le racisme sur Internet qu’on va supprimer le racisme dans la vraie vie. Ce qui va compter ce sera l’impact des réseaux sociaux sur la société donc, finalement, ce qui se passe dans la société. Encore une fois j’essaye de dire ça à chaque fois : il faut éduquer nos populations à l’esprit critique, il faut éduquer nos populations à la nuance, à la pensée complexe, parce que c’est quand on ira à la source finalement du contenu, là où il naît, c’est-à-dire dans l’esprit de quelqu’un, qu’on va pouvoir faire ça. On voit bien qu’on a voulu enlever les théories QAnon des réseaux sociaux, aujourd’hui ils sont élus aux États-Unis !

Nicolas Martin : Ça veut dire, finalement, faire reposer la modération sur les utilisateurs ! C’est-à-dire qu’on réduit la modération à portion congrue de la part des opérateurs et on dit que c’est aux utilisateurs de se modérer eux-mêmes.

Leila Mörch : Au contraire ! Plus de modération permet de la faire mieux ; plus de règles de modération, plus de moyens, plus de modérateurs permet de la faire mieux. Ce n’est pas parce qu’on met plus de police pour protéger la population qu’on doit laisser la population sous une forme de paternalisme. Les gens sont intelligents. Si on leur donne les moyens de comprendre ce qu’il se passe, si on leur donne les moyens de mieux se protéger, on va pouvoir arriver à des formes de modération qui leur conviennent mieux à eux aussi. Je suis vraiment pour plus de modération de manière générale, pour qu’elle soit faite dans la dentelle. C’est la première chose.
Ensuite, je pense que ce qui va vraiment compter c’est de recréer du lien social, de répondre à cette crise politique et sociale à laquelle on fait face et ça ne va pas pouvoir se compter en milliards ni en algorithmes ni en quoi que ce soit et c’est ça qu’il faut pas qu’on oublie.

Nicolas Martin : C’est une belle vision optimiste qui engage une transformation sociale bien importante par rapport au point de départ de notre discussion. Vous voyez, c’était une question complexe, on y reviendra bien évidemment parce que, comme vous l’avez entendu, nous n’avons pas eu le temps d’aborder tous les points. C’est un sujet auquel nous consacrerons dans le futur, et assez prochainement je l’espère, une nouvelle émission. Merci beaucoup à toutes les trois. Merci Leïla Mörch, merci Asma Mhalla, merci Julie Charpenet d’être venues nous parler de la modération sur les réseaux sociaux.