Modération des médias sociaux — Un enjeu majeur piétiné Capitole du Libre 2023

Enjeu de soin par excellence, la modération est un incontournable sur les médias sociaux. Pourtant, elle est piétinée par les géants capitalistes du numérique… Tour d’horizon du pourquoi, et surtout du comment faire mieux !

Bienvenue dans cette conférence, « Modération des réseaux sociaux ou des médias sociaux – Un enjeu majeur piétiné ». J’ai écrit le titre de la conférence, j’étais un peu vener, je suis tout le temps un peu vener sur ce sujet.

Préambule

Je fais un petit préambule. C’est un sujet qui touche des points qui peuvent être compliqués pour plein de personnes, notamment pour moi, c’est-à-dire qu’il y a des enjeux traumatiques sur le sujet, je vais vous raconter, ça va être super, une belle séance de psy collective, génial. En tout cas je vous demande, notamment dans vos questions ou dans vos réactions d’être un peu vigilants parce que j’ai pris cher une fois et il est hors de question que pendant la conférence que je mène je prenne cher une deuxième fois. Du coup, si jamais vous êtes un peu tatillon, on ne va pas passer un moment sympa, ça ne va pas être rigolo.

D’où je parle

Ceci étant dit, d’où je parle ? Mon prénom c’est Maïtané, mon pseudo c’est Maiwan, vous me connaissez peut-être parce que je suis dans l’association qui s’appelle Framasoft [1].
Je trouve que j’ai un profil un peu atypique sur ce sujet parce que
je suis designer, je conçois des outils numériques, donc, dans mon métier, je sais à quel point une microdécision peut avoir des influences très conséquentes sur les utilisateurs ;
côté politique, militance, etc., je suis quand même très centrée sur la justice sociale, par exemple les oppressions systémiques qui me touchent, donc le féminisme, le sexisme, le validisme, je suis un peu vener, du coup, par extension, toutes celles qui ne me touchent pas, même si je ne suis pas du même côté ;
je sais l’incidence que des microdécisions, côté conception, ont sur les utilisateurs, à la fois j’ai conscience que des types d’utilisateurs prennent plus cher que d’autres parce qu’il y a des groupes qui sont opprimés, d’autres qui sont dominants ;
et, comme je l’ai dit, je suis dans une association qui s’appelle Framasoft, qui fait de l’éducation populaire aux enjeux du numérique et des communs culturels. Si jamais vous ne savez pas exactement ce que c’est, on fait une conférence à 15 heures 30 dans le grand amphi. En gros, Framasoft propose notamment des outils numériques émancipateurs et une réflexion politique sur le numérique.
Grâce à Framasoft, j’ai modéré un réseau social qui n’est pas capitaliste, j’ai donc aussi une expérience de modératrice, ce qui me permet, je trouve, de critiquer plus facilement les réseaux sociaux capitalistes qui disent « mais vous comprenez, la modération c’est vraiment très difficile, on ne peut rien faire ! ».

C’est quoi le problème ?

Pourquoi je propose cette conférence ? Quel est le problème avec la modération ? Est-ce qu’il y a vraiment un souci ?
Dans les réseaux sociaux capitalistes j’englobe toute la team, Facebook, Twitter, TiTok, Instagram, blablabla. Je connais mieux Twitter, avant Musk même, je le dis tout de suite parce que sinon beaucoup de personnes pensent « mais bon, depuis que c’est Elon Musk, quand même, ça a forcément tiré le truc d’un côté, donc c’est complètement caricatural ». Les problèmes que je vais énoncer ici, avaient déjà lieu avant que Elon Musk soit à la tête du réseau social, il n’y a donc pas juste une personne qui pose problème, du coup le modèle devient problématique, c’était problématique avant. Du coup, quel est le problème ?

C’est quoi le problème avec une mauvaise modération ?

Quel est le problème avec une mauvaise modération ? Qu’est-ce qui se passe si jamais la modération n’est pas top, qu’on considère que ce n’est pas génial ?
Les médias sociaux réussissent à être utilisés comme une caisse de résonance par des enjeux anti-progressistes, je vais faire simple, je vais beaucoup parler d’extrême droite, ça va aller plus vite. L’extrême droite manipule très bien le fonctionnement des réseaux sociaux capitalistes, donc sait comment faire pour que ses sujets remontent à l’ordre du jour grâce aux réseaux sociaux, je vais donner un exemple juste après. Ça entraîne que les sujets de l’extrême droite, qui marginalisent des groupes qui sont déjà opprimés par ailleurs, remontent, du coup ça a une espèce de super effet d’entraînement, comme ça on transite de plus en plus dans une société encore plus fasciste – c’est trop bien, on adore – ce qui entretient les normes dominantes.
Je vais donner comme exemple l’affaire Lola. Est-ce qu’il y a des gens qui ne voient pas trop ce qu’est cette affaire Lola ? Parfait. Est-ce que qu’il y a des gens, ici, qui ne regardent pas la télé ? [De nombreuses mains se lèvent, NdT]. Vous êtes tellement représentatifs !
Je suis désolée, je vais parler de choses horribles. Une petite fille qui était au collège, je crois, s’est fait tuer par une dame en région parisienne, au début de l’année.
Pour information, la petite Lola est blanche, blonde, et la personne qui l’a tuée était immigrée et avait une OQTF, donc une obligation de quitter le territoire français.
Fonctionnement de l’extrême droite sur les réseaux sociaux : il y a un micro-événement, le meurtre atroce de cette petite par une personne qui était sous le coup d’une obligation de quitter le territoire. L’extrême droite voit ce micro-événement et se dit « ouh là, là, une immigrée qui tue une petite fille de nationalité française, il y a moyen que ça serve notre discours politique qui dit que l’immigration c’est très dangereux, notamment pour nos enfants, regardez c’est absolument horrible. »
Il y a donc ce micro-événement. Comment ça fonctionne ?
Des comptes, sur Twitter, commencent à signaler que ce qui s’est passé c’est horrible, des comptes individuels, potentiellement parfois des robots.À bas bruit, un hashtag se met en place, le hashtag #justicepourlola et quelques comptes commencent comme ça.
Des comptes un peu plus gros, des petits groupes politiques locaux d’extrême droite, des petits collectifs disent « regardez, il y a des gens qui pointent un problème de société, est-ce que ça ne vaudrait pas le coup de plus l’entendre ? »
Des plus gros comptes reprennent et disent « regardez ce qu’il se passe, des petits collectifs font remonter un problème de société », des journalistes qui surveillent l’extrême droite commencent à dire « hou, là, là, du côté de l’extrême droite il commence à y avoir un enjeu de société qui est remonté. »
Du coup, des gros comptes politiques, donc des élus de l’extrême droite, disent « regardez ce qu’il est en train de se passer. Dans la presse, des articles commencent à faire remonter qu’il y a un souci », donc les journalistes de la presse plus mainstream disent « hou, là, là, il est en train de se passer quelque chose » et là on commence à avoir les plateaux de BFM TV – pour CNews, on n’est pas surpris – et des trucs plus mainstream qui commencent à reprendre l’affaire, qui commencent à dire « hou, là, là, mais que s’est-il passé ? Quel est le sujet ? »
Pour ceux qui n’étaient pas trop au courant de l’affaire, la famille a demandé à ce qu’on arrête de récupérer le meurtre de leur enfant pour des enjeux politiques, ce qui n’a évidemment pas été respecté par l’extrême droite, qui disait « il faut défendre nos enfants, c’est vraiment super important ». L’extrême droite a organisé une manifestation pour la justice, le discours étant « l’immigration est un problème, regardez ce qui vient de se passer sur ce micro-événement. »
Ici, tout le monde n’en a pas entendu parler. L’affaire a beaucoup tourné sur des plateaux type BFM TV, sur des chaînes de télé beaucoup regardées, avec des plateaux qui doivent essayer de maintenir l’attention non-stop, ça commence donc à brasser un peu du vent.
Comment, d’un micro-événement, arrive-t-on à avoir des chaînes de télé nationales qui font tourner le truc pendant des jours en boucle ? Grâce à la caisse de résonance des réseaux sociaux, on arrive à toucher un public beaucoup plus grand et à obliger tout le monde à se positionner : « Est-ce qu’il y a vraiment une augmentation de l’insécurité dans le pays ? Est-ce vraiment dû à l’immigration ? Est-ce normal que cette personne qui avait une obligation de quitter le territoire français soit encore sur le territoire français ? ». Des enjeux qui nous semblent vraiment absolument prioritaires, n’est-ce pas, par rapport à plein d’autres problèmes !
Je vous enjoins à regarder l’épisode de La fabrique du mensonge sur le sujet [Affaire Lola, chronique d’une récupération] qui retrace hyper bien le fonctionnement. Je trouve que, globalement, à La fabrique du mensonge ils font du très bon boulot, j’avais regardé aussi le documentaire sur l’affaire Johnny Depp et Amber Heard [Affaire Johnny Depp/Amber Heard – La justice à l’épreuve des réseaux sociaux] qui était super.

Une « mauvaise modération » ?

Les réseaux sociaux ne font pas le taf, donc les idées nauséabondes peuvent monter en intensité et ensuite envahir un autre champ médiatique que juste celui des réseaux sociaux, vous voyez donc que c’est interpénétrable.
En plus, dans l’expression « une mauvaise modération », ce qui est important, pour moi, c’est qu’il y a toujours une politique de modération mise par les personnes pour tous les réseaux sociaux et les espaces collectifs, c’est juste qu’elle a été réfléchie ou pas, officialisée ou pas.
J’ai tenté une espèce de tracé de quel type de politique de modération il pouvait y avoir.
On entend beaucoup parler de free speech à l’américaine, de la liberté d’expression absolue, qui est une espèce de réinterprétation. Un jour, je me suis demandé « quelle est exactement la limite de cette liberté d’expression ? Comment fait-on pour savoir quelle est la limite ? ». Je suis allée sur l’article Wikipédia, autant vous dire que même sur Wikipédia ce n’est pas clair. Depuis le début, tout le monde dit « il y a la liberté d’expression, mais il y a des limites », comme ça, c’est bien. Ça permet de savoir que les gens qui, en face de vous, parlent de liberté d’expression absolue n’ont pas lu la page, comme ça ce n’est pas mal !
Free speech, c’est un peu à l’américaine, c’est-à-dire que tout le monde devrait avoir le droit de dire absolument n’importe quoi.
En général, quand on fait de la modération et qu’on voit un réseau social qui dit qu’il est free speech, ça veut dire qu’il est d’extrême droite, en tout cas très à droite et que ça ne lui pose pas de problème de faire un peu de la peine ou du mal à des groupes qui sont déjà un peu opprimés.
Il y a une autre position qui est : on respecte la loi, donc on fait le taf minimum, c’est-à-dire qu’il faut être gentil les uns avec les autres, l’homophobie c’est interdit, le sexisme c’est interdit, le racisme c’est interdit. On va voir ensemble que c’est super de dire « le sexisme c’est interdit », sachez que le sexisme c’est interdit par la loi, heureusement, on est sauvés, c’est super !
Je n’ai pas tout listé parce que j’imagine qu’il y a une immense variété de positionnements directs. Un des points qui me semble intéressant c’est la possibilité d’afficher son positionnement et là, déjà, on fait un gros pas en termes de transparence et en termes d’affichage clair. Nous nous situons ici, sur cette ligne-là. En général les gens ne disent pas « on ne va pas respecter la loi » quoique des personnes pourraient le dire, dire « la loi nous oblige à filer les données personnelles de nos utilisateurs si on nous le demande, on dira qu’on ne le fait pas. »
Il y a aussi la possibilité de dire « la loi met le seuil ici, nous, nous comptons le mettre là. »
Et enfin ce n’est pas tout d’afficher un positionnement, il faut avoir les moyens. On peut dire « on met le seuil-là », c’est sympa, mais s’il n’y a jamais personne pour appliquer le seuil, ça ne sert à rien !

Les moyens de la modération

Qu’est-ce qu’on a comme types de moyens pour appliquer la modération ?
Souvent, notamment les réseaux sociaux capitalistes ne parlent que de la technique, ils sont en mode « ne vous inquiétez pas, on va bientôt améliorer nos algorithmes qui vont vraiment faire de la détection absolument géniale, il n’y aura donc plus jamais de problèmes de modération. » On a tous vu que c’est arrivé hyper vite !
Je les subdivise en trois : la technique, les humains et un positionnement politique clair.

La technique

Côté technique, je trouve qu’il y a une grosse différence entre les réseaux sociaux capitalistes et d’autres, c’est que, automatiquement, des contenus sont mis en avant. C’est la façon parfaite de récupérer de la visibilité facilement une fois qu’on a compris les rouages du réseau social, exactement comme mes copains d’extrême droite de tout à l’heure. Hop, on fait remonter la visibilité d’un contenu grâce aux automatismes mis en place et après le réseau social ne peut que se dédouaner en disant « vraiment, nous sommes désolés, ils ont compris les rouages du fonctionnement, on n’a pas pensé que ça pouvait servir à autre chose qu’à nous faire du fric. »
Dans les réseaux sociaux capitalistes, il y a souvent une augmentation de la visibilité d’un contenu soit parce qu’on paye de la thune pour faire de la publicité soit parce que ce contenu est très visible rapidement. Les personnes qui veulent faire ça, c’est souvent beaucoup de monde, en un laps de temps très court, qui tweete le même hashtag, comme cela le hashtag est remonté dans les tendances. Les gens qui arrivent sur le réseau social se demandent « quelle est cette tendance ? Je ne sais pas exactement ce que c’est, je vais me renseigner sur cette affaire de meurtre qui a l’air vraiment très horrible », et on clique sur le hashtag et on n’a que des contenus d’extrême droite, c’est super.

Est-ce qu’il y a des outils de modération ? C’est le côté invisible pour les utilisateurs simples, mais pour nous, côté Framasoft, avoir maintenu deux réseaux sociaux différents, le niveau et la granularité de possibilités de modération a un gros impact sur la qualité de ce qu’on fait. C’est-à-dire que si le seul choix qu’on a c’est bannir l’utilisateur, ou pas, autant vous dire que c’est chaud. Par exemple, ne serait-ce que si on applique la loi, si quelqu’un fait une remarque sexiste, une blague sur le réseau social, est-ce que ça veut dire qu’on supprime son compte ? C’est une façon de faire.
Tandis que quand on a une variété de possibilités : contacter la personne en privé, supprimer juste le contenu en question et mettre un avertissement, bloquer temporairement le compte, ça permet quand même de faire des actions qui sont plus appropriées en termes de niveau de réponse. Je présente des excuses d’avance, je vais avoir des propos un peu violents pour donner des exemples : si jamais quelqu’un dit « de toute façon, tu n’es qu’une sale connasse » ou quelqu’un fait une blague en disant « les femmes c’est comme les vespas, elles ont des belles formes », on peut se dire que le même niveau de réponse à apporter n’est pas le même, les deux sont nazes, mais on n’est quand même pas sur le même niveau de violence.

Les humains

Ensuite, la partie des humains. Il y a des gens qui font de la modération. On fait croire qu’il n’y a que des algorithmes qui sont hyper bien automatisés. Pas du tout. Il y a des gens qui sont mal payés pour faire le taf au fin fond d’un pays pauvre qui nous sert de débarras social. Bref ! On paye mal des gens à l’autre bout du monde plutôt que de payer correctement des gens tout court, ici ou ailleurs.

Des questions.
Combien y a-t-il de modérateurs et de modératrices sur le réseau social ? Déjà juste en termes de quantitatif par rapport au nombre d’utilisateurs, ça peut être pas mal.
Quelle langue parlent-ils ? Autant vous dire que je ne parle pas espagnol, du coup s’il y a des contenus en espagnol je suis incapable de les modérer. Déjà les contenus en français, parfois pour comprendre le sous-texte, les seconds degrés et machin, c’est ultra difficile. On ne peut pas demander à des gens qui ne parlent pas la langue de modérer dans une langue qu’ils ne parlent pas. C’est un reproche qui nous est souvent fait pour notre réseau social, en tout cas, dans les réseaux sociaux libres, on dit « ne sont acceptés que les comptes qui parlent en français, en anglais », et il y a des gens qui disent « mais attendez, quand même, le principe du logiciel libre c’est que ce soit universel, ce n’est pas juste ! ». Va modérer du contenu en japonais ! Vous êtes bien gentils, mais, à un moment, on ne sait pas et, en plus, rien que la phrase : on pourrait lire une phrase dans une autre langue et il faudrait réussir à voir s’il y a un sous-texte, ou pas, si c’est de l’humour noir ou si c’est une affirmation, c’est hyper compliqué. Je comprends que ça fasse dresser les cheveux sur la tête de certaines personnes, mais, quand quelqu’un publie du contenu dans une langue que vous ne maîtrisez pas sur votre plateforme, il est absolument impossible de savoir si ce contenu est illégal ou ne l’est pas. On a beau avoir des traducteurs, ce n’est absolument pas suffisant en termes de niveau de langue.
Une fois qu’on a passé la langue, de quelle culture sont les gens ? Je peux modérer en français, mais, par exemple, je ne connais rien au contexte québécois ou sénégalais. Je sais que localement, ici, on a des enjeux par exemple quand il y avait toutes les histoires autour des élections de Éric Zemmour, de blablabla, je voyais très bien de quoi ils parlaient. Il y aurait eu la même chose au Québec, je n’aurais eu aucune idée du sujet. Ce n’est pas tout de parler la langue, il faut aussi connaître correctement la culture globale, générale, et, en plus, l’actualité de ce qui se passe.
Est-ce que ces personnes sont formées aux enjeux de chaque oppression systémique ? Aux évolutions ? Ce n’est pas tout de savoir ce qui se passait en termes d’antisémitisme il y a trois ans, actuellement il se passe des trucs différents.
Est-ce que ces personnes sont formées aux techniques utilisées par les personnes en face pour réussir justement à faire augmenter leur visibilité ? Est-ce qu’il y a de la formation pour se rendre compte que ce que la personne est en train de faire n’est pas innocent, c’est une tactique ; la personne joue l’innocent, mais, en fait, elle a une stratégie politique, par exemple faire remonter un hashtag.

Récemment, les réseaux sociaux ont été obligés de faire preuve d’un peu de transparence par rapport à certaines de leurs données. X, donc Twitter, donne les langues parlées et la quantité de modérateurs qui parlent ces langues. Vous voyez qu’il y a pas mal d’Anglais, d’anglophones ; il y a un Hollandais ; il y a 52 modérateurs qui parlent français. Il y a très peu de modérateurs en espagnol, alors qu’aux États-Unis il y a pas mal d’hispanophones et, concernant le contexte israélo-palestinien en ce moment, il y a deux personnes qui parlent hébreu. Il faut envoyer des chocolats à ces personnes parce que, en ce moment, ça ne doit vraiment pas être rigolo ; 12 personnes qui parlent arabe, c’est pareil. Mais même 52 personnes qui parlent français, ça n’a pas de sens par rapport à tous les utilisateurs en France, en Belgique, en Suisse, au Québec, dans tous les pays africains qui sont francophones. Je ne sais pas si Twitter est très implanté en Afrique, mais 52 personnes ça n’a aucun sens !
Quelles sont les conditions de travail de ces modérateurs ? Est-ce que leur rémunération est suffisante ? Souvent, encore une fois, pays pauvres, on choppe des gens, on leur dit « ça va être génial, vous allez pouvoir télétravailler, en plus c’est du travail à la tâche, du coup vous allez pouvoir commencer et arrêter rapidement. Super conditions de travail, c’est génial ! ». Que dalle ! C’est l’enfer ! Vous êtes obligé de modérer hyper vite des contenus potentiellement super violents. Vous faites face à des difficultés parce que c’est un travail qui est très difficile, vous prenez beaucoup de violence. En termes d’horaires de travail aménagé, est-ce que l’organisation du travail est structurée pour que vous puissiez discuter collectivement avec vos collègues, débriefer, être accompagnés en matière de santé ? Il n’y a rien du tout ! C’est lamentable ! Même en Europe, les gens qui font de la modération sont dans des bureaux, si je me souviens sont dans des box individualisés, font leurs horaires, ont des temps de pause pendant lesquels ils n’ont pas vraiment le droit de parler avec leurs collègues de ce qui s’est passé et surtout pas à l’extérieur, c’est-à-dire que c’est interdit de faire sortir les choses auxquelles ils ont été confrontés. Ces personnes arrêtent donc au bout de quelques mois ou quelques années en ayant des problèmes de santé mentale, des syndromes de stress post-traumatique parce qu’ils voient des vidéos de gens qui se tuent ou qui se font tuer.
Il y a très longtemps, j’ai vu un documentaire, si jamais c’est bien celui auquel je pense, Invisibles, qui a été fait par france.tv/slash/. Là, c’est une sous-partie qui est Dans l’enfer des modérateurs Facebook, donc très spécifique, sinon il y a quelque chose de plus grand qui parle de tous les travailleurs du clic, ces gens qui sont payés à la tâche pour faire du travail « automatisé par les robots », en vrai c’est automatisé par des humains qui ont fait beaucoup de fois le taf et les robots ont ensuite appris à reproduire ce qu’ont fait les humains. C’est très intéressant, ça retrace tout ça avec des témoignages où les gens racontent que c’est complètement intenable comme boulot.

Le positionnement politique clair

Et enfin le positionnement politique clair.
Tous les réseaux sociaux capitalistes qui disent « on est neutre » ou « on respecte la loi » ou « on respecte la liberté d’expression », « la santé mentale des adolescents c’est vraiment notre priorité », qué s’appellerio ne te fous pas de ma gueule !
En vrai, ce n’est pas facile d’avoir un positionnement politique clair, c’est vraiment très difficile et c’est d’autant plus louche quand les personnes disent « voici notre positionnement politique en une phrase. »
Je vous propose, en trois/quatre minutes, qu’on se trouve un petit positionnement clair collectivement, sur le porno, le sexisme ordinaire, le mansplaining, les mesures anti-Covid, les violences policières, le conflit israélo-palestinien. J’espère que tout le monde est bien au clair sur tous ces enjeux, toutes les spécificités, les sous-catégories de sexisme, racisme, validisme, LGBTQIA+, phobie, classisme. Tout le monde est au clair ? C’est bon ? Donc, pour faire un bon travail de modération, ne serait-ce qu’avoir le positionnement clair initial, ça demande vachement de temps, vachement d’énergie, vachement de discussions pour réussir à extraire la position collectivement. Ce qui est sûr c’est que si on n’y met pas les moyens, il n’y a pas de modération efficace et clairement, les réseaux sociaux capitalistes ne mettent pas les moyens et ils ne font même pas preuve de bonne volonté pour prouver qu’ils mettent les moyens.
Je ne sais pas si la personne est là, j’avais promis une slide sur l’IA. Clairement l’IA n’est pas la solution, c’est le mensonge qui est assené, encore une fois par les réseaux sociaux capitalistes, quand ils sont dans des tables avec les ministres qui disent « là, quand même, ce n’est pas possible, l’étude qui est sortie montre que vous ne vous occupez pas de la santé mentale des adolescents, il y a beaucoup de désinformation sur le conflit israélo-palestinien qui circule et que vous ne modérez pas » et ils disent « ce n’est pas notre faute, ce sont les robots, mais ne vous inquiétez pas, on va resserrer la vis, on va bidouiller un petit peu et ça va aller mieux. » À aucun moment !

L’exemple de Framapiaf [2]

Pour donner plus de corps à ce que je dis, je voulais vous raconter l’exemple plus précis de la modération qu’on a sur le réseau social de Framasoft qui est Framapiaf.

Lancement de Framapiaf

Un peu d’historique.
Framapiaf est une instance de Mastodon. Mastodon [3] est un réseau social libre qui ressemble beaucoup à Twitter. La petite spécificité c’est que ce n’est pas UN réseau social, c’est plein de réseaux interconnectés. Donc, quand Framasoft lance Framapiaf, c’est un bout du réseau social, ce n’est pas tout le réseau social ; les gens ne viennent pas chez nous ou vont dans un autre réseau social, les gens viennent dans la toile, ils peuvent s’inscrire chez nous, mais ils peuvent s’inscrire aussi chez des copains.
Cette alternative commence à émerger notamment dans le milieu du logiciel libre et Framasoft, comme d’habitude, voit un outil qui peut avoir de l’intérêt pour un public plus large et se dit « nous aussi nous pouvons proposer un petit bout de ce réseau social. » Donc, en 2017, en plus de tous les services qu’on proposait déjà, une trentaine au moins, on propose ce service-là.
Je suis arrivée à Framasoft en 2019. Entre 2017 et 2019, beaucoup de personnes indiquent que la façon dont Framapiaf est modéré n’est pas satisfaisante. C’est très difficile de savoir ce que cela signifie concrètement. En fait, la modération est un travail invisible, qui prend du temps, qui est très ingrat, du coup il est possible, quand des personnes estiment qu’une action de modération devrait être prise et que, en interne, on ne prend pas cette décision-là, ça génère beaucoup de frustration, beaucoup de colère, donc que ça se transforme en « de toute façon, à Framapiaf il n’y a pas de modération ! ». Par exemple : « Quelqu’un m’écrit, je le trouve absolument pénible, je lui demande d’arrêter de m’écrire, il continue. Je signale que j’estime que c’est du harcèlement. » En interne, par exemple, nous contactons la personne en lui disant « la personne a dit d’arrêter de la contacter, vous arrêtez et c’est fini. » Nous avons donc fait une action de modération, mais cette action est invisible, la personne, de l’extérieur, voit que le compte n’est pas supprimé et se dit « ils se fichent de moi, ils ne font absolument rien. »
Je sais qu’il y a toujours eu de la modération sur Framapiaf, qui était un des 30 services qu’on fournissait. Je sais aussi que c’étaient les salariés qui prenaient un bout de leur temps pour faire de la modération, qui avaient donc une responsabilité individuelle de faire des actions de modération qui représentaient l’association. Donc forcément, à un moment, ils perdaient, c’est-à-dire que soit ils faisaient trop et les personnes qui se faisaient dégager disaient « je me fais dégager par Framasoft, c’est une honte, la liberté d’expression », soit c’était l’inverse, c’est-à-dire qu’on faisait des actions moins visibles et, dans ce cas-là, on nous disait « vous ne faites rien, quand même, c’est scandaleux ! »
Je repositionne, parce que je trouve que beaucoup de choses ont été dites comme quoi il n’y avait pas de modération du tout et c’est super dur pour les collègues. Quand tu passes du temps à essayer de trouver ce qui est juste, que c’est difficile et qu’en plus, derrière, tout ce que tu entends c’est « de toute façon, il n’y a pas de modération sur Framapiaf », c’est vraiment très compliqué.
Dans ce que j’ai dit, il y a le fait que c’était compliqué, mais surtout le fait qu’il n’avait pas de positionnement collectif, donc les copains étaient obligés de faire selon leur propre idée de la justice et, à un moment, on a toujours une ligne : est-ce que, pour cette blague sexiste, ça mérite juste un avertissement ? Est-ce que ça mérite une suppression de compte ? C’est dur de choisir et seul, c’est vraiment dur.

Positionnement collectif

Donc les salariés remontent qu’il y a un problème, que c’est vraiment compliqué, et l’association décide de faire quelque chose. OK, il y a un enjeu, on va commencer par
décider un positionnement collectif et puis on va structurer un groupe de bénévoles pour faire de la modération.
On écrit la charte de modération [4]. Je donne des informations que personne n’a eues à l’extérieur de l’association : nous sommes trois personnes à écrire la charte de modération. C’est une association de 40 personnes en tout, quand on fait des temps de rencontre on est 20, 30 services différents sont proposés en plus de plein d’autres projets qui sont faits à l’extérieur. C’est donc compliqué de trouver du temps collectif pour faire avancer des sujets qui sont aussi compliqués que celui-là.
Nous sommes donc trois personnes concernées par le sujet qui avançons sur la charte de modération. On l’écrit et pendant qu’on l’écrit, on prend une décision : on ne va pas juste respecter la loi, ce qui était quelque chose qui était un peu demandé par certaines personnes de l’association disant « on a d’autres plats sur le feu, notre réseau social est juste un espace d’expérimentation parmi une trentaine, on veut donc faire au plus simple, on n’a pas le temps et l’énergie pour faire de la broderie, en gros pour vraiment, à chaque fois, se poser la question, approfondir les choses. » Mais nous qui avons écrit la charte de modération, nous nous sommes bien rendu compte, comme on vous a dit tout à l’heure, que dire qu’on respecte la loi ce n’est pas suffisant, pas en termes de niveau de réaction, mais, en fait, ça n’a pas de sens de dire que le sexisme n’est pas autorisé, Darmanin dit que le sexisme ce n’est pas autorisé, quand tu as dit ça, tu as tout dit et tu n’as rien dit. Ce n’est vraiment pas suffisant, donc, dans la charte, on rentre plus dans le détail. On dit, par exemple, que la charte est accessible facilement, on fait des précisions genre « si vous faites des blagues et qu’on considère qu’elles sont oppressives, on sanctionnera et vous aurez beau dire que ce sont des blagues, on sanctionnera quand même. » Qu’est-ce qu’on dit d’autre ? On dit des choses du genre « les robots sont autorisés mais seulement s’ils sont polis. » On trace des lignes et parfois des lignes floues, des lignes où on dit « à la fin, c’est nous qui décidons parce que c’est chez nous et si jamais vous voulez aller ailleurs, allez ailleurs faire vos trucs, il n’y a pas de problème. Ça nous demanderait trop d’énergie, ça ne se fera pas chez nous. » Bref, on fait tout ça et on publie la charte.
C’est le moment où je bois un coup parce que c’est le moment pas rigolo.

Dramasoft

Est-ce que des personnes, dans la salle, connaissent le hashtag #dramasoft [5] ? À qui ça parle ? Trois/quatre. OK.
On publie la charte et on se fait défoncer la gueule, c’est la façon vraiment polie de le dire.
On publie la charte et on publie avec un article qui explique la façon dont on va modérer dans lequel on tente une métaphore, on explique que c’est comme un dîner de famille où, parfois, le tonton fait une remarque un peu sexiste et on dit ce qu’on choisit de faire : au lieu de dégager le tonton de la table, on va lui expliquer en quoi ce qu’il fait c’est sexiste.
Beaucoup de personnes ont interprété ce positionnement en disant « s’il y a quelqu’un qui fait des remarques homophobes, en fait vous lui dites que c’est OK. » Non !
On s’est pris une vague de harcèlements assez violente de la part de collectifs militants sur les mêmes sujets progressistes que les nôtres dans le sens féministes, sur les enjeux autour de l’homophobie, la transidentité. C’était un moment complètement atroce. Je m’étais fait harceler par les gens de jeuxvideo.com l’année précédente. En fait, on sait que les mascus sont des connards, je commence un peu à connaître le truc, je suis au courant, s’ils viennent nous harceler je sais qu’il faut que je temporise mon compte, que je laisse passer la vague, que j’essaye de voir au bout de x jours si jamais ils sont encore énervés, qu’il ne faut pas que je les nourrisse, j’étais au courant. Mais là, de proches politiquement, de gens avec qui on aurait pu fighter [combattre] ensemble sur les mêmes sujets, sur des enjeux féministes ! C’était hyper compliqué, notamment parce que je ne suis pas considérée par les LGBTphobies, mais une des personnes qui a rédigé la charte était complètement les deux pieds dedans et des personnes ont fait la remarque que, par exemple à Framasoft, on ne pouvait pas comprendre les enjeux parce qu’il n’y avait que des putains de mecs blancs, cis. Cette personne est non-binaire et on lui dit « de toute façon tu n’existes pas ! ». Encore une fois, je ne suis pas concernée, mais le concept d’être queer c’est qu’à un moment tu es dans le placard. De toute façon, autant on peut dire qu’à Framasoft il n’y a que des personnes blanches, il n’y a pas de problème, c’est vrai, ça se voit, autant dire qu’il n’y a pas de personnes queers, en fait, si ça se voit sur la gueule des gens, il y a un problème, je ne suis pas au courant de tout.
Je n’ai pas fait un relevé de qui est queer à Framasoft, clairement il y a des personnes queers, et cette personne-là s’est pris une violence dans la gueule absolument immonde et elle est partie en dépression pour deux ans et demi, ce n’est pas, évidemment, le seul facteur. Mais clairement, quand tu es une personne déjà marginalisée, que tu prends du temps pour améliorer les choses, mettre en place des enjeux de modération en te disant « c’est une intersection entre les enjeux de ma communauté queer et les enjeux de ma communauté libriste, je peux contribuer à faire quelque chose de mieux à ce niveau-là » et que, derrière, on te dit « tu n’existes pas et, de toute façon, ce que vous faites c’est dégueulasse parce que c’est encourager l’homophobie », la violence était vraiment très difficile à recevoir.
Là-dessus, des personnes se sont détachées de la modération. C’est super parce qu’il n’y avait pas beaucoup de force ; tu commences, tu te prends une vague de harcèlement, tout de suite ça donne envie de continuer, n’est-ce pas ! Heureusement, par contre en interne le collectif était hyper soudé, c’est-à-dire qu’on a pris hyper cher, mais, en interne, nous étions très protecteurs les uns envers les autres. Il aurait été possible que le collectif se split avec des gens qui disent « je vous l’avais dit, il fallait qu’on dise juste qu’on respecte la loi, on n’aurait pas pris cette putain de vague. » Personne n’a fait ça. Tout le monde a fait le choix collectif et a dit « on essaye de faire mieux et, si on se fait taper dessus, n’empêche qu’on aura fait ce qui nous semblait juste et, à aucun moment, il n’y a de raison de taper sur les personnes qui ont poussé le truc. »
C’est vraiment la chose chouette que je retiens de ce passage absolument détestable : en interne, nous étions très soudés. D’ailleurs, ça a eu un intérêt sur la suite du fonctionnement de la modération : pouvoir compter les uns sur les autres c’est vraiment très important parce que j’ai fait des bêtises en modération. J’ai viré des comptes en mode « oh, là, là, ce robot-là ne fait que poster des trucs – je crois que c’était une crypto-monnaie, je ne sais plus, désolée –, je pense que je peux le supprimer, je l’ai dégagé », en fait c’était le bot d’un copain que les gens connaissaient. J’ai dit « désolée, je ne savais pas, s’il ne respecte pas les règles ! ». En fait, toute seule, je me suis demande « un robot qui pouette toutes les heures le cours d’une cryptomonnaie, est-ce un robot poli ? ». En vrai, le vrai truc c’est que je me suis dit « ça ne m’intéresse pas, je ne vois pas trop l’intérêt de ce truc, je le supprime et voilà ! ». J’aurais dû demander collectivement.

Groupe modération

J’enchaîne sur un truc plus sympa, ça dépend comment on voit les choses, qui est le fonctionnement de la modération. En interne, comment ça se passe ?
J’ai commencé à découvrir les outils de modération de Mastodon.
On a commencé à gérer des cas qui étaient laissés en suspens parce que sur la ligne. Le fait d’avoir un positionnement clair, avec un endroit dans la charte où on dit « si jamais vous nous demandez trop d’énergie, désolés, on vous demande d’aller ailleurs ». Cette ligne-là, c’est la meilleure ligne ! Au bout d’un moment, quand on est à trop se demander « est-ce vraiment, peut-être qu’il n’a pas fait exprès, c’est la troisième fois qu’il ne fait pas exprès, mais bon ! ». En fait, on dit aux gens « désolés, nous sommes bénévoles, on a 12 000 projets sur le feu et ça fait cinq fois que vous êtes signalé, donc merci d’aller continuer votre compte mais à un autre endroit du réseau social et pas chez nous. »
Le déroulé c’est : je reçois un mail qui dit « il y a eu un nouveau signalement sur Framapiaf », je vais dans l’interface de modération et j’enquête. En général, on signale un ou plusieurs pouets. Parfois, idéalement, il y a un message qui dit pourquoi ça a été signalé. Ce message est hyper important parce que, quand on nous signale des trucs mais qu’on ne nous explique pas pourquoi, ça nous demande trois fois plus de travail, c’est insupportable. Donc s’il vous plaît, si vous écrivez des signalements, écrivez un truc, idéalement en plus de trois mots, parce que, juste écrire « sexisme », c’est un peu court. Si c’est un taf que vous ne voulez pas faire, ça veut dire que c’est nous qui allons devoir le faire, donc ça dépend de comment vous préférez placer les points d’énergie.br/>
On lit pourquoi le truc est signalé, on lit le pouet concerné, le message concerné, la vidéo, blablabla, et ensuite, toujours, on est obligé d’aller chercher du contexte. On va voir le pouet, on va voir si ça répond à quelque chose, s’il y a des gens qui ont écrit dessous des choses, des gens qui sont plutôt raccords avec ce qui a été dit, des gens qui dénoncent ce qui a été dit ; on va voir le profil de la personne : est-ce que c’est une personne qui partage du contenu qu’elle écrit elle-même ou est-ce que ce sont que des trucs qu’elle va chercher à l’extérieur ? Est-ce que c’est du contenu auquel elle fait attention ou est-ce que ce sont des trucs qu’elle a l’air de balancer en mode yolo. Par exemple, on a eu des liens de désinformation sur la vaccination par rapport au Covid. Est-ce que la personne a partagé ça une fois sans faire gaffe ou est-ce que c’est quelque chose de systématique ? Dans ce cas-là, on n’est pas dans le même profil de personne.
C’est comme cela qu’on commence à faire des trucs absolument super. Par exemple j’ai regardé une vidéo sur le Brexit lors d’une soirée menée par François Asselineau où y avait Nicolas Dupont-Aignan et le mec du Front national, pas Bardella, c’était avant, peut-être Philippot, ex-Front national, c’est ça. En fait, au début, on nous signale une vidéo sur le Brexit, on nous dit « désinformation ». Je regarde la vidéo, ça parle du Brexit, ça dit « le Brexit c’est super, le vote des peuples a enfin été respecté », je suis plutôt raccord avec ça, puis je vois Asselineau, je ne pense rien de spécial de ce mec, je ne le connais pas bien. Après je vois Nicolas Dupont-Aignan qui vient lui serrer la main, qui dit « ah vraiment, c’est super le vote des peuples a été respecté » et là je fais « ah ! ça a l’air cool ». Ensuite je vois Philippot arriver, je fais « là vraiment ça pue » et, à un moment, je me demande ce que je suis en train de faire de ma vie. Ça fait 20 minutes que je regarde une vidéo sur le Brexit avec en guests Philippot, Dupont-Aignan et Asselineau et je me dis « vraiment, c’était super ! » Vous voyez qu’il y a un truc un peu bizarre.
Une fois qu’on voit tout ça, idéalement quand l’action n’est pas absolument évidente, on a un channel de discussion avec tous les copains qui font de la modération, on écrit ce qu’on en pense. On dit « j’ai vu tel signalement, j’ai regardé la vidéo sur le Brexit. Il y a telle et telle personne dedans, ça pue un peu quand même le truc d’extrême droite, je pense que c’est mieux si… ». Soit on dit « c’est la première fois que ce compte partage ce genre de vidéo, est-ce qu’on dit juste qu’on surveille le compte et, s’il y a un nouveau signalement sur ce sujet, on lui dira "calme-toi sur le contenu que tu partages". » Parce que, en vrai, une vidéo qui dit que le Brexit c’est super, est-ce que ça nécessite une action de modération ? Dire à la personne « vous êtes vraiment d’extrême droite, c’est inadmissible », franchement, ça ne me semble pas réaliste.
Donc on expose son avis sur le groupe modération et on dit « j’envisage peut-être ça ou ça, qu’est-ce que vous en pensez » ou « je voudrais faire ça, est-ce que c’est OK ? ».
C’est vraiment important : avoir l’avis des autres, ça fait passer le sujet en décision collective au lieu d’une décision individuelle, ça baisse la charge de responsabilité et puis, parfois, les gens ne sont pas d’accord avec toi. Je me souviens d’une fois où on a fait de la modération ensemble, une blague sexiste était signalée, j’étais la meuf et j’ai dit « bon, le comparatif des femmes avec les vespas, ce n’est pas grave, on s’en fout, next », et les copains ont dit « tu rigoles ou quoi ! Ça ne va pas du tout, on dégage le mec, il est relou ! ». J’ai dit « les mecs parlent au mec, ils trouvent que c’est relou, ce n’est pas la meuf féministe qui est radicale, débrouillez-vous entre vous, c’est très bien », c’était super.
Et ensuite, seulement, on fait l’action.
Vous voyez donc qu’il y a plein d’étapes jusqu’au moment où il y a l’action et l’action est souvent invisible. On met une note sur le profil pour nous pour la prochaine fois, on la contacte en privé pour lui dire « merci d’éviter les liens de désinformation sur le Covid » ou alors « votre blague sexiste, c’est la première et dernière fois, la prochaine fois on vire votre compte, merci d’aller ailleurs si vous n’êtes pas content » ou encore « on va supprimer votre compte d’ici 30 jours parce que vous nous demandez trop de temps de modération, donc merci de prendre vos bagages et d’aller voir ailleurs. »

Comment on s’organise ?

C’est la partie rapide, parce que, parfois il faut attendre l’avis des autres, on hésite tous collectivement, on se renseigne sur le sujet.
Par exemple, quand j’ai commencé la modération en 2019, l’humain n’est pas parfait, j’étais candide, mes notions sur l’antisémitisme c’était littéralement : il y a eu la Seconde Guerre mondiale, c’était horrible, tout le monde a appris et il n’y a plus de problèmes. Je n’avais aucune idée de la raison pour laquelle le peuple juif avait été massacré pendant la Seconde Guerre mondiale, je pensais que c’était tombé du ciel, je n’avais aucune idée des enjeux historiques. Je commence la modération. Je me renseigne sur tous les enjeux de l’antisémitisme, je découvre ce qu’est l’antisionisme, je ne connais pas la différence, je ne connais même pas vraiment Israël, ce n’est pas mon sujet. Il faut donc se renseigner sur le sujet, peut-être écrire à la personne en disant « là, en fait, vous faites une superposition entre la politique d’Israël et les Juifs, c’est un peu problématique. Est-ce que vous ne voulez pas, quand même, faire quelque chose de différent ? ». C’était avant, peut-être que maintenant tout le monde est plus vener sur le sujet parce qu’il y a l’actualité.
On écrit une première version collectivement pour être sûrs que ce soit bien compris par la personne qui va la recevoir, on fait des relectures, on envoie à la personne, la personne ne comprend pas, nous dit « c’est inadmissible, quand même, vous vous rendez compte, vous êtes complices du terrorisme. » Il faut faire une deuxième réponse et il ne faut pas se laisser entraîner. C’est une personne qui nous prend beaucoup trop d’énergie, il faut donc faire preuve d’un peu d’autoritarisme en lui disant « vous êtes chez nous, c’est nous qui faisons la modération. Si vous n’êtes pas content, vous allez ailleurs parce que vous nous prenez trop d’énergie, désolés ! On n’a pas le temps de débattre du conflit israélo-palestinien avec une personne qui a fait un truc un peu problématique. »
Tout ça prend une énergie de ouf, pour un cas, pour un pouet, pour un truc qui fait moins de 500 caractères, on peut passer des heures à écrire des messages, à discuter entre nous, à se renseigner sur le sujet. On peut voir ça positivement en disant « c’est une façon d’apprendre, c’est génial » ou on peut dire « en fait, on voudrait passer à autre chose, passer notre vie à faire autre chose. »

Maintenir le collectif

Les discussions sur le chat nous permettent de nous mettre raccords. On a aussi fait des sessions collectives en visio, ça c’était super. Quelqu’un partageait son écran, on était plusieurs à regarder, du coup plusieurs à donner notre avis en même temps, à lire le truc, à dire « moi je comprends ça, est-ce que tu comprends ça aussi ? — Je parle un peu plus anglais, j’ai l’impression qu’il fait référence à tel truc un peu compliqué. » C’est aussi plus sympa quand tu vois des trucs un peu violents. Je n’ai jamais été soumise à du contenu très violent, mais quand tu vois du contenu porno – voir des meufs se mettre à poil ce n’est pas le truc qui enchante ma journée, chacun fait ce qu’il veut –, mais quand je dois me le fader, ça ne me fait pas rigoler. Du coup, être à plusieurs et voir ensemble un truc un peu désagréable, c’est quand même plus chill. Pour moi, le porno c’est violent, chacun fait ce qu’il veut.
On fait aussi parfois des sondages : « sur tel cas voici ce que j’ai compris, j’hésite entre ça et ça, est-ce que vous voulez juste voter ? », comme ça les personnes peuvent répondre plus rapidement, ça fait passer le truc dans une décision qui n’est pas individuelle et, en même temps, il n’y a pas eu besoin de faire 12 000 débats par écrit les uns avec les autres.
Un positionnement ça demande du temps.
Ça demande la formation, parce que, du coup, on s’entre-informe c’est-à-dire qu’il y a des copains qui sont très au courant sur les signes par exemple des fascistes, les petits insignes, moi je n’y connais rien. Parfois, sur les photos de couverture il y a des petits crânes, moi je suis en mode « je ne sais pas, il doit aimer le métal, c’est sympa. » J’ai un copain qui fait « nope, nope, ça c’est un signe d’extrême droite. – D’accord très bien ! »
Ça demande de la discussion et beaucoup de temps, encore du temps, du temps.
Et souvent, je l’ai déjà dit, mais je le redis, en modération on demande une réaction immédiate. On dit « là il y a quelqu’un qui a fait une réflexion sexiste, il faut absolument le modérer, le dégager tout de suite ! ». Parfois à raison, parfois il y a des enjeux, il faut réaliser rapidement des actions de modération, il n’y a pas de problème.

Ma position

Pour moi c’est : est-ce que la santé mentale d’une personne est en jeu, là, maintenant, tout de suite, instantanément ? La personne se prend une vague de harcèlements, du coup il faut l’aider et bloquer là, maintenant, parce que c’est très difficile pour la personne. Sinon, on a le temps d’avoir une réflexion posée et de prendre la décision.
Ça me fait penser aux réflexions que j’ai vues l’année dernière, au début, sur le programme du Capitole du Libre. Pour être très claire, quand on a sorti la charte, comme pour le Capitole du Libre, ce n’est pas une personne qui a décidé de harceler Framasoft, ce n’est pas un groupe de personnes qui se sont mises d’accord en disant « on va les défoncer », ce n’est pas comme ça que ça se passe. Ce sont des personnes qui estiment que leur réaction est légitime et qui, toutes en même temps parce que, sans doute elles ont vu quelqu’un d’autre et elles se sont dit « ce que dit cette personne est pertinent, je suis d’accord avec elle, je vais le faire savoir », et la masse de ces personnes crée le harcèlement, ce n’est pas organisé, je pense que c’est important de le dire. Je ne suis en train de dire que des personnes se sont organisées pour harceler Framasoft. Par contre, de fait, à la fin, on a une masse de messages qui nous disent qu’on fait de la grosse merde et c’est difficile.
Pour Capitole du Libre, il s’est passé la même chose. Quand j’ai vu la vague de harcèlements pour Capitole du Libre qui disaient « le programme est immonde, il n’y a quasiment pas de femmes, c’est scandaleux », ce qui est vrai, j’ai écrit. Vous voyez ma position, c’est super, je suis féministe et je me dis « il y a un programme, il n’y a quasiment pas de meufs dedans, qu’est-ce que je fais, je vais écrire aux organisateurs pour prendre soin d’eux, parce que je suis modératrice et que j’ai subi une vague de harcèlements ». Je dis aux organisateurs « je vois ce que vous êtes en train de vous prendre, à mon avis ça ressemble à une vague de harcèlements, vous faites comme vous le sentez, mais je vous recommande de vous éloigner des réseaux, de prendre le temps de discuter collectivement, de faire attention à ne pas vous connecter toutes les trois minutes pour voir les nouveautés parce que vous allez prendre très cher ». Et il m’a été répondu : « Merci pour ce message, c’est le seul message positif que j’ai reçu de la journée. »
Je suis d’accord avec le fond mais pas avec la forme. Je comprends vraiment que les meufs en aient marre, on en a toutes marre qu’il n’y ait pas assez de meufs invitées, que ce soient toujours les mecs à l’être, que ce soient toujours les mêmes, mais je sais aussi à quel point c’est dur de se prendre une grosse vague de harcèlements. Je n’ai pas encore choisi ce que je pense de l’un ou de l’autre, comment me positionner par rapport à ça. Et là, à mon avis, l’urgence c’était la santé mentale des organisateurs qui prenaient super cher d’un seul coup.

Ah ! Et au fait… On est bénévoles

Et puis, les modérateurs, nous sommes bénévoles, nous ne sommes pas connectés H 24 sur l’ordinateur pour voir les messages qui passent, donc on ne peut pas réagir comme ça.

Les outils techniques de Mastodon

Il y a une variété de façons de réagir sur Mastodon : on peut supprimer un contenu, masquer un compte, bloquer un compte, bloquer une instance, on peut donc carrément bloquer un bout du réseau ce qui est super pratique. Quand les gens de jeuxvidéo.com sont venus sur Mastodon, on leur a dit « vous êtes super mais ici, chez nous, vous allez être modérés, on pense que ce n’est pas une bonne solution, allez-vous créer votre bout de réseau. » Ils ont fait « super, on va créer notre bout de réseau et il y aura la liberté d’expression, ça sera génial ! ». On les a bloqués, ils sont partis, on a dit « super, salut », c’était cool.

Retour après quatre ans de modération

Maintenant ça fait à peu près quatre ans, je ne peux pas dire que je fais de la modération tout le temps, d’autres copains prennent le relais, ce qui est sûr c’est que j’ai toujours un œil dessus.
C’était très intense au début parce qu’on a fait une grosse vague de nettoyage. À tous les gens qui étaient borderlines, qui jouaient un peu avec les mots, qui faisaient en sorte de ne pas être virés mais qui cassaient quand même les pieds à des utilisateurs, on a montré le chemin de la sortie avec ce fameux point « vous nous prenez trop d’énergie, désolés ! ».
C’était au point où des salariés de Framasoft avaient bloqué la personne sur leur compte perso mais n’avaient pas réussi à le dégager de notre instance, franchement je trouve que ce n’est pas OK. Qu’une personne soit tellement mal qu’elle doive bloquer l’autre utilisateur pour se sentir bien, mais qu’elle ne se sente pas légitime pour le dégager de l’outil qu’elle propose, ce n’est pas OK.
Donc le harcèlement imprévu ce n’était pas sympa.
C’est dur d’anticiper le niveau d’énergie, c’est-à-dire que, souvent, il peut ne rien se passer pendant des semaines, des mois et puis, à un moment, il y a un épisode un peu intense, il faut réagir vite et, du coup, c’est un peu compliqué.
Heureusement, le collectif à l’intérieur de Frama fait absolument tout, du coup, c’est trop génial.

Modération = Pouvoir humain = Faillible

Être en position de modération, c’est avoir du pouvoir sur les utilisateurs, droit de vie ou de mort sur leur compte, littéralement on est là-dessus, on a un bouton, on peut dégager la personne et voilà ! Et comme nous sommes des humains, eh bien parfois on fait des conneries, et puis, parfois, on n’a pas la bonne position et puis, parfois, les gens, en face, ne sont pas d’accord avec notre position et tout ça c’est OK et désolés ! Nous ne sommes que des humains, ce n’est pas parfait, mais, en même temps, si vous cherchez la perfection ce n’est ni chez moi ni à Framasoft que vous allez la trouver. Essayez sur Twitter !

Questions à creuser

Je vais aller à la hache, des questions intéressantes m’ont été posées, mais comme on n’a plus le time, je vais enchaîner les questions.

Comment fait-on pour modérer du contenu quand on n’est pas concerné·e ?

Comment fait-on pour modérer du contenu quand on n’est pas concerné·e ? Est-ce que c’est possible ?
Ça arrive tout le temps, parce que, à un moment, il faut avoir vraiment beaucoup de casquettes et puis, si jamais vous avez toutes ces casquettes, vous n’avez pas l’énergie pour faire de la modération, déjà juste gérer votre vie alors que vous êtes minorisé, c’est beaucoup trop de taf.
En fait, il faut se former tout le temps, il faut lire des trucs, il faut se tenir au courant de l’actualité et puis, quand on a certaines grilles de lecture, c’est plus facile. Par exemple en ce moment, sur les enjeux israélo-palestiniens, quand on a la grille de lecture de la colonisation, c’est quand même beaucoup plus facile, parce que, clairement, on voit des gens qui parlent du conflit israélo-palestinien, ils n’ont pas la grille de lecture… tu vois des trucs ! Ils ne l’ont pas. Nous ne sommes pas parfaits du tout, mais, au moins, on a ça.
Donc comment modérer du contenu quand on n’est pas concerné·e ? II faut se former, tout le temps, c’est beaucoup de taf.

Est-ce qu’on est contre la liberté d’expression ?

Est-ce qu’on est contre la liberté d’expression ? Oui. Vous ne pouvez pas dire n’importe quoi et si vous n’êtes pas content, c’est pareil. Tous ceux qui lèvent les yeux au plafond et qui ne sont pas contents, qu’ils aillent chouiner ailleurs. Je n’ai pas le time.

Quel est le bon niveau de transparence ?

Quel est le bon niveau de transparence ? C’est un sujet très intéressant et je ne peux donner que la position de Framasoft sur le sujet.
La transparence c’est super, ça demande un temps infini, ça demande de gérer des tonnes de shitstorms. Si on rend chaque décision transparente, il faut expliquer pourquoi, des gens ne vont pas comprendre, ils vont nous faire des retours, on n’a pas l’énergie. Je suis un peu désolée, mais faire de la modération c’est déjà beaucoup d’énergie, si on devait avoir un très gros niveau de transparence, ça serait beaucoup trop de boulot. D’ailleurs Mastodon, de façon automatique, augmente le niveau de transparence et je suis un peu tendue en me disant « ça nous demande encore plus d’énergie qu’avant, du coup j’ai peur que ça nous fasse prendre des décisions de modération différentes » parce qu’on bascule : par exemple, si on supprime le contenu d’une personne, ça va lui envoyer un mail automatiquement. Est-ce qu’on a envie de lui écrire un mail pour lui dire pourquoi on a supprimé son contenu et tout, peut-être qu’on ne fait rien ou peut-être qu’on lui dit merci et d’aller voir ailleurs pour que ça n’ait pas lieu à nouveau. Donc c’est compliqué. Mon truc c’est « franchement, je suis désolée, c’est compliqué. »

Comment modérer des comptes de proches ?

Comment modérer des comptes de proches ? C’est une question intéressante.
Pour moi, à un moment, il faut vraiment se demander si la personne, l’utilisateur, qu’on le connaisse ou qu’on ne le connaisse pas, fait des efforts pour bien se comporter et interagir avec les personnes ou pas. C’est vraiment juste une ligne : est-ce que vous vous comportez bien ou pas ? Si jamais vous êtes agressif avec les personnes, vous êtes dans l’ironie ou des choses comme ça, vous nous donnez du travail en plus et, à un moment, c’est pénible. Si jamais vous avez des proches qui ne sont pas capables de comprendre ça ! À un moment, si ce sont vos amis, ils peuvent prendre en compte que c’est compliqué pour vous, que ça vous donne du travail en plus. Je crois que la personne qui m’a posé cette question m’a dit qu’elle l’avait fait et que ses amis lui en avaient voulu. Désolée, déjà qu’on fait du travail gratuit, il faudrait être parfait, il faudrait aller dans le sens de ses amis alors qu’ils ne se comportent pas de façon propre avec les autres ! À un moment, si on nous demande la perfection, c’est beaucoup de boulot.
Je dirais que c’est difficile, mais si vos potes sont vraiment vos potes, peut-être qu’ils peuvent prendre en compte le fait que c’est difficile plutôt que de vous en vouloir de les avoir modérés. Je ne sais pas.

Que faire du gars relou qui ne se rend pas compte qu’il est relou ?

Que faire du gars relou qui ne se rend pas compte qu’il est relou ?
C’est la même chose. À un moment, tu fais un effort pour bien te comporter et je n’ai pas le time d’éduquer tous les mecs ni de la Terre ni de la France ni du Capitole du Libre ni des libristes ni de tout. J’en choisis un ou deux, déjà c’est beaucoup de taf, je n’ai pas le time.
Donc au gars relou qui ne se rend pas compte qu’il est relou, on dit « désolé, tu es relou, forme-toi à l’écoute, à la communication, et ensuite interagis avec des gens, prend des pincettes, fais un effort », à un moment, on n’a pas le time.

Comment empêcher l’abus de pouvoir ?

Comment empêcher l’abus de pouvoir ?
Facile celle-là. Ce n’est pas possible, on a du pouvoir.
Empêcher l’abus de pouvoir, ça se fait collectivement. On réussit à dire « là, je pense que c’est un peu exagéré, est-ce que vous êtes d’accord les copains ? » et les copains disent « oui ou non ou quand même », mais c’est possible, on ne peut pas l’empêcher. N’empêche ! Le fait d’être sur Mastodon, que ce soit des réseaux interconnectés, ça limite un peu le problème. L’avantage c’est que, par exemple, quand on vire quelqu’un, on ne lui dit pas « on te vire donc le réseau social t’est interdit. » On lui dit « on te vire, donc tu vas ailleurs pour accéder au même réseau social » et je trouve que c’est quand même un gros avantage, parce que, du coup, on vire les gens plus facilement. On leur dit « il y a plein d’autres endroits dans l’univers où tu peux aller t’inscrire, donc merci de partir de chez nous. »

Est-ce que le harcèlement est un bon moyen d’arriver à ses fins politiques ?

C’est ma question : est-ce que le harcèlement est un bon moyen d’arriver à ses fins politiques ?
Je n’ai pas décidé ce que j’en pense exactement. Il faudrait préciser « est-ce que le harcèlement envers des groupes qui sont très proches de nous et qui sont sur du temps bénévole, et pas des personnalités publiques, est un bon moyen d’arriver à ses fins politiques ? » Si on harcèle Zemmour, ça ne me pose politiquement aucun problème, même si, évidemment, il ne faut pas le faire, car la loi l’interdit !

Et maintenant

Et maintenant, fin de la conférence.
J’espère que ça a un peu contribué à davantage visibiliser le travail invisible de la modération et à faire monter un peu le niveau d’empathie avec les modérateurs et modératrices.
Je fais une wishlist, c’est bientôt Noël.

Pour les réseaux sociaux capitalistes, l’idéal serait qu’ils prouvent qu’ils mettent des moyens humains, parce que les moyens techniques, ce n’est pas le problème, on a compris qu’ils les mettent.
Souvent la technique nous fout dans la merde, ça serait donc cool qu’on arrête de se concentrer là-dessus et que les politiques arrêtent de se faire bananer sur le fait que ce sera la prochaine révolution technologique des IA qui va vraiment nous aider.
Et puis une politique claire de modération aussi, ce serait quand même pas mal.

Copains modérateurs, modératrices, s’il y en a dans la salle ou s’il y en a qui écoutent la conférence plus tard, vous n’êtes que des humains.
Collectivement on est plus fort donc, si vous arrivez à rejoindre un collectif, ça peut vous soulager même si je comprends que ça n’est pas facile.
En tout cas, l’isolement du travail de modération c’est vraiment la plaie, donc si jamais vous arrivez, par exemple, à faire des visios avec d’autres personnes pour traiter les signalements, ça peut vraiment vous soulager beaucoup, ça demande un peu plus d’organisation, mais je trouve que ça fait descendre la difficulté de la tâche de beaucoup.
Avec un positionnement clair, c’est plus simple, vous n’êtes que des humains.

Copains utilisateurs et utilisatrices, ayez conscience de la portée de vos actes. Ça peut être juste un pouet énervé pour vous, agressif envers une personne, mais pour nous, derrière, ça demande vachement de gestion.
Si jamais vous avez l’énergie de le faire, avant d’écrire à quelqu’un, demandez-vous si ça améliore le monde ou si ce n’est pas le cas ou si ça vous soulage parce que vous êtes dans un groupe opprimé, que vous avez envie de vous soulager. Sinon, ça rajoute du boulot à tout le monde, ça énerve les gens et puis, en vrai, quand nous nous sommes fait harceler à Framasoft, ça a dégoûté certaines personnes qui ont arrêté de faire du taf, donc ça provoque des problèmes de santé mentale chez des gens.
Ensuite, j’entends qu’on peut dire, par exemple, que cette année à Capitole il y a un meilleur programme, du coup faire un lien qui dirait « la vague de harcèlements a permis le fait qu’il y ait un meilleur programme », je suis comme ça. Mais si jamais on avait défoncé la santé mentale des organisateurs, qu’ils étaient partis en dépression, est-ce que ça aurait aidé ? En même temps, là je suis en train de dire qu’il faut prendre soin des pauvres mecs blancs qui organisent des conférences libristes parce que c’est bien. Je suis entre les deux, je ne sais pas quoi faire. Je ne veux pas être en mode Bisounours « il faut prendre soin des gens, tout le monde est absolument égal et c’est super ! ». Les meufs prennent déjà suffisamment cher pour ne pas chercher avec tout le monde.
Excusez-vous. Au pire, on fait des bêtises et on s’excuse. Plutôt que dire « j’avais raison et vous les modérateurs, je voudrais que vous disiez que j’ai raison. » On joue beaucoup à la maîtresse de cours d’école, on passe son temps à dire « oui, je comprends, Thierry tu as l’impression que Baptiste a dit ça, mais en fait… ». À un moment, vous êtes des adultes, vous savez interagir entre vous, ou pas, c’est insupportable, mais vous pouvez vous former, vous avez de l’argent pour vous payer des formations, n’est-ce pas, quitte à ce que vous ayez de la thune, les mecs vous pouvez faire ça. Donc excusez-vous, je sais, c’est difficile, vous n’êtes pas acculturés à le faire, mais juste dire « désolé, j’ai dit ce truc et je pense que j’ai dit une bêtise ! ». Vous n’allez pas perdre vos cheveux, tout va bien se passer, c’est franchement une bonne idée.

Stratégie à long terme

Enfin, stratégie à long terme, ça serait cool

  • que le travail de soin soit valorisé
  • qu’on apprenne à mieux communiquer les uns avec les autres
  • qu’on ait du temps pour gérer les conflits plutôt qu’au service du capitalisme
  • que les outils techniques permettent de mieux gérer la modération
  • d’avoir des outils de modération efficaces
  • qu’on ait une culture partagée des oppressions systémiques et qu’on se rende compte que quand on fait une blague à une meuf ce n’est pas pareil que faire une blague à un gars. Je ne parle que du sexisme parce que c’est de ça dont je suis la victime, je ne me permets pas de parler trop des autres oppressions
  • et puis, quitte à faire une liste au père Noël, la justice sociale, comme ça on arrange tous les soucis
  • et puis, peut-être, cramer les réseaux sociaux. On a un questionnement qui est : est-ce que les réseaux sociaux contribuent, en vrai, à faire que le monde aille mieux ou est-ce que ce n’est pas, quand même, un outil qui a été pensé par des grands groupes capitalistes numériques ? Et franchement, ça nous fout plus dedans que ce que ça nous arrange. Je pose la question.

Merci

Si vous le souhaitez, je vais partager le lien vers les slides et j’ai mis une collection de liens sur Flus [6] , qui donne beaucoup d’articles qui approfondissent le sujet, si jamais ça vous intéresse.
Merci.

[Applaudissements]

Questions du public et réponses

Normalement il y a des questions quand on finit dans les temps. Je suis disponible pour discuter, mais peut-être que les gens de la technique veulent aller manger, du coup on n’enregistre pas de questions, ça ne me vexe pas. On peut rester un peu, d’accord. Si vous voulez discuter encore, je reste. Est-ce que des gens ont des questions ?

Public : Je vais juste témoigner des propos que j’avais entendus en début d’année. On avait fait un petit atelier sur la modération, sur l’écriture d’une charte de modération pour modérer un réseau type Mastodon. On a donné des rôles aux différents groupes, les personnes choisissaient. Il y avait le groupe des libristes, le groupe mouvement politique, le groupe startup et le groupe safe space.
Le groupe qui a eu le plus de facilité à construire la charte de modération c’est le groupe startup parce que les personnes se foutaient littéralement des gens, il était donc très simple d’écrire des règles de modération.
Le groupe qui a eu le plus de difficultés, qui a eu le plus à débattre et tout ça, c’est le groupe qui devait prendre vraiment soin, donc le safe space. Ça a été un exercice très intéressant, je tiens à souligner ça.

Public : Bonjour. Je m’appelle Antoine, j’ai une petite question à propos de l’IA.
Durant la présentation, vous avez dit que l’IA, en général, n’est pas une solution. Est-ce que cela concerne aussi les IA qui sont juste des assistances à la modération et qui ne prennent pas de décisions de ban, mais qui peuvent quand même signaler des personnes à la modération.

Maïtané : C’est le moment où je ne m’y connais pas assez en technique dans ce qui est faisable, mais clairement, par exemple du côté des modérateurs de réseaux sociaux capitalistes, le fait qu’il y a un pré-tri est assez important. Ce n’est pas de mon expérience personnelle, mais le fait qu’un pré-tri ait lieu dans les très gros réseaux sociaux qui sont soumis à beaucoup de violence, ça a l’air intéressant. Je pense que je mets beaucoup l’accent sur l’humain, dans le sens où, exactement comme tu l’as dit, c’est important qu’il y ait une validation manuelle par des humains plutôt que tout soit laissé à l’automatisation. C’est plus sur cette ligne-là que je me situe.
Pour moi, le pré-tri, les IA qui permettent de faire du travail en amont, c’est effectivement cool. Par contre, faire croire que, ensuite, les humains n’ont plus la main et que, du coup, ce n’est pas la faute de l’entreprise, c’est plus là où ça me semble problématique.

Public : Très bien merci.

Maïtané : Merci. Le monsieur en rouge a levé la main, avant toi Stéphane et il y a une personne là-bas.

Public : Bonjour. Merci. Déjà merci beaucoup parce que j’ai fait pareil sur Mamot et sur Pialle pendant longtemps et tout ce que tu viens de dire c’est exactement notre expérience, à ceci près qu’on n’a pas publié notre charte, mais on s’y est pris le même genre de… Bref, c’est tout pareil.
Question très précise : comment faites-vous pour modérer les contenus venant des autres instances ? Est-ce qu’il y a une différence ? Je parle toujours de Mastodon, c’est de cela dont on parle. Comment différenciez-vous, dans votre quotidien, le fait que quelqu’un signale un compte local ou le fait que quelqu’un signale un compte externe ? Quelle est la différence ? Merci.

Maïtané : Je n’ai pas l’avis collectif des copains sur le sujet. Je sais qu’on fait toujours beaucoup plus attention quand c’est chez nous. Pour information, quand vous signalez un contenu sur Mastodon, si jamais vous signalez un contenu de quelqu’un qui n’est pas au même endroit que vous, vos modérateurs reçoivent de toute façon le signalement. J’avoue que j’ai une partie de moi qui me dit que peut-être, selon la façon dont est rédigé le signalement, en fait il n’est pas pour nous il est surtout pour l’instance d’en face. Si c’est grave, je bloque, je signale et tout. Mais si jamais il y a sujet à débat, si c’est chez nous j’aurais plus tendance à contacter la personne, à lui dire « merci de faire attention, etc. » Si la personne est loin, je laisse ses modérateurs s’en occuper. Et si cette personne est signalée à répétition, dans ce cas-là je la masquerais, je la bloquerais pour l’éloigner un peu de mes utilisateurs.
Il y a effectivement un enjeu. Pour le dire franchement, crûment, quand on voit que c’est quelqu’un de chez nous on est en mode « nos utilisateurs pourraient faire un peu des efforts parce qu’ils nous cassent les pieds ! ». Quand c’est loin, les gens, ailleurs, qui font des trucs, ils sont signalés, mais c’est moins notre problème. Et quand c’est dans une autre langue, ça ne nous arrive pas souvent, un peu en japonais, mais franchement ça nous arrive quasiment jamais. Je pense que dans le doute on masquerait. Ce qui ferait qu’on bloquerait dans une autre langue, il faudrait que ce soit du contenu illégal, problématique ou qui voudrait harceler nos utilisateurs. On n’a jamais eu ce cas.

Public : Bonjour. Vous êtes arrivée en 2019, comment, au niveau du groupe, avez-vous géré la période du Covid, la gestion du passe, de la vaccination, les personnes suspendues ?

Maïtané : J’ai trouvé hyper riche à Framasoft, notamment durant la période Covid, et ça a dû vous arriver à tous, de voir, face à un événement qui semble très nouveau, comment chacun se positionnait face à des enjeux très divers.
Ma position, qui est partagée par l’équipe de modération, c’est : le Covid est une maladie grave, dont on ne sait pas assez de choses pour pouvoir dire que ce n’est pas grave. La recherche montre que la vaccination est un bon remède. Par contre, le gouvernement français, c’est ce que je connais mieux, a mis en place une politique autoritaire pour gérer la situation, avec des contraintes très fortes, je pense notamment aux papiers qu’on devait signer pour sortir et, du coup, au passe sanitaire. Ma ligne c’est : il y a des enjeux de santé très forts, la recherche montre que la vaccination est une bonne façon de se protéger. Par contre, dire que la technologie va nous protéger, notamment avec le passe sanitaire, c’était extrêmement problématique pour plein de raisons, on devait montrer individuellement qu’on était bien protégé, ça posait plein de problèmes d’exclusion de personnes qui n’avaient pas de smartphone, vraiment plein de soucis.
Voilà la ligne qu’on a tenue facilement dans l’association. C’était difficile de savoir comment se positionner par rapport aux gens qui pouettaient des choses en rapport avec la politique sanitaire. Il y a eu, par exemple, un genre de documentaire, un film qui se disait documentaire, qui parlait du sujet et, quand il est sorti, on a su qu’on allait devoir gérer la situation et la façon dont on gère est de dire beaucoup aux gens : « Merci de vérifier vos sources parce que les sites que vous citez ne sont pas exempts de rigueur journalistique. »
C’était vraiment très difficile, en même temps, c’est à nouveau difficile avec le conflit israélo-palestinien, la désinformation arrive tout le temps, donc la ligne c’est : en termes de rigueur journalistique et recherche, est-ce que les sources sont fiables ou pas ? Sinon…
Dernier truc. Ça dépend aussi si la personne partage quelque chose qui serait plus un avis personnel en disant « ce truc c’est quand même un peu intéressant » ou si on voit que la personne est axée désinformation, tous ses pouets sont un mode « la vaccination cause des gros problèmes, renseignez-vous sur tel ou tel site », qui sont un peu puants et là on bascule sur autre chose.

Public, Stéphane Bortzmeyer : Suite à la question sur l’IA, je suis bien d’accord sur le fait que ça doit être l’humain qui doit décider, tout le monde dit ça, le problème c’est que ce n’est pas comme cela que ça se passe, notamment pour des raisons de temps, que tu as citées, de temps et d’énergie. Dès qu’un système automatique est en place, la tendance c’est de lui faire une confiance aveugle. On dit, on répète « mais non, on ne fait pas une confiance aveugle, c’est toujours un humain qui décide », mais en pratique ce n’est pas ça. Donc s’il y a un système de pré-tri qui signale les trucs à problème, le résultat c’est qu’on ne regarde jamais le reste.
Dire que l’humain est dans la boucle, je n’ai pas confiance !

Maïtané : Moi, je n’ai pas confiance dans les réseaux sociaux capitalistes, de façon globale. En fait, ça dépend de l’objectif politique. Si l’objectif c’est de faire la meilleure modération possible, quand on dit « on pense que la technique peut aider », je fais « hou, là ! ». Il y a le biais dont tu parles, Stéphane, mais on peut se dire qu’on essaye de s’en servir comme d’un outil.
Le but des réseaux sociaux capitalistes c’est de payer moins de gens ou de payer les gens moins cher, ça les arrange. En fait, ils veulent qu’on ne les fasse pas trop chier sur les enjeux de modération. Du coup ils disent « ne vous inquiétez pas, on a des robots sur le coup, ça coûte moins cher » et ils sont obligés de payer un peu des gens pour dire « ne vous inquiétez pas, il y a des gens qui relisent », mais c’est l’enjeu de base qui est très différent.

Public : J’ai plus une question spécifique à Mastodon. J’ai essayé de bidouiller avec ma propre instance pour comprendre techniquement comment ça marche. Je me suis rendu compte que quand on se lance, quand on veut lancer une petite instance – ce que je trouve cool et qui existe de plus en plus –, si on veut accueillir des personnes et créer un peu un safe space, il y a la possibilité de prendre la blocklist d’une instance qui existe. Est-ce que vous pensez que c’est une bonne pratique ? Est-ce qu’il faut organiser une sorte de modération intéressante ? Est-ce que c’est une solution d’avoir un collectif de modérateurs inter-instances qui se partagent pour ne pas attendre des signalements pour bloquer des gens, des instances, etc. ? Je suis très peu au courant de ça. Est-ce que ça existe ? Est-ce que c’est une bonne solution ?

Maïtané : On n’utilise pas ça. Je pense que l’enjeu c’est la délégation du travail de modération et ça nécessite de la confiance. Ce que tu es en train de dire c’est « ah, là, là, se rendre compte de toutes les instances problématiques, ça prend beaucoup de temps, il y a peut-être des gens qui ont déjà fait ce taf-là, est-ce que je pourrais juste récupérer leur liste et ça m’arrangerait ? ». Je pense qu’il faudrait trouver des gens en qui tu as confiance en termes de politique de modération, en disant « on est raccord, est-ce que c’est OK ? ». Mais même nous, à Framasoft, nous avons bloqué des gens, par exemple nous avons bloqué les instances de jeuxvidéo.com parce qu’on y dit des trucs horribles. Pour vous donner un exemple très précis, à un moment ils ont partagé une photo de la fosse du Bataclan. Je n’ai pas modéré, c’est un copain de Framasoft qui a modéré ça à un moment parce qu’ils sont venus s’inscrire sur Framapiaf avant d’aller ailleurs. C’est facile de dire « on les dégage ». À un moment on a bloqué une instance japonaise parce qu’elle se faisait spammer de robots, donc on se faisait spammer de robots dans la foulée et je crois qu’on l’a débloquée parce que ce n’était plus légitime.
Il faudrait aussi que les personnes listent l’historique des raisons pour lesquelles les instances ont été bloquées et après, si jamais sur l’historique il est écrit « telle instance est d’extrême droite », je pense que ça ne veut pas dire la même chose pour tout le monde.
La question c’est comment trouver d’autres gens en qui on a confiance pour organiser un collectif. Il faudrait que tout le monde soit raccord et c’est compliqué.
Voilà ma réponse, c’est super, c’est « je ne sais pas, c’est compliqué ! », désolée.

Public : Je suis un peu d’accord avec toi. Je suis tout à fait d’accord avec toi sur la modération collective qui nécessite de se parler en fait et typiquement c’est peut-être quelque chose qu’il faudrait qu’on envisage, mais, dans ces cas-là, je le verrais plutôt comme on se parle sur une liste de discussion entre co-admins : on a bloqué ce truc-là, YouPorn, les faciles.
J’ai compris en creux, dans ce que tu disais dans ta conférence, qu’il y a tout un tas de modérations qui sont ultra-simples, mais ce qui nous prend 95 % de l’énergie c’est la petite bande au milieu.
Question un peu un peu précise. Statistiquement, j’ai remarqué que les gens à qui ont écrit pour leur dire « bonjour, là il ne faut pas », 95 % du temps on reçoit des messages plutôt énervés, ne jamais vouloir admettre, ce sont les personnes qui ont peut-être déconné leur charte. De ton avis, est-ce que c’est pareil de votre côté ? Qu’est-ce que ça provoque chez vous ? Qu’est-ce que ça fait soit en termes de suite à la modération soit dans l’équipe en termes d’énergie ? En gros, tu dis que souvent vous écrivez aux gens. On essaye de faire ça sur Piaille et, 95 % du temps, on se fait insulter en retour.

Maïtané : Pour reprendre le tout début de ton point, quand j’ai commencé la modération je me disais « OK, ça va être dur, il va falloir gérer de la pédopornographie, des images hyper violentes, brace yourself, j’y vais mais ça va être dur. » Et en fait, ce n’est pas du tout arrivé pour moi.
Il y a un peu deux types de modération : les trucs qui sont violents, mais qui vont vite, qui font trop chier, mais qui vont vite, et les trucs qui sont plus sur le fil où notre posture initiale c’était « on va discuter avec les gens pour leur expliquer » et effectivement, je ne sais pas si je dirais 95 %, mais dans trois cas sur quatre, peut-être plus, les personnes ne sont pas conciliantes. J’admets que nous avons un ton un peu autoritaire, c’est-à-dire qu’on ne veut pas perdre de temps, on ne veut pas rentrer dans une discussion longue et je pense que c’est la discussion longue qui permettrait aux personnes de bouger leur position. On leur dit « ça n’est pas autorisé, merci de faire mieux », et je comprends que ce soit un peu descendant. Surtout, en plus, qu’on ne cite pas toujours le contenu incriminé, parce que, souvent, ce sont des gens qui interagissent les uns avec les autres et si on signale le contenu incriminé, la personne va savoir qui a signalé, donc ça pourrait se répercuter sur la première. On veut donc protéger la première, du coup on dit à la deuxième « franchement, ton comportement n’était pas OK. » Oui, Les gens réagissent mal, pas en nous insultant. Du coup, comme on a l’autorité, comme on est la maîtresse au milieu de la cour d’école, notre supposition c’est qu’on est vu comme une espèce d’entité, je vais exagérer, on est le dieu sur le réseau social, on a la décision, on peut dire toi tu restes, toi tu pars. On est considéré comme étant sympas, les gens sont venus s’inscrire chez nous, ils aiment bien Framasoft, ils ont une image de nous et quand on leur dit « là, ton comportement n’est pas OK », il y a une espèce de grosse invalidation de quelque chose en quoi ils croyaient, ils avaient confiance, ils trouvaient qu’on était génial et là les gens sont dégoûtés, « en fait, vous me jugez en me disant que ce que je fais c’est c’est mal ! — On dit juste qu’on n’est pas d’accord avec ça, mais après on n’est personne pour dire que c’est mal. – Vous dites que c’est mal, je ne suis pas d’accord, je pense que je suis une bonne personne. » On a une discussion complètement absurde sur le bien et le mal, bref, c’est compliqué ! Mais j’admets qu’on n’a pas l’énergie, qu’on ne met pas assez de points d’énergie, parce qu’on ne les a pas, pour prendre le temps d’expliquer pourquoi c’est problématique, etc. Ça m’est arrivé mais c’est un temps sans fin : dire à quelqu’un qui fait du mansplaining « là, vous êtes en train de faire du mansplaining, vous ne savez pas ce que c’est, regardez ces cinq articles sur le sujet qui expliquent très bien et revenez vers nous », la personne va dire « je ne faisais pas du mansplaining, j’expliquais juste. »
Je pense qu’on a le même ratio. Je trouve que c’est dur, ça nous fait bouger de notre position initiale où on a dit « on va discuter avec les gens pour leur expliquer pourquoi ce qu’ils font c’est problématique », on s’est rendu compte que c’est trop d’énergie.
Si vous êtes des utilisateurs de réseaux sociaux sachez que quand vous dites « désolé, je ne me rendais pas compte, merci de me l’avoir dit », c’est chamallow dans notre cœur, on dit « merci, ça nous fait croire dans l’humanité, c’est génial, merci beaucoup. »
OK, David pour finir.

Public : C’est de la curiosité pure et dure : est-ce qu’il y a des personnes qui sont des sortes de rapporteurs que vous voyez presque tous les deux ou trois jours revenir et que ça fait quand même un peu sourire ? Des personnes qui sont soit très sensibles, qui vont utiliser les fonctions pour beaucoup rapporter, ça peut être légitime. Est-ce qu’il vous arrive d’avoir des sortes de clients qui reviennent comme ça et, quand vous voyez le nom, faire « ah », quelqu’un de familier ? Est-ce que c’est anonymisé pour les modérateurs ?

Maïtané : C’est anonymisé s’ils ne sont pas inscrits chez nous. Si jamais c’est quelqu’un qui est inscrit chez nous, on connaît son nom.
Des gens familiers, ça ne nous est pas trop arrivé. Par exemple, parfois une copine signale, quelqu’un en qui j’ai confiance. Du coup, quand je vois que c’est cette personne-là qui signale je me dis à priori que ça vaut le coup de regarder, que c’est un sujet qui est suffisamment important.
En vrai, en fait on ne fait pas tant d’actions de modération. Je trouve que le niveau de violence de Mastodon est assez bas par rapport à ce que j’imagine sur les réseaux sociaux capitalistes. On n’a pas trop de modération sur Framapiaf. Parfois, quand les gens ont un niveau trop élevé, on leur dit, ça nous est arrivé souvent avec le porno. Notre position sur le porno c’est que c’est accepté si c’est masqué. Je ne suis pas sûre que sur notre instance beaucoup de monde fasse du porno, mais pour les comptes à distance qu’on voit. Des gens nous reportent le porno, ils disent « tel compte, tel compte. » On leur a dit « merci beaucoup de votre signalement, sachez que nous acceptons la pornographie si c’est masqué. Si jamais vous voyez des comptes qui ne sont pas masqués, n’hésitez pas à nous les signaler. » Et les gens nous disent « OK, je suis désolé, je ne savais pas ». C’est tout.
On va libérer les gens de la technique. Merci beaucoup.

[Applaudissements]