Émission Libre à vous ! diffusée mardi 4 mai 2021 sur radio Cause Commune


Voix off : Libre à vous !, l’émission pour comprendre et agir avec l’April, l’association de promotion et de défense du logiciel libre.

Étienne Gonnu : Bonjour à toutes. Bonjour à tous.
Le difficile exercice de la modération, c’est le sujet principal de l’émission du jour. Avec également au programme Musique électroacoustique et Art libre et une chronique sur PeerTube. Nous allons parler de tout cela dans l’émission du jour.

Soyez les bienvenus pour cette nouvelle édition de Libre à vous !, l’émission qui vous raconte les libertés informatiques, proposée par l’April, l’association de promotion et de défense du logiciel libre.
Je suis Étienne Gonnu, chargé de mission affaires publiques pour l’April.

Le site web de l’April est april.org, vous pouvez y trouver une page consacrée à cette émission avec tous les liens et références utiles et également les moyens de nous contacter. N’hésitez pas à nous faire des retours ou à nous poser toute question.

Nous sommes le mardi 4 mai 2021, nous diffusons en direct, mais vous écoutez peut-être une rediffusion ou un podcast.

À la réalisation de l’émission Adrien. Salut Adrien.

Adrien Bourmault : Salut.

Étienne Gonnu : Nous vous souhaitons une excellente écoute et que la force soit avec vous.

[jingle]

Chronique « Le Libre fait sa comm’ » d’Isabella Vanni sur le thème « Musique électroacoustique et Art libre », avec Adrien Bourmault

Étienne Gonnu : Nous allons commencer par la chronique « Le Libre fait sa comm’ » proposée par ma collègue Isabella Vanni, responsable vie associative pour l’April. Isa je te passe la parole.

Isabella Vanni : Merci. Bonjour. Dans la chronique « Le Libre fait sa comm’ » d’aujourd’hui nous allons parler de musique électroacoustique et art libre. Nous le ferons avec Adrien Bourmault, bénévole à l’April et aussi étudiant en composition instrumentale et électroacoustique. Étienne s’est rendu disponible pour remplacer Adrien à la régie le temps de cette chronique, merci à Étienne.
Bonjour Adrien. Je te propose de commencer par nous expliquer ce qu’est la musique électroacoustique. Personnellement, je ne connaissais pas avant de découvrir ton morceau sur SoundCloud. Je pense important de préciser déjà que dans « musique électroacoustique » l’adjectif « électroacoustique » est écrit tout attaché, car « électro-acoustique » avec un tiret au milieu indique autre chose.

Adrien Bourmault : Oui. Déjà bonjour. Effectivement, la musique électroacoustique est un genre à part entière. Le mot électroacoustique, ici, n’est pas l’adjectif qui veut dire que ça utilise forcément uniquement des techniques électro-acoustiques. Électro-acoustique avec un tiret, c’est, par exemple, ce qu’on peut dire d’une guitare électro-acoustique, c’est-à-dire qu’elle utilise des transducteurs, qu’elle a besoin d’électricité pour fonctionner.
La musique électroacoustique, certes, ça met en jeu des techniques électroniques mais c’est plus que ça. C’est d’abord de la musique concrète.

Isabella Vanni : Que veut dire concrète ? Pourquoi utilises-tu cet adjectif ?

Adrien Bourmault : La musique électroacoustique c’est un genre grand, vaste, qui est né dans les années 40. En France, l’émergence de l’électroacoustique c’est Pierre Schaeffer. C’est, en fait, une façon de concevoir la musique comme le traitement du son, le traitement de la matière sonore, sans réfléchir à ce qui a produit le son, mais en en faisant quelque chose. C’est-à-dire que je peux enregistrer, je ne sais pas, le bruit d’un train, le son d’une vague, le chant des oiseaux et en faire quelque chose d’autre parce que ce n’est pas la chose qui a produit le son qui est importante, c’est ce que j’en fais au final. C’est pour ça qu’on parle de musique concrète.

Isabella Vanni : On peut dire, un petit peu, que les enregistrements que tu fais sont comme tes notes ou tes briques dans la composition ?

Adrien Bourmault : Oui, ça peut être ça. En fait tout son, toute matière sonore est une brique. On n’a plus besoin d’utiliser l’échelle tonale, on n’a plus besoin d’utiliser de gammes, en fait notre gamme c’est le son en lui-même et en général.

Isabella Vanni : Tu dis qu’il n’y a pas besoin d’utiliser de tonalité. Est-ce qu’il y a un rôle pour la mélodie dans cette musique ?

Adrien Bourmault : Justement non. La musique électroacoustique n’a pas besoin de se focaliser sur la mélodie. Ça ne veut pas dire qu’on n’a pas le droit d’en utiliser, mais la mélodie n’est pas l’important, ce qui est important c’est ce que je vais faire de ma matière sonore. Ça peut être simplement une progression, ça peut être une sorte d’organisation de mouvements. En fait, ce qui va m’intéresser, c’est faire quelque chose d’intelligible, qui ait un sens, qui ait une structure, afin de provoquer quelque chose chez l’auditeur puisque c’est de la musique. Ça ne veut pas forcément dire qu’on va faire une mélodie, ça veut juste dire qu’on va faire quelque chose de musical à partir de quelque chose de plus vaste qu’une simple mélodie.

Isabella Vanni : Donc même s’il n’y a pas de mélodie ou de rythme, on peut toujours parler de musique, parce que, comme tu disais, il y a un début, une progression et une fin. Est-ce qu’on peut dire que c’est comme raconter une histoire ?

Adrien Bourmault : Ça peut ressembler à une histoire. D’ailleurs, je pense que dans mes compositions je raconte une histoire.

Isabella Vanni : D’accord. Tu parles d’enregistrements. Quelle est la différence entre les enregistrements que tu utilises dans ta musique électroacoustique et, par exemple, les samples qui sont utilisés dans la musique électronique ?

Adrien Bourmault : Ce n’est pas le cas de tout le monde, mais la tradition, j’allais dire la tradition française dans la musique électroacoustique c’est un petit peu utiliser et enregistrer soi-même pour réaliser quelque chose et ensuite en faire une musique sur support, parce que l’électroacoustique c’est de la musique sur support.
Pour mon œuvre Persiflès je suis allé enregistrer des sons. J’ai aussi utilisé des enregistrements de personnes que je connais, de mon entourage artistique, et j’en ai fait une œuvre. Je ne suis pas allé acheter des samples ou je ne suis pas allé les chercher sur un site.

Isabella Vanni : D’accord. C’est parfait parce que ça me permet de te poser la question que tu as déjà anticipée : comment te relationnes-tu avec la musique électroacoustique ? Tu viens de dire comment tu t’y prends. Tu as l’habitude d’aller chercher par toi-même — c’est un peu la culture do it yourseft, fais-le par toi-même — des sons qui peuvent t’intéresser, en faire des enregistrements. Comment es-tu tombé dans le chaudron de la musique électroacoustique ?

Adrien Bourmault : C’est un peu par hasard. À ce moment-là j’étais étudiant en formation musicale, en DEM [Diplôme d’études musicales] de formation musicale et je devais faire un atelier pour une matière instrumentale ; j’étais en option piano et il fallait que je fasse un atelier. Je suis tombé dans un atelier électroacoustique un peu par hasard, puis, très rapidement, mon professeur qui s’appelle Alain Gonnard – qui nous écoute sûrement d’ailleurs, je le salue chaleureusement – m’a fait découvrir un univers que je ne connaissais pas, qui ouvrait plus de possibilités que simplement la composition instrumentale ou la formation musicale. À partir de ce moment-là je me suis dit qu’il fallait que je fasse de la composition, donc j’ai commencé à faire de la composition électroacoustique.

Isabella Vanni : D’accord. Donc ça a commencé par l’intérêt pour la technique puis c’est devenu une passion et tu as eu envie de composer. Je sais que tu as choisi de publier tes compositions sous licence libre. Je voulais savoir pourquoi ce choix et si c’est cohérent avec ta démarche envers la musique et envers l’informatique en général.

Adrien Bourmault : Oui. C’est simplement parce que pour moi c’était évident ; ce n’est pas forcément évident pour tout le monde, je suis d’accord. Il y a de la technique derrière la musique que je compose, évidemment c’est une œuvre, ce que je fais ce sont des œuvres musicales, mais ça ne veut pas dire qu’elles sont ma propriété unique et personnelle. Tant qu’on m’attribue mon travail ça ne me pose pas de problème, c’est pour ça que j’ai choisi d’utiliser la licence CC By SA, donc Creative Commons Attribution et Partage dans les mêmes conditions, parce que je considère que tant que mon nom est cité, si on utilise mon travail, ça me va, et tant que ça reste libre, ça me va encore mieux.

Isabella Vanni : C’est Share Alike, distribué dans les mêmes conditions.
Tu nous as dit que malheureusement tu as dû abréger ton morceau Persiflès aujourd’hui. Peux-tu nous dire pourquoi ? II était vraiment très long ?

Adrien Bourmault : Oui. Ce qui est propre à la musique électroacoustique c’est que ça va être rarement des petits morceaux. C’est un peu comme quand vous écoutez, je ne sais pas, une grande symphonie. Quand vous écoutez une grande symphonie de Beethoven ou de Mahler vous n’allez pas leur demander de faire un truc de quatre minutes. Ils vont composer quelque chose qui a des grandes progressions, qui va avoir beaucoup de choses à dire. La musique électroacoustique, étant donné le vaste genre que c’est, a beaucoup de choses à dire, énormément de choses à dire ! On peut faire beaucoup de choses. Imaginez que la musique électroacoustique c’est un petit peu comme je prends tous les sons possibles, j’ai tous les sons possibles à ma disposition, je peux faire un peu toutes les variations que je veux. Je peux même faire des thèmes extrêmement longs et fournis. Je peux dire beaucoup de choses et, comme je suis très bavard, j’écris forcément beaucoup.

Isabella Vanni : En fait, ça reflète ta personnalité !
Je vous propose d’écouter la version abrégée de Persiflès d’Adrien Bourmault alias neox, c’est aussi son alias pour ce qui est de la musique, en espérant que ça vous donne envie d’aller écouter la version complète qui est disponible sur SoundCloud. Vous trouvez la référence, bien évidemment, sur le site de l’April sur la page consacrée à l’émission.
Je vous souhaite une très bonne écoute.

Voix off : Cause Commune, 93.1.

Pause musicale : Persiflès par Adrien Bourmault.

Étienne Gonnu : Nous venons d’écouter un extrait de Persiflès par Adrien Bourmault, disponible sous licence libre Creative Commons Partage dans les mêmes conditions, CC By SA.
Merci à toi d’avoir partagé avec nous ta démarche, ta musique et d’avoir repris les manettes de la régie.

Adrien Bourmault : Merci à vous de m’avoir proposé cette invitation.

[Virgule musicale]

La modération chez LinuxFr et Framasoft

Étienne Gonnu : Nous allons poursuivre par notre sujet principal qui porte sur le délicat et difficile exercice de la modération et j’ai le plaisir de recevoir par téléphone, pour en discuter, Benoît Sibaud qui est directeur de publication du site LinuxFr.org et membre de son équipe de modération et Anna membre et modératrice au sein de Framasoft, notamment pour leur instance Mastodon, l’instance Framapiaf.
N’hésitez pas à participer à notre conversation soit au 09 72 51 55 46. Vous retrouverez le numéro sur le site de la radio ou sur le salon web dédié à l’émission, sur le site causecommune.fm, bouton « chat ».
Nous sommes avec Benoît et Anna. Bonjour à vous deux. Est-ce que vous êtes bien avec nous ?

Benoît Sibaud : Oui. Bonjour.

Anna : Bonjour. Oui, c’est bon.

Étienne Gonnu : Parfait. Je vous propose de commencer de manière somme toute très classique pour que nos auditeurs et auditrices sachent d’où vous parlez. Est-ce que vous pourriez vous présenter personnellement ainsi que la structure que vous représentez ? Benoît.

Benoît Sibaud : Le site LinuxFr.org est un site web par et pour les communautés du Libre en général, qui diffuse des contenus pour relayer l’actualité d’autres projets. Donc il y a un site web, derrière il y a une association et je suis le directeur de publication du site, je suis plus particulièrement concerné par les questions de modération et je fais partie de l’équipe du site en général, je travaille aussi bien sur les aspects techniques que sur la production de contenus que sur la modération, divers sujets liés au site.

Étienne Gonnu : Entendu. Du coup, peut-être pour entrer dans quelques détails qui vont être, je pense, déterminants pour bien comprendre la suite de nos échanges, est-ce que tu peux nous en dire un tout petit peu plus notamment sur le type de contenus que vous allez être amenés à modérer ? En gros, c’est un site communautaire, tu me corrigeras, où des personnes – moi je le fais notamment dans le cadre de Libre à vous ! – peuvent proposer des dépêches, les gens vont pouvoir venir les commenter. Quels sont les types de contenus que vous êtes amenés à modérer ?

Benoît Sibaud : Le site fonctionne sur un principe de 100 % de bénévoles. Les contenus sont écrits par nos visiteurs et derrière il y a une équipe de bénévoles qui va aider à la rédaction de ces contenus, aider à comprendre comment fonctionne le site, rajouter des informations, mettre des liens, rajouter des étiquettes, etc., faire de la « mise en page », entre guillemets, et une équipe qui va gérer la modération pour gérer et la publication et après la publication. Les visiteurs vont venir, vont commenter, vont éventuellement enrichir les contenus de manière générale. Tous les contenus viennent des visiteurs et les contenus sont de diverses natures. Le contenu classique, d’origine du site, c’était des actualités sur le logiciel libre, donc un projet, une association vient parler de son actualité, va écrire son contenu et l’envoyer chez nous, sur LinuxFr.org, pour publication.
Il est aussi possible d’écrire un contenu à plusieurs. Par exemple, imaginons des gens qui se regroupent pour décider de parler de quels sont les logiciels qui existent pour faire du graphisme en Libre. Ils vont corédiger ensemble un contenu pour évoquer les différents logiciels qui existent et ils vont le faire dans notre espace de rédaction qui permet de faire une rédaction collaborative. Ce sera, là aussi, publié sous forme de ce qu’on appelle une dépêche, une actualité.
Après il y a des contenus qui sont plus personnels, qui ressemblent plus à une entrée dans un blog, donc quelque chose de plus personnel. Pareil, les visiteurs peuvent parler de leurs projets, ils peuvent aussi évoquer des choses qui sont plus personnelles, par exemple dire « je n’aime pas ce projet-là » ou « j’aime beaucoup ce projet-là pour des raisons qui me sont personnelles ». Ils vont parler aussi, potentiellement, de sujets complètement annexes. On a souvent des sujets en dehors du Libre qui sont abordés dans certaines parties du site. Ce sont des catégories de contenus.
On a aussi une partie qui concerne des liens, juste pour partager un lien, on partage simplement un lien.
Il y a aussi des choses pour avoir des questions ou des réponses dans les forums et faire des sondages pour poser une question si on a des réponses et sonder un peu la communauté du site.
Suivant les situations, on a des contenus qui sont publiés sans modération a priori ou publiés avec une modération a priori. Dans tous les cas il y a une modération a posteriori aussi bien sur les contenus eux-mêmes que sur certains aspects indirects comme les images qui peuvent être embarquées dans les contenus ou les étiquettes qui peuvent être posées sur les contenus par exemple.

Étienne Gonnu : Entendu. On voit effectivement une grande variété de contenus différents. C’est un site qui est très riche, si vous ne connaissez pas LinuxFr.org, on y trouve beaucoup d’informations, on sent, peut-être qu’on y reviendra d’ailleurs, qu’il y a derrière une vraie communauté. On voit déjà, effectivement, la grande variété de contenus modérés. Et je pense, ça aussi on y reviendra, que le fonctionnement 100 % bénévole n’est quand même pas anodin, j’imagine, notamment quand on parle de modération. Merci beaucoup Benoît.
Anna, tu es membre de Framasoft, tu es modératrice au sein de cette association, notamment, je le disais, pour l’instance Framapiaf, l’instance Mastodon. Tu nous diras si tu modères aussi, si tu es responsable de modération sur autre chose. Je veux bien que tu te présentes, que tu nous rappelles en quelques mots ce qu’est l’association Framasoft et quel est ton rôle pour la modération au sein de cette association.

Anna : Je suis membre bénévole de l’association Framasoft qui est, on dit, une association d’éducation populaire aux enjeux du numérique et des communs culturels. Une fois qu’on a dit ça c’est un peu vaste. Ce qu’on fait c’est notamment qu’on propose beaucoup de services libres pour montrer que c’est possible. Parmi tous ces services il y a des choses qui permettent de faire du travail collaboratif et il y a des choses qui permettaient, par exemple, de partager des images, là on peut parler de modération. Récemment, aussi, on a commencé à développer des outils, notamment un outil qui s’appelle PeerTube, qui permet d’héberger des vidéos. Si on ne propose pas forcément d’instance ouverte au public, donc la question de la modération se pose moins, on propose un index qui répertorie tous les sites qui proposent des vidéos grâce à PeerTube, là il y a un peu toutes sortes de modération. Et enfin, on propose deux services qui sont des réseaux sociaux, Mastodon et Diaspora, mais je crois qu’on a fermé récemment Diaspora puisqu’on est en train de fermer des services.
Je suis dans le comité de modération, donc je vois passer beaucoup de choses. Je suis principalement sur Framapiaf, notre instance sur le réseau social Mastodon.

Étienne Gonnu : OK. Ça n’a rien à voir avec notre sujet, mais tu as mentionné quelque chose qui me paraît quand même très important et qui peut effrayer, peut-être, des personnes qui écoutent. Effectivement, Framasoft a une démarche de fermeture de services mais qui est une démarche très positive. On mettra le lien en référence pour aller voir là où Framasoft décrit très clairement toute sa démarche et que je vous invite franchement à aller lire. C’est très intéressant aussi sur comment on pense un réseau fédéré, décentralisé. Désolé pour cette parenthèse et merci pour cette présentation.
Pour Framasoft, on voit bien que la modération ne concerne pas que le réseau social Framapiaf en ce qui concerne Mastodon, mais on imagine bien que les enjeux de modération sont assez spécifiques par rapport à Framapiaf. Est-ce que tu saurais, du coup, nous parler un petit peu de ce qu’est une instance Mastodon ? Qu’est-ce que Framapiaf, notamment dans cette logique de décentralisation qui doit avoir, on imagine, des effets sur la question de la modération ?

Anna : Oui, avec plaisir.
Justement, dans la lignée de fermeture de services. En fait, Framasoft a commencé à avoir beaucoup de visibilité, il y a plein de gens qui venaient chez nous et qui trouvaient ça super. On est un peu embêtés, on ne veut pas trop grossir pour que trop de gens ne viennent que chez nous, donc on a commencé à essayer de mettre en place un réseau, CHATONS, qui sont d’autres acteurs, qui sont, en gros, des hébergeurs, qui sont des copains. L’idée c’est que les personnes peuvent venir soit chez nous soit chez d’autres personnes.
Dans cette idée un peu d’avoir un réseau d’acteurs qui ont les mêmes valeurs et la même éthique, donc de décentraliser pour que tout le monde ne soit pas chez la même personne, on peut retrouver le fonctionnement du réseau social Mastodon.
Donc Mastodon est un réseau de sites, qui sont des petits réseaux sociaux, qui sont connectés les uns aux autres, ce qui fait que moi je peux habiter chez Framapiaf, mais vous, vous pouvez habiter dans une autre instance, par exemple il y a des instances bretonnes, il y a des instances Queers, il y a des instances dédiées aux jeux de société ; vous pouvez vous inscrire sur cette autre instance, sur cet autre site, et on peut quand même interagir ensemble, ce qui est assez peu courant dans le fonctionnement des réseaux sociaux, en tout cas les réseaux sociaux centralisés, ceux qu’on connaît, les plus gros. Cela pose plein de problématiques avec tous ces sites parce que, par exemple, quelque chose qui est autorisé chez vous ne le sera pas forcément chez moi et inversement. Ça peut être quelque chose par rapport à la légalité. Il y a des instances japonaises qui autorisent des types de contenus qu’on ne peut pas autoriser avec la législation française, je pourrais y venir, mais juste aussi parce que vous mettez bien les règles que vous voulez chez vous, parce que vous êtes chez vous. Si jamais vous ne voulez pas d’un certain type de contenu parce que ça vous semble inadapté ; qu’est-ce que je pourrais présenter comme exemple ?, on a la possibilité de flouter certains types d’images, par exemple. Donc on peut dire « sur mon instance, chez moi, je voudrais que tous les types d’image soient floutés ». Ça peut être, que sais-je, les photos de nourriture ou les photos de choses qui peuvent faire un peu peur comme les photos d’araignées, en disant, comme ça, les personnes qui sont sur mon instance savent qu’elles ne sont pas confrontées à des photos d’araignées. Moi je peux dire « tu peux appliquer ces règles-là chez toi, si tu veux, mais moi j’autorise les photos d’araignées ». Du coup, ça va poser beaucoup de questions : « comment, alors que chez toi c’est autorisé et chez moi ce n’est pas autorisé, on réussit quand même à faire des liens ou à décider, qu’en fait, il faut qu’on coupe nos liens parce que, de toute façon, ça me dérange que chez toi ces photos soient visibles et pas chez moi ? ». Là je parle des photos d’araignées, vous aurez bien compris qu’il y a plus de subtilité. On pourra y revenir.

Étienne Gonnu : Oui. On voit effectivement l’enjeu et c’est intéressant ; sur un réseau fédéré ça devient vraiment une question de politique et d’échanges, une question très riche du coup. J’en profite également, dans une logique de « déframasoftisation », puisque tu as évoqué un peu cette idée-là, que si vous souhaitez vous créer un compte sur Mastodon, vous pouvez aller sur Framapiaf chez Framasoft ; vous pouvez venir à l’April, on a également une instance sur le Chapril, chapril.org. Vous avez, comme ça, tout un ensemble d’instances où vous pouvez vous inscrire en respectant, à chaque fois effectivement, la charte de modération. Je pense que celles de l’April et de Framasoft sont différentes, mais sans doute assez proches dans l’éthique.
Je voulais vous proposer un exercice qui n’est pas forcément évident : si vous deviez présenter, en quelques mots, ce qu’est la modération, quels en sont les enjeux. En gros vous rencontrez quelqu’un, comme ça, qui vous pose la question : c’est quoi la modération ? En quelques mots, comment lui feriez-vous sentir, justement, que c’est un sujet qui est important, qui est politique, où il y a vraiment des enjeux derrière et que ce n’est pas juste une question technique ? Comment lui présenteriez-vous la chose ? Benoît.

Benoît Sibaud : Sur un site, il y a ce que tu voudrais avoir et ce que tu ne veux vraiment pas avoir.
Ce que tu voudrais avoir c’est, par exemple, j’aimerais bien avoir des contenus plus étoffés, plus jolis, plus complets, etc. Ça, ça reste entièrement à ta main. Tu peux contribuer, aider, etc., tu peux contribuer à ça.
Par contre, il y a ce que tu ne veux vraiment pas avoir et ce que tu ne veux vraiment pas avoir ça va être ce pourquoi tu as besoin de modération. Dans l’idéal, j’aimerais bien ne pas avoir de modération à faire, se passer d’équipe de modération ce serait idéal. En fait, on a besoin de modération pour plusieurs cas très différents. Il y en a un qui est facile à comprendre : on n’a pas envie d’avoir des pubs partout, d’avoir du spam, d’avoir des gens qui viennent placer des liens qui n’ont aucun rapport avec le site, qui viennent communiquer des choses qui ne sont même pas dans la langue des utilisateurs du site. Là, c’est vraiment de la pure pollution qu’on cherche à enlever. On aimerait bien ne pas en avoir, mais il y en a donc il faut des gens pour l’enlever.
Après, il y a une autre chose qu’on ne veut pas : on va vouloir rester dans le cadre de la loi. Pour LinuxFr.org on est contraints, on est encadrés par les lois française et européenne. Ce qui est illégal suivant la loi, eh bien ce n’est pas censé rester sur le site, donc la modération va aussi intervenir, par exemple, pour enlever ce qui est manifestement illégal.
Après, il y a des choses qui relèvent de ce qu’on ne veut pas, mais qui sont un choix du site ou de l’équipe, comme on l’évoquait précédemment pour Mastodon. Ce sont les règles d’une instance de dire « il y a certaines choses qu’on ne veut pas chez nous parce que ça nuit à l’ambiance du site ». Par exemple, on va dire qu’on aimerait bien que les gens échangent poliment entre eux, qu’ils respectent les règles de politesse, qu’ils ne s’injurient pas tout le temps, parce que même si ça pourrait rester dans le cadre légal, c’est quand même problématique si tous les gens s’injurient en permanence. Ou on voudrait éviter que des gens flirtent trop avec les limites de la légalité. Les gens ne vont pas dire qu’ils n’aiment pas telle catégorie de la population, mais ils vont le sous-entendre. Ce n’est probablement pas illégal, mais, en fait, peut-être que la politique du site va dire « non, nous n’avons pas envie d’avoir des gens qui font volontairement des sous-entendus ou qui vont jouer avec les limites de la légalité ». Il y a ce type de cas-là qui relève plus d’un choix de l’instance, au final, de quelle ambiance, quels types de comportements j’accepte ou pas sur le site que je gère.
Après, il y a d’autres cas qui sont un peu différents, ce sont les cas un petit peu déconcertants. Des gens dont on ne comprend pas trop ce qu’ils sont en train de dire, on ne comprend pas pourquoi. C’est un cas un peu atypique, c’est comme quand vous croisez une personne dans la rue qui est hallucinée, elle vous dit quelque chose, vous ne comprenez pas du tout et il va bien falloir en faire quelque chose, donc la modération peut dire : est-ce que j’interviens dans ce cas-là ? Est-ce que je n’interviens pas ? Est-ce que je dois protéger cette personne parce que peut-être qu’elle va se faire, entre guillemets, « lyncher » par les autres, qui vont se moquer d’elle, etc. La modération peut aussi se poser des questions : est-ce que ce que je protège « les faibles », entre guillemets, est-ce que je dois protéger les gens les plus vulnérables ? Il peut y avoir ce genre de cas dans la modération.

Étienne Gonnu : Entendu. Merci. C’est très clair. Anna, comment envisages-tu cette question ?

Anna : Benoît l’a très bien expliqué. Peut-être que quand je raconterai, je dirais que je suis modératrice sur un réseau social, ça veut dire qu’il y a des fois des gens qui voient du contenu qu’ils estiment problématique, qu’ils me le signalent et moi, avec le reste de l’équipe de modération, je décide de ce qu’il faut faire de ce contenu : est-ce qu’on le garde, est-ce qu’on ne le garde pas et, si on ne les garde pas, est-ce qu’on explique à la personne, ou pas, pourquoi on ne le garde pas ? Tout ça, du coup, ça nécessite de se mettre d’accord en amont sur des règles et de pouvoir rediscuter ces règles tout le temps, parce que, évidemment, on pose des bases. Ensuite, à chaque contenu un peu créatif on va dire, on peut être perplexe et se demander si c’est c’est quelque chose qu’on garde, qu’on ne garde pas, si on rentre en communication avec la personne en lui disant « on garde ce contenu mais merci de ne pas réitérer » ou des choses comme ça.

Étienne Gonnu : Dans ce que j’entends de vous deux, c’est qu’on voit aussi la part d’échange avec les personnes qui postent, qui vivent un petit peu, que ce soit sur LinuxFr ou sur les services Framasoft, et l’importance que ça peut avoir.
Ce que je remarque aussi c’est que la modération ce n’est pas juste appliquer la loi et agir, en fait, par rapport à ce que vous impose la loi sur des contenus qui seraient illicites et ainsi de suite.
Peut-être, sans forcément y passer beaucoup de temps, mais je pense que c’est un peu central à la question, penser au régime des responsabilités. Vous êtes des intermédiaires techniques, je pense que vous rentreriez dans cette catégorie, tant LinuxFr que Framasoft à travers les services. On va peut-être rappeler très rapidement qu’en gros, en termes d’intermédiaires techniques, le régime de responsabilité va distinguer les hébergeurs qui ont un régime de responsabilité allégé parce qu’ils n’ont pas à connaître ce que postent, publient leurs utilisateurs et utilisatrices et les éditeurs qui, eux, ont une responsabilité directe sur le contenu puisqu’ils savent, de fait, ce qu’ils publient.
En gros, la responsabilité de l’hébergeur pourrait être engagée s’il n’a pas « promptement retiré un contenu manifestement illicite », comme l’a mentionné Benoît, qui lui aurait été signalé ; l’éditeur, lui, sera directement responsable.
On imagine que pour Framasoft qu’il n’y a pas trop de questions, vous êtes des hébergeurs, vous devez agir uniquement en cas de signalement d’un contenu illicite. J’ai l’impression, tu me corrigeras Benoît, que pour LinuxFr il y a peut-être un peu des deux, c’est peut-être moins clair.

Benoît Sibaud : Je pense qu’il y a un peu des deux. Le statut d’hébergeur c’est « je fournis des moyens à d’autres gens de s’exprimer, mais je n’ai pas besoin de savoir ce qu’ils font ». En fait, on ne présuppose pas que je sais ce qu’ils font. Ça pourrait être le cas pour les contenus qui sont non modérés a priori chez nous. Rien ne dit qu’on est courant de ce qui est publié chez nous dans ce cas-là.
À contrario, quand on voit passer, quand il y a un contenu qui est modéré a priori et qu’en plus il est édité par l’équipe de modération, l’équipe de modération est au courant de ce qu’il y avait dans le contenu, donc, en fait, elle s’engage en le publiant. Du coup, on a plus un statut d’éditeur dans ce cadre-là, donc on a plus de responsabilités d’un point de vue juridique à ce titre. On arrive à faire « les deux », entre guillemets, puisqu’on peut avoir un contenu qui est publié sous forme d’entrée de blog, de journal, par un utilisateur, donc là on serait plutôt simplement hébergeur. Mais, en fait, on prend ce contenu, on le convertit en dépêche, on va potentiellement l’enrichir, ensuite on le publie. Du coup là on est devenu éditeur.
Le fait aussi de permettre des commentaires sur tous les contenus, ça peut indirectement créer aussi une responsabilité. Je pense que dans le principe de la loi de l’hébergeur, l’hébergeur n’est pas responsable du fait que des gens aillent commenté sur chaque site de chaque personne. Sauf que là, nous, tous les contenus sont commentables par tous nos utilisateurs, du coup il y a de toute façon une responsabilité qui vient du fait que tous les contenus sont commentables, tous les contenus sont éditables. Il y a aussi une responsabilité qui intervient sur le fait de pouvoir étiqueter ou de pouvoir commenter un compte.
Je pense effectivement que, suivant les cas, la responsabilité est différente pour le cas de LinuxFr.

Étienne Gonnu : Entendu. Du coup, le choix de manière de modérer, si j’entends bien, plutôt a posteriori, renforce peut-être votre responsabilité, mais participe aussi au fonctionnement et à la communauté que vous créez dans LinuxFr.

Benoît Sibaud : C’est l’inverse si je comprends bien. Si tu modères a posteriori, en fait ça ne veut pas dire que tu réduis ta responsabilité parce que tu attends qu’on te signale le problème pour intervenir ou tu t’en saisis toi-même. Disons que si tu ne le fais pas, on ne peut pas te le reprocher parce qu’il n’y a que quand on t’a notifié que tu es censé être au courant qu’il y a un problème.
Si je laisse passer un commentaire problématique, je peux dire que je n’étais pas au courant, que ça soit vrai ou pas. En tout cas, légalement parlant, on ne peut pas savoir si j’étais au courant ou pas. Alors que quand l’équipe de modération a mis son tampon, qu’il y a quatre modérateurs qui ont dit « oui, je suis pour la publication », c’est facile de prouver que l’équipe était au courant, donc là ta responsabilité est plus engagée en fait.

Étienne Gonnu : Tout à fait. Je me suis mal exprimé en fait. C’est très clair comme réponse.
Du coup, comment organisez-vous matériellement la modération ? Et aussi comment établissez-vous les règles sur lesquelles vous basez votre modération ? Il me semble que dans les deux cas elles sont publiques. En tout cas sur LinuxFr j’en suis persuadé. Comment vous les décidez ? Est-ce que vous faites vivre ces règles ? Notamment sont-elles publiques ? Benoît si tu veux rester dans ta lancée.

Benoît Sibaud : C’est important que les règles soient publiques. Ça reste des choses qui évoluent. Ça n’évolue pas forcément aussi vite qu’on le voudrait ou qu’on arrive à le formaliser. Ce n’est pas non plus entièrement formalisable parce qu’il y a quand même des choses qui relèvent de l’humain et de l’interprétation. Pour donner un exemple, quand quelqu’un poste un commentaire, le commentaire peut très bien être à double sens, volontairement ou pas de la part de celui qui l’écrit. Par exemple, on pourra avoir une lecture qui est très agressive du commentaire et une autre qui est une lecture humoristique du commentaire. La modération ne peut pas forcément savoir quel était le sens voulu, si c’était voulu ou pas par l’auteur, quelle est l’interprétation et qu’est-ce qu’elle doit en faire. Elle peut réagir quand même, mais ça va changer l’interprétation qui est faite et comment elle va réagir.
On n’est pas des « machines », entre guillemets, ce n’est pas un algorithme, dans la modération il y a une partie humaine d’évaluation. Du coup, ça va dépendre aussi, je ne sais pas, du passif de la personne. Est-ce que c’est toujours le même pénible qui publie des contenus problématiques ou est-ce que c’est quelqu’un contribue beaucoup d’habitude et peut-être que là il s’est mal exprimé ? Ou est-ce que c’est quelqu’un qui actuellement, parce que c’est la période de pandémie, a personnellement plus de problèmes et qu’il était plus énervé à ce moment-là ? Bref ! Il y a tout un côté humain qui intervient et il est vrai que les règles vont cadrer les choses, mais elles ne vont jamais définir avec exactitude et précision là où on met des virgules, quels sont les caractères autorisés, etc. ; ça reste de l’interprétation de l’équipe de modération. Pour encadrer ça, on a des règles et on échange entre nous, soit via des listes de discussion, soit via le site.
Il y a les cas triviaux, ce que je disais tout à l’heure : éliminer la pollution c’est trivial. Si je vois un texte qui est écrit en coréen sur le site, je sais que c’est de la pollution, je vais l’enlever immédiatement, je n’ai pas besoin de l’avis des autres. Quand il faut commencer à manier les ciseaux et à dire on va toucher à ce contenu, l’enlever ou dé-publier des choses, etc., c’est plus délicat et on essaye d’avoir l’avis de plusieurs personnes et de prendre un peu de temps parce qu’il n’y a pas forcément besoin d’avoir des réactions extrêmement rapides. Ça dépend des situations. Si on veut éviter que ça dégénère d’un point de vue strictement de l’ambiance du site ça peut être important de réagir vite. Si on veut modifier des choses, éditer un contenu, découper une phrase par exemple, c’est beaucoup plus délicat et c’est mieux que l’équipe en discute, qu’on se mette d’accord sur pourquoi on le fait, quelles sont les raisons et que tout le monde soit d’accord, en tout cas qu’on arrive à un consensus.

Étienne Gonnu : Entendu. OK. Anna, comment c’est organisé côté Framasoft ?

Anna : Côté Framasoft on a ce qu’on appelle un comité de modération, c’est-à-dire qu’il y a des membres qui ont dit qu’ils avaient envie de participer à la modération des contenus. Après, on a tous un peu nos spécialités. On a un canal Framateam, qui s’appelle modération, sur lequel quand il y a des choses, on partage des liens en disant « voilà, il se passe telle chose, il y a tel type de contenu, est-ce que vous pouvez me donner votre avis ? »
Par exemple, sur Framapiaf, les personnes peuvent nous faire des signalements. Ça veut dire que quand un signalement est fait on reçoit un mail sur le mail de la modération. Ensuite, effectivement exactement comme dit Benoît, soit c’est trivial, c’est du spam, c’est un compte publicitaire ou, par exemple, quelque chose qu’on n’accepte pas sur Framapiaf c’est la pornographie qui ne soit pas floutée. Du coup, on va pouvoir très rapidement gérer les choses comme ça. Ensuite, il y a tous les cas qui prennent immensément plus de temps, ce sont ceux pour lesquels on n’est pas sûrs, il y a sujet à interprétation, et même s’il n’y a pas sujet à interprétation, il faut comprendre le contexte.
Ce sont des pouets qui nous sont signalés, ça veut dire que ce sont des contenus qui sont assez courts, on appelle ça du microblogging, c’est limité à 500 caractères, parfois c’est une vidéo, parfois c’est une image. En général, ce pouet n’est jamais suffisant en lui-même. Il va toujours falloir aller chercher le contexte autour parce que, exactement comme a dit Benoît, un commentaire ou un pouet ça peut être pris à double sens. Peut-être que la personne fait une sorte de renversement de situation ou peut-être qu’elle est vraiment agressive, il y a plein de choses comme ça, donc on est, à chaque fois, obligé d’aller parcourir tout le contexte. Une fois qu’on a parcouru tout le contexte, on peut proposer un type d’action. Si jamais on n’est pas tout à fait sûr de nous, on en parle avec les copains, en décrivant sur le canal de modération, en écrivant « voilà, il y a telle situation, voilà ce que j’ai compris du contexte, voilà l’action que je propose. Qu’est-ce que vous en pensez ? Est-ce qu’on fait ça, est-ce qu’on ne fait pas ça ? » Ensuite il y a un peu un temps, puisqu’on est beaucoup de bénévoles, parce que les pauvres salariés de Framasoft ont déjà suffisamment de travail même s’ils aident quand même pour la modération, du coup il y a un temps, comme ça, où plusieurs personnes donnent leur avis. Si jamais on arrive à un consensus, assez rapidement on met l’action en place. Si jamais c’est un peu plus long, en général on élabore une réponse à plusieurs, des choses comme ça, pour aller contacter l’utilisateur, même si ça reste assez rare. C’est-à-dire que ça demande tellement d’énergie d’aller expliquer quelque chose à quelqu’un que c’est quelque chose qu’on essaye un peu de repousser. Vous voyez que tout ce contexte-là c’est pour commencer à écrire la réponse, si la personne nous répond, elle comprend mal ce qu’on a voulu lui dire, on va devoir lui répondre à nouveau et là ça prend beaucoup plus de temps et d’énergie. Comme on est bénévoles et que notre énergie est limitée, on essaye de pondérer les choses en essayant de privilégier les actions qui sont rapides. Parfois les actions qui sont rapides, ce sont des actions qui ont beaucoup de conséquences comme la suppression d’un compte. Donc quand on estime que ce n’est pas légitime et qu’il vaut mieux rentrer en communication avec la personne, on est toujours avec notre énergie limitée dans la balance.

Étienne Gonnu : Oui, prendre soin de soi, prendre soin des autres, particulièrement en cette période, c’est très important.
On prendra le temps de discuter après la pause de cet aspect, du poids qu’on imagine potentiellement lourd pour les humains qui sont derrière, parce que ce sont des humains qui modèrent.
Avant, j’aimerais peut-être juste pour qu’on ait une idée en termes d’ordre de grandeur, qu’on puisse se rendre compte. Si je comprends bien on pourrait avoir, d’un côté, ce qui va relever de l’évident, le facile à modérer, vous parlez de manifestement illégal, le spam, etc. Et puis tout ce qui l’est moins et qui nécessite davantage de jugement, notamment de jugement collectif qu’on peut peut-être traduire par la zone grise. En termes de volume relatif et global des deux, si on distingue la part évidente et la part plus délicate, ça représente quoi côté Framasoft par exemple ?, si c’est quantifiable d’ailleurs.

Anna : C’est vraiment difficile à quantifier parce que c’est vraiment aléatoire dans le temps. C’est-à-dire qu’il y a une semaine où on peut passer deux/trois heures parce que tout s’est envenimé et, du coup, il y a eu beaucoup de contenus. Et puis là, par exemple, ça fait plusieurs semaines qu’il n’y a pas eu de nouveaux signalements. Donc c’est assez aléatoire, ce qui ne permet pas, du coup, de forcément d’anticiper facilement. Ce que tu as dit tout à l’heure était un peu faux, on a fermé les inscriptions à Framapiaf assez récemment, donc allez plutôt sur l’instance de l’April pour vous inscrire. Du coup, comme on n’a pas de nouveaux entrants et qu’on a montré la porte de sortie à ceux qui étaient pénibles, peut-être que ça permet de minimiser le taux de modération, en tout cas des gens qui sont chez nous, parce que même si on modère toujours les contenus qui sont ailleurs, ça demande moins d’énergie que de gérer les personnes qui sont inscrites chez nous.
Donc des fois c’est deux/trois heures dans une semaine, des fois, pendant plusieurs semaines, il n’y a pas trop de travail et puis ça revient. C’est un peu dans ces ordres de grandeur-là.

Étienne Gonnu : Entendu. Venez donc sur le Chapril ou sur d’autres instances. C’est vrai qu’on n’a pas ce problème parce qu’on a beaucoup moins de personnes connectées sur le Chapril. C’est aussi ça l’intérêt d’un réseau fédéré c’est de se partager la charge. On voit que c’est très important. Si vous tenez à Framasoft, venez aussi chez les instances amies.
Coté LinuxFr, est-ce que tu saurais un peu nous donner un ordre de grandeur, Benoît ?

Benoît Sibaud : Dans les nouveaux comptes créés, on en ferme plus d’un tiers, presque entre un tiers et deux tiers des comptes sont fermés à la création parce que ce sont des comptes pour du spam uniquement. Donc une grosse partie du travail c’est virer le spam, la pollution et tous les gens qui viennent faire du placement de liens. C’est aussi parce que ce sont les plus sournois. Il y a des gens qui vont placer un lien caché dans un point ou une virgule par exemple, qui vont dupliquer des commentaires pour utiliser le texte de quelqu’un d’autre pour placer un lien publicitaire. C’est une lutte permanente pour s’outiller, pour détecter, pour lutter contre ça ; c’est la plus grosse partie du « travail », entre guillemets.
À côté de ça, ce qui est manifestement illégal ne représente quasiment rien, c’est très rare. Après, il y a des cas un peu sporadiques, des discussions qui partent qui vont être très limites, ça va être très localisé à un endroit donné, c’est-à-dire que tout va être regroupé au même endroit et ça va être ponctuel, mais n’empêche qu’il va falloir intervenir dans cette zone-là, la détecter et aller intervenir. Ça rejoint un peu le point qu’on évoquait tout à l’heure sur l’énergie : « c’est reparti, il va encore falloir endosser sa casquette de modérateur et se lancer dans la bataille pour aller rappeler des règles, expliquer aux gens que là c’est en train de partir en vrille, intervenir dedans et prendre des décisions » ; tout ce poids-là qui va arriver. Ce n’est pas la plus grosse partie, mais c’est la plus lourde à gérer pour les humains de la modération. Virer du spam c’est facile, ça ne coûte pas grand-chose. C’est pénible, il y en aura tous les matins quand je vais me connecter, mais ce n’est pas le même poids psychologique pour l’équipe de modération.

Étienne Gonnu : Oui, on imagine bien. On va y revenir justement. Je vous propose avant ça de se reposer un peu, de souffler. Nous allons faire une pause musicale.

[Virgule musicale]

Étienne Gonnu : Nous allons écouter une interprétation de L’été des Quatre saisons de Vivaldi par Daniel Bautista. On se retrouve dans trois minutes. Une belle journée à l’écoute de Cause Commune, la voix des possibles.

Pause musicale : Interprétation de L’été des Quatre saisons de Vivaldi par Daniel Bautista.

Voix off : Cause Commune 93.1.

Étienne Gonnu : Nous venons d’écouter L’été des Quatre saisons de Vivaldi. Une interprétation de Daniel Bautista, disponible sous licence libre Creative Commons Partage dans les mêmes conditions, CC By SA.

[Virgule musicale]

Étienne Gonnu : Nous allons poursuivre notre discussion.
Je suis Étienne Gonnu de l’April. Nous échangions avec Benoît Sibaud, directeur de publication du site LinuxFr.org et membre de son équipe de modération et Anna, membre et modératrice au sein de Framasoft, sur le difficile exercice de la modération. Nous parlions justement, avant la pause, de l’impact psychologique qu’on imagine potentiellement important sur les personnes qui gèrent cette modération.
Benoît tu en parlais et justement Fred, qui échange avec nous sur le salon #libreavous sur le « chat » de la radio Cause Commune, posait la question au sujet de la composition de l’équipe, que ce soit côté LinuxFr ou Framasoft, est-ce qu’elle est stable, est-ce qu’elle bouge beaucoup ? Et comment gérez-vous la fatigue qu’on imagine possible, la gestion des contenus durs, l’aspect psychologique ? Benoît Sibaud pour LinuxFr.

Benoît Sibaud : L’équipe ne bouge pas assez vite dans le sens où il y a toujours la problématique classique des bénévoles, réussir à renouveler ses bénévoles. Petit à petit on voit que des bénévoles deviennent inactifs donc réussir à les renouveler ; c’est toujours un problème en soi dans l’absolu. Après, on peut perdre des modérateurs parce que, effectivement, il y a plus de « pression psychologique », entre guillemets, pour eux.
On pourrait aussi dire que notre équipe manque de diversité, ce qui est vrai de ce point de vue-là, clairement.
Ce n’est jamais facile de renouveler, surtout, pour des questions de diversité par exemple, comment on renouvelle une équipe, comment on s’assure d’avoir une équipe qui va représenter correctement soit le lectorat du site, soit le lectorat qu’on voudrait avoir sur le site, ce n’est pas forcément la même chose ; plus le fait, effectivement, qu’il faut gérer les doutes et la lassitude de l’équipe. Dans une équipe de modération il faut prendre des décisions, quelles que soient les décisions qui seront prises, il y a des gens qui trouveront qu’on va trop loin, pas assez loin, qui ne sont pas d’accord, qu’on devrait faire autrement. Que ces gens aient une expérience ou pas de la modération, qu’ils soient capables de se mettre à la place d’une équipe de modération ou pas, dans tous les cas c’est toujours l’équipe de modération qui va devoir prendre les décisions et les assumer derrière, être ceux qui assument le fait que la décision a été prise et devoir gérer ça, devoir gérer le fait que, peut-être, on met trop de règles ou qu’on ne met pas assez de règles. Il y a pas mal de doutes dans une équipe de modération normalement, potentiellement un sentiment d’isolement. Là on peut dire que la période de pandémie actuelle n’aide pas trop, il n’y a pas beaucoup d’événements, on croise moins les gens donc ça n’aide pas trop aussi pour échanger sur les situations. De temps en temps il y a quelques sujets lourds, qui sont plus lourds à gérer pour le moral. Au fur et à mesure des années, ça fait un moment que je fais partie de l’équipe du site, ça a beau être ponctuel, on peut avoir des sujets qui sont très lourds, qui arrive épisodiquement.
Dans les cas classiques il y a gestion par exemple des décès. L’équipe de modération va intervenir parce qu’il faut fermer des comptes, il faut gérer des choses. Il faut s’assurer que quand on fait une nécrologie d’une personne il n’y ait pas des gens qui viennent faire des commentaires pourris en dessous d’une nécrologie, ce qui n’est jamais très agréable.
Il y a des cas qui sont beaucoup plus problématiques. On a eu un cas de revenge porn, on a eu des accusations de pédopornographie, ça c’est compliqué à gérer. De nos jours, la diffamation ce n’est jamais sympathique. Intervenir entre des gens qu’on connaît, qui sont en train de se disputer, c’est pénible aussi. Gérer des mises en demeure ou même gérer des cas de folie. On a eu des visiteurs sur le site, ce n’est pas à moi de faire le diagnostic, mais quand quelqu’un me dit qu’il est capable de faire un business modèle en milliards de milliards de dollars je me dis qu’il est quand même bien d’halluciné. On a eu aussi une personne qui était l’ambassadeur pour les extraterrestres.
Ce genre de cas peut arriver. Des fois c’est marrant, des fois c’est juste pénible et lourd à gérer pour les gens, ça fatigue les gens psychologiquement.

Étienne Gonnu : Oui, on imagine.
Je vais en profiter pour signaler un billet que vous aviez publié sur LinuxFr, que je trouve très intéressant, vous dites quelques mots sur le difficile exercice qu’est la modération, parce que vous avez dû bannir, pour la première fois de votre histoire, un utilisateur. On mettra le lien de ce billet collectif que je vous invite vraiment à lire, ça se lit très vite. Tu voudrais en dire deux mots ? Je pense que tu viens dire à peu près tout ce qui est contenu, mais si tu veux en dire deux mots, je t’en prie.

Benoît Sibaud : C’était le cas d’une personne qui revient et s’acharne à persister sur le site. On a quand même viré une quarantaine de comptes différents au fur et à mesure du temps. Elle a beau sentir qu’elle n’est pas la bienvenue sur le site, avoir l’équipe de modération qui intervient, qui retire des contenus et tout ça, elle se maintient sur le site en recréant des comptes, en revenant en permanence. Il y a une forme d’acharnement, que l’équipe finit par vivre comme un harcèlement, sans parler du fait que les contenus et les commentaires qui étaient postés par cette personne étaient problématiques en eux-mêmes. C’étaient des contenus qui étaient soit d’un côté soit de l’autre de la frontière sur l’antisémitisme, le révisionnisme, donc des choses assez lourdes à gérer. Des fois on en a nettoyé, des fois on en a laissé en hésitant. C’était pénible à gérer et ça ne nous apportait strictement rien à part le poids d’avoir ça à gérer. Donc à un moment on a dit stop. Il y a un moment où ce n’est pas non plus à nous de mettre en place des choses pour empêcher une personne de revenir à l’infini parce qu’on ne sait pas, quand quelqu’un se connecte sur le site, je n’ai pas sa carte d’identité sous les yeux, donc je ne sais pas si c’est toujours la même personne ou pas, je n’ai pas les moyens techniques de le faire. À un moment on a dit on considère que c’est du harcèlement, on dit à la personne de ne pas revenir, on lui a dit plein de fois, si elle continue on confira ça aux autorités. Il y a un moment où ça dépasse les capacités de l’équipe et ce que peut gérer une équipe de modération. Auquel cas on passe la main aux autorités et on dira « là on a un cas de harcèlement, à vous de jouer maintenant ».

Étienne Gonnu : Et puis une équipe de bénévoles ! Il me semble important de le redire. D’ailleurs je pense que ça en dit beaucoup sur la qualité de votre travail que ce ne soit que la première fois, depuis les années de service de LinuxFr, que vous en soyez venus à bannir un utilisateur. Ça en dit vraiment long sur la qualité de votre travail.
Anna, côté Framasoft comment vous gérez ? J’imagine que vous prenez aussi une certaine charge psychologique, une certaine charge mentale. Comment gérez-vous ça ? Est-ce que ça bouge beaucoup aussi au sein de votre équipe de modération ?

Anna : Je pense qu’on peut distinguer deux temps par rapport à la modération dans Framasoft. Il y a eu un temps où c’était beaucoup porté par les salariés comme une tâche parmi d’autres. On a eu beaucoup de retours, sur Mastodon notamment, de personnes qui estimaient que la modération n’était pas suffisante. Ça a pris pas mal d’ampleur, ça a commencé à être vraiment très lourd pour les salariés, parce que, quand on est modérateur ce n’est pas un travail qui est très gratifiant vu de l’extérieur et on est toujours critiqué. Donc la charge était assez lourde pour les membres salariés qui ne faisaient pas que ça d’ailleurs. À un moment il y a des personnes bénévoles, notamment moi, qui ont pris le sujet à bras-le-corps et qui ont dit « OK, on va faire une charte de modération et on va s’appuyer dessus pour pouvoir modérer les contenus des personnes », puisqu’on n’avait pas vraiment de charte de modération. Du coup, tant qu’on n’avait pas posé de règles, les choix reposaient davantage sur les individus, c’est-à-dire sur les membres salariés qui devaient faire un choix et c’était vraiment compliqué.
On a posé des règles qu’on a choisies, sujettes à débat. Par exemple, on a dit « si jamais ce sont des blagues qu’on considère oppressives, même si vous dites que ce sont des blagues, on considérera que ce n’est pas drôle, donc on part du principe qu’on pourra modérer ». Autre chose : si jamais vous nous prenez trop d’énergie, on se garde le droit de vous faire aller voir par ailleurs, des choses comme ça qui, du coup, n’ont pas de fondement facilement tangible. L’énergie est quelque chose qui fluctue, mais ça nous permet plus facilement, du coup, quand on a quelqu’un qui est sur le fil à plusieurs reprises ou qui nous prend beaucoup d’énergie pour trancher d’un côté ou de l’autre, eh bien de finir par trancher du côté qui nous prendra moins d’énergie dans le futur en disant « là c’est bon, il est trop pénible, on va l’inviter à aller voir ailleurs parce que si jamais on ne le fait maintenant, en général, plus tard, la personne sera signalée à nouveau pour d’autres contenus, ça va nous reprendre de l’énergie ».
C’est le fonctionnement qu’on a maintenant en s’appuyant sur la charte.
L’équipe de modération, du coup, a été enrichie de membres bénévoles et elle est plus variée. Pour gérer la charge un peu difficile, ce n’est pas toujours facile. On a mis en place des choses récemment parce qu’on a une personne qui fait une thèse sur le Fédiverse, cette espèce de constellation de réseaux sociaux dont Mastodon fait partie, notamment sur la modération. Du coup, pour pouvoir lui montrer le travail de modération, on a commencé à faire des visios de modération. En gros, dans ce cas-là, je donne un rendez-vous à telle heure, on fera les signalements sur Framapiaf, il y a d’autres personnes parfois qui se connectent et c’est beaucoup plus sympa parce que ça dédramatise en fait. On lit les choses. Des fois c’est affligeant, des fois c’est un peu rigolo, mais devant son écran ça crée beaucoup de charge, sauf que là il y a les copains à côté soit pour rigoler soit pour prendre une décision en commun pour que ce soit plus rapide. Donc ça c’est vraiment chouette.
Cela dit, je ne crois pas qu’on l’ait dit, là j’interviens sous pseudo, parce qu’il y a une période qui a été vraiment difficile, un moment vraiment compliqué, c’est le moment où on a sorti la charte de modération. Pour vous remettre le contexte, il y avait beaucoup de critiques sur le fait que notre instance Mastodon n’était pas assez modérée d’après des utilisateurs d’autres instances. Au moment où on sort la charte de modération pour dire « voilà comment on va essayer d’agir, comment on va prendre les choses », je pense qu’il y a eu des problèmes de communication par rapport à cette charte qui ont provoqué des interprétations très diverses. On comptait mettre en avant des communautés pour les protéger. On n’est pas à égalité sur les réseaux sociaux selon les catégories de population dans lesquelles on est, c’est-à-dire que si on est une femme on n’est pas à égalité avec les hommes ; si on est des personnes queers ou des personnes handicapées, on n’est pas à égalité dans le sens où on va se prendre plus facilement des remarques, des explications, des choses un peu lourdes. Cette charte avait notamment pour vocation de remettre les choses à plat en disant « si jamais il y a des comportements problématiques envers des groupes qui subissent des oppressions, on sera vigilant à ça et même, on facilitera la discussion ou l’explication avec des personnes qui ne comprennent pas cette problématique ; le but c’est d’être attentif à ce que tout le monde se sente bien, notamment les minorités oppressées ». Ça a été compris complètement à l’inverse, du coup on s’est pris pendant plusieurs jours ce que, je pense, on peut appeler du harcèlement. C’était contre l’équipe de modération donc ça ne visait pas uniquement une personne, mais il y a eu un hashtag qu’on a appelé Dramasoft et beaucoup de monde a dit que ce qui se passait était scandaleux, qu’on allait accueillir des nazis sur l’instance et que ça ne nous poserait pas de problème si jamais il y avait des gens qui avaient des propos atroces envers des communautés. Ça a été vraiment le moment le plus compliqué. Des personnes se sont retirées de la modération à partir de là, des personnes concernées, au sein de l’association, ont pu être très attaquées par rapport à ça. Ce qui nous a fait tenir c’est qu’au sein de l’association Framasoft il y a quand même une très bonne entente et il y a du soin. Moi, en tout cas ce qui me fait tenir, c’est que je sais qu’au moins j’aurais du soutien à l’intérieur quoi qu’il arrive, que je fasse une bêtise ou que je n’ai plus d’énergie, il y a toujours ce groupe de soutien qui permet de tenir quoi qu’il arrive, même parfois de voir du positif là où il y en a moins.

Étienne Gonnu : Merci pour ce témoignage. Je pense, pour les personnes qui écoutent, d’avoir à l’esprit que la modération est certes quelque chose d’important, ça peut avoir un impact sur ce qu’on va considérer notre liberté d’expression, mais ce sont des humains derrière, c’est un exercice qui est compliqué à gérer. Je pense qu’il ne faut pas oublier d’avoir un peu de bienveillance aussi envers les personnes qui sont derrière et qui sont peut-être à l’écoute si jamais vous avez à leur faire part de réflexions constructives. On vous envoie, que ce soit à LinuxFr et à Framasoft, énormément de bisous et d’amour parce que vous le méritez tous les deux.
Je pense que vous avez déjà pas mal passé là-dessus, mais je pense que la question est intéressante, c’est vraiment clairement le cas côté LinuxFr et ça se produit aussi côté Framasoft, cette idée sur LinuxFr notamment, que vous cherchez à créer, enfin vous créez une communauté LinuxFr. Dans une communauté on devine qu’il peut y avoir des désaccords, comment on gère – je n’aime pas forcément le terme – l’altérité dans ces cas-là ? Entre ce qui va être l’échange acceptable quoique tendu et puis la ligne rouge qui serait dépassée – je ne sais pas si la ligne rouge est définie, sans doute que non. Comment on décide, comment on intervient quand on est modérateur ou modératrice pour gérer la possible altérité lorsqu’elle dépasse un certain seuil ? Benoît.

Benoît Sibaud : On a discuté trois heures de modération hier avec l’équipe. Si on faisait un sondage avec un petit questionnaire en disant « dans quel cas pensez-vous qu’il faut intervenir, dans quel autre cas faut-il intervenir ? », qu’on évoque un certain nombre de cas et qu’on demande à chacun de l’équipe de modération, il n’y aurait pas le même résultat suivant chaque personne. En plus, je pense qu’il n’y aurait pas le même résultat si on faisait deux fois le même sondage, à six mois d’écart, pour une même personne. Les choix qu’on fait peuvent dépendre, ils dépendent de ce qu’on a déjà vécu, d’un contexte qui peut changer, de l’évolution de la société, de plein de choses autour. Donc c’est sûr que les lignes bougent. Même pour des choses tout à fait basiques, indirectement la modération, d’une personne en tout cas, va dépendre de son humeur à elle, si elle s’est levée du bon pied ou pas, si elle a eu une journée compliquée ou pas. C’est pour ça que c’est important que les décisions de modération ne soient pas forcément extrêmement rapides ou qu’elles ne soient pas prises seul. Ça limite un peu ce genre de cas.
Il n’y a pas une ligne rouge qui est claire et définie, sinon on pourrait automatiser les choses. Je ne l’ai pas dit, mais on a une partie de modération avec un système de karma qui s’auto-gère, etc., mais il ne faut pas rêver, ce n’est pas la technique qui va résoudre la problématique de la modération, sinon, d’ailleurs, il n’y aurait pas d’émission et le sujet serait classé. Au niveau mondial on aurait dit les algorithmes vont tout régler, c’est fini. On sait que ce n’est pas le cas, qu’il faudra des humains pour gérer ça, donc qu’il faudra faire des interprétations et les interprétations ce sont des interprétations, ça veut dire que ça peut fluctuer, donc il faut essayer de veiller à ce que ça ne parte pas en vrille sachant qu’il y aura toujours des sujets qui pourront être, qui sont des sujets clivants, pour des bonnes et des mauvaises raisons. Il suffit qu’il y en ait qui parle d’une distribution de logiciel libre et que des gens soient fans d’une autre pour qu’ils commencent à discuter des avantages et des inconvénients des deux solutions, soit parce que vraiment ils sont en désaccord, mais aussi parce que, en tout cas pour les Français, mais je pense que c’est assez vrai de manière générale, les gens aiment bien discuter, donc ils vont chercher à défendre leur point de vue juste pour qu’il y ait un débat. Donc il y a des gens qui vont discuter, mais il faut juste que ça reste un débat, c’est-à-dire que les gens s’écoutent un minimum, se parlent correctement, qu’il y ait un échange d’arguments et pas juste des commentaires désobligeants sur les gens en face juste parce qu’ils sont en face. Ça reste fluctuant, forcément.

Étienne Gonnu : En fait, ça rejoint ce que disait Anna avant, on s’inscrit dans des contextes politiques, les lignes bougent comme tu le disais, je pense que c’est très bien résumé.
Tu mentionnais et je crois, Anna, que tu souhaitais évoquer ce point, la question de l’automatisation de la modération, l’idée de confier la modération à des algorithmes. Ce n’est pas juste un délire rhétorique, on voit que c’est malheureusement de plus en plus présent dans certains projets de loi ou de règlements européens. Je pense par exemple à la loi Avia qui prétend supprimer la haine en ligne, une loi parfaitement liberticide qui a été, heureusement, censurée par le Conseil constitutionnel, mais qui appelait, dans ses lignes, à automatiser un peu la modération. D’ailleurs, Anna, est-ce que ça a du sens ? Qu’est-ce que tu en penses ?

Anna : Du coup merci beaucoup pour cette question. Ce que je trouve vraiment très intéressant c’est que, depuis je suis modératrice je vois l’importance, ce que je vous racontais tout à l’heure, du contexte, du fait qu’il y a besoin de faire beaucoup de recherches du contexte. On peut parfois passer une demi-heure, trois quarts d’heure à creuser, à regarder la vidéo, à voir les autres pouets de la personne pour comprendre d’où elle parle, dans quel contexte elle se situe, pour savoir si ce qu’elle vit est quelque chose de malheureux, si c’est quelque chose d’assumé ou des choses comme ça.
Sur les réseaux sociaux plus centralisés, il y a d’un côté le fait qu’ils ont des modérateurs ou des modératrices mais quand on voit les sujets d’investigation : je me souviens d’une émission Envoyé Spécial qui racontait que ces personnes avaient des temps très réduits, pas le droit de parler entre elles, qu’elles devaient suivre des règles qui étaient vraiment très précises pour pouvoir modérer beaucoup de contenus. Là, il n’y a pas ces histoires de contextualisation, donc ça me semble vraiment très difficile de faire de la modération correcte, sans parler, évidemment, du travail de ces personnes qui doit être absolument innommable, d’ailleurs les personnes racontaient elles-mêmes qu’elles finissaient par devoir démissionner, qu’elles avaient des séquelles psychologiques parce que c’est atroce comme travail. On disait tout à l’heure que c’est le collectif qui nous soutient ; si jamais je n’ai pas le droit de parler ni à l’extérieur ni aux autres personnes de mon travail pour débriefer un peu et relâcher la pression, forcément les risques psychologiques sont assez élevés. Donc il y a ça d’un côté.
Puisque les grandes plateformes se disent « comme ça nous demande vraiment trop de main-d’œuvre de réussir à régler ces histoires de modération, on va essayer de mettre en place des algorithmes », ça donne des résultats qui sont assez surprenants. Je ne sais pas si certains d’entre vous ont entendu parler de l’affaire liée au hashtag « Comment faire pour que les hommes arrêtent de violer ». Pour replacer le contexte, sur Twitter une militante féministe a repris les études sociologiques qui disaient que les personnes qui violent sont extrêmement majoritairement des hommes, donc comment faire pour que les hommes arrêtent de violer. Finalement elle posait la question sociologique de comment est-ce qu’on fait en sorte d’éduquer les personnes à ne pas commettre des actes atroces. Elle n’a pas été sanctionnée, mais son compte a été modéré, elle a été suspendue pendant un temps. Quand Twitter a été interrogé sur le sujet, il a dit que c’était une erreur d’algorithme et que ce n’était pas censé se produire. Ensuite, quand elle est revenue et qu’elle a reposé la question, elle s’est fait ressortir.
Donc il y a, à mon avis, une espèce d’énorme problème ou plutôt d’énorme malentendu qui est qu’il y a une croyance que si jamais on avait de meilleurs algorithmes on réussirait à faire de la meilleure modération. Je pense que c’est faux. Déjà ce n’est pas une question d’algorithme, c’est une question de moyens donc d’argent mis pour payer des personnes pour faire de la modération correcte, donc pas dans des pays où les gens ont du mal à avoir un travail suffisamment rémunérateur et où on en profite pour les exploiter pour faire ce travail. Il y a aussi le fait que ces plateformes fonctionnent sur un modèle économique qui est là pour provoquer. C’est-à-dire que sur Twitter ce qui marche c’est d’avoir du contenu. Pour avoir du contenu il faut que les personnes soient engagées et qu’elles aient envie d’écrire. Qu’est-ce qui fait que les personnes sont engagées ? C’est quand je suis énervée, en colère, pas d’accord, des mécanismes comme ça. Comment je fais pour que les gens ne soient pas d’accord ? J’encourage, par exemple, les gens qui créent du contenu qui va provoquer de la colère d’une partie de la population ou des contenus extrémistes, plutôt d’extrême droite par exemple. Donc il y a une sorte de cercle vicieux. Je suis Twitter, mon modèle économique c’est la création du plus possible de contenus, du coup je vais favoriser les contenus qui font générer encore plus de contenus, par exemple les contenus extrémistes. Du coup des personnes ne vont pas être d’accord, elles vont se mettre en colère ou il va y avoir des choses qui vont être problématiques dans ce qui va être dit, il va falloir modérer et je n’ai pas les moyens de modérer. Ce qui fait que, à mon avis, le problème n’est pas seulement du côté de la modération ou d’avoir une meilleure modération, mais aussi d’avoir une modèle économique qui ne repose pas sur le fait que les personnes soient engagées.
Pour finir sur ce point-là parce que je suis un peu longue, a contrario, par exemple sur Framapiaf, si jamais des personnes publient des contenus problématiques, on leur montre la porte de sortie puisqu’on n’est pas basé sur le fait que les personnes créent plus de contenus pour pouvoir payer cette instance.
Donc il faut encourager les modèles économiques qui sont différents en montrant du doigt le fait que c’est le modèle économique de la plateforme qui provoque les problèmes de modération et pas juste le fait qu’il n’y ait pas d’assez bons outils techniques. Même si les modérateurs étaient assez bien payés je ne suis pas sûre que ça suffirait. Donc ce n’est pas dire comment fait-on pour que Twitter ait une meilleure modération ? Ma conclusion c’est que je pense que ce n’est pas possible vu le modèle économique qu’il a, qui est là pour attiser et encourager la création de contenus.

Étienne Gonnu : C’est un problème systémique.
Tu as bien fait de prendre ce temps, parce que je pense que c’est important, c’est un point essentiel par rapport à notre sujet.
Malheureusement le temps file. Une minute chacun pour un dernier mot, un point que vous souhaitez souligner ou quelque chose qu’on n’a pas évoqué que vous aimeriez aborder. Benoît peut-être.

Benoît Sibaud : On voit la complexité de la modération et le travers des législateurs en ce moment, à vouloir des réactions extrêmement rapides, extrêmement automatisées. Je ne crois pas à une solution où on va remplacer les juges par des algorithmes et que ça va marcher magnifiquement. L’expérience que je peux avoir de la modération montre que ça ne marche pas. Le cas qu’on évoquait c’est qu’effectivement on va avoir un modèle différent. Si j’ai des contenus polémiques sur le site, ça ne m’attire pas plus de visiteurs. Ça m’attire plus d’ennuis, ça m’attire plus de mises en demeure, ça fait plus de poids psychologique sur la modération, mais je n’y gagne rien. Alors qu’effectivement, les sites qui sont basés sur attiser les conflits entre les gens pour avoir plus de commentaires, ont effectivement des modèles qui, dans ce cas-là, sont problématiques. Effectivement, c’est un point important dans la discussion.

Étienne Gonnu : Merci Benoît. Anna, en une trentaine de secondes, une minute max, est-ce que tu as un point que tu voudrais souligner ? Une autre idée à soulever ?

Anna : Oui, peut-être que ce serait l’éloge de la lenteur. C’est-à-dire qu’entre les plateformes de microblogging qui nous permettent de nous exprimer seulement en 500 caractères avec une pensée, du coup, forcément tronquée, un encouragement à réagir rapidement et un encouragement à ce que la modération réagisse rapidement, je pourrais peut-être inviter chacun à se dire si je prenais le temps de choisir ce à quoi je réponds, si je prenais le temps de me dire est-ce que mon contenu apporte vraiment quelque chose ou pas et, si jamais j’ai besoin de modération, est-ce qu’il vaut mieux que les modérateurs prennent le temps de prendre une décision ensemble plutôt que réagir dans l’urgence, sauf dans les cas où il y a vraiment quelqu’un qui est mis en danger, est-ce que ce ne serait pas plus pertinent ?

Étienne Gonnu : Merci. Je pense que c’est une très belle conclusion. Paradoxalement on doit finir cet échange faute de temps.
Un grand merci à tous les deux d’avoir participé à cet échange. J’espère et je pense qu’il a été très instructif.
Grand merci à vous. Bonne continuation et bon courage pour le délicat exercice de modération.

Benoît Sibaud : Merci.

Anna : Merci beaucoup.

Étienne Gonnu : Nous allons à présent faire une pause musicale.

[Virgule musicale]

Étienne Gonnu : Nous allons écouter Oh Boy ! par Who Are You Lutra Lutra ??. On se retrouve juste après. Je vous souhaite une belle journée à l’écoute de Cause Commune, la voix des possibles.

Voix off : Cause Commune 93.1.

Pause musicale : Oh Boy ! par Who Are You Lutra Lutra ??.

Étienne Gonnu : Nous venons d’écouter Oh Boy ! par Who Are You Lutra Lutra ??., disponible sous licence libre Creative Commons Partage dans les mêmes conditions, CC By SA.

Étienne Gonnu : Visiblement on a un problème de connexion téléphonique, ce qui peut arriver. Pendant qu’Adrien essaye de joindre Emmanuel pour la chronique à venir, on va inverser un petit peu l’ordre de présentation et je vais en profiter pour vous parler d’une annonce « Quoi de Libre ? »

Ce week-end, samedi 8 et dimanche 9 mai, aura lieu un April Camp entièrement en distanciel étant donné le contexte sanitaire. L’idée d’un April Camp est de se réunir pendant deux jours entre membres et soutiens de l’April pour faire avancer des projets en cours et lancer de nouveaux projets. Les projets peuvent être de nature technique, ça peut être des outils de communication, ce qu’on a envie de faire en fait. Tout le monde, membre ou pas de l’association, peut participer en fonction de son temps disponible, de ses compétences et de ses envies. N’hésitez pas à vous inscrire. Il y a un bloc-notes dédié. Vous retrouverez le lien sur le site de l’April. S’y inscrire permet notamment de faciliter l’organisation, mais il n’y a pas d’impératif à le faire. Vous retrouverez les thèmes de travail, l’ordre du jour, et puis n’hésitez pas à passer nous voir. Tous les liens intéressants sont sur le site de l’April.
La régie me fait signe que c’est bon. Je vous propose donc de passer au sujet suivant.

[Virgule musicale]

Chronique ponctuelle « Itsik numérique » d’Emmanuel Revah sur le thème de PeerTube

Étienne Gonnu : Nous retrouvons aujourd’hui Emmanuel Revah qui nous avait proposé, entre 2019 et 2020, plusieurs chroniques intitulées « Itsik numérique » ou les râlages d’un vieux libriste si je cite la première chronique qu’il nous avait proposée. Emmanuel revient exceptionnellement aujourd’hui pour nous parler de PeerTube, un logiciel libre d’hébergement de vidéos décentralisé, développé par nos amis de Framasoft.
Salut Manu.

Emmanuel Revah : Salut. Ça va Étienne ?

Étienne Gonnu : Ça va très bien. À toi la parole.

Emmanuel Revah : Aujourd’hui je vais parler de PeerTube, que j’aime bien appeler aussi MeilleurTube, vous allez comprendre pourquoi.
PeerTube est une sorte de YouTube, mais, fédéré. C’est un peu comme ce qu’est Mastodon par rapport à Twitter. Je sais pas pourquoi j’essaie d’expliquer un truc en le comparant avec un autre truc. Je reboot.
PeerTube est un logiciel libre de publication de vidéos sur les Interwebs. Ça se présente comme un site web qu’on peut installer soi-même, sur son propre serveur. Bon, OK !, ça demande quelques compétences, des ressources et du temps, mais c’est possible. Sinon, on peut aussi se créer un compte sur une instance existante.
PeerTube permet donc d’héberger et de diffuser des vidéos, de créer des chaînes, d’ajouter des sous-titres, etc., en gros comme YouTube. Depuis peu, on peut même faire des diffusions en direct ou live pour les francophones.
Le petit bonus maxi ++ lol, c’est qu’on peut fédérer les instances, c’est-à-dire que mon instance peut suivre ton instance et, du coup, je peux voir tes vidéos depuis chez moi et vice et versa – j’ai presque envie de chanter ! Non !, je ne vais pas le faire – à condition que ton instance suive la mienne aussi. OK !
Des fois, dans le contexte d’Internet, le mot fédération peut paraître flou.
Un exemple de fédération sur Internet que tout le monde connaît, les courriels ou e-mail pour les francophones. Eh oui, le système de mail est un système de serveurs totalement indépendants, mais qui travaillent ensemble pour livrer les courriels aux divers comptes éparpillés sur les Internets.
Donc PeerTube, c’est un peu comme si YouTube avait adopté un fonctionnement inspiré du courriel.
Au passage, on appelle l’univers de la fédération sur Internet Fédiverse.
En tant que libriste intégriste, qui aime regarder des images qui défilent très vite, autrement dit des vidéos, je peux enfin m’offrir une expérience à la YouTube, c’est-à-dire que je peux m’abonner à des chaînes, commenter des vidéos, avec des commentaires respectueux de préférence, et aimer des contenus ou liker pour les francophones, tout cela depuis un compte PeerTube ou alors depuis un compte Mastodon, c’est compatible ! Le Fédiverse est vraiment incroyable, d’ailleurs il y a des gens n’y croient toujours pas.
J’évite autant que possible de m’engager sur la YouTube ; je dis LA YouTube, car c’est grave : s’il faut vraiment que je regarde la vidéo du chat psychopathe, possédé par Satan, qui pousse des trucs de la table, alors j’ouvre le lien de la vidéo avec MPV ou VLC ou je vais sur un site miroir, sinon je passe par Tor Browser. Bref !, je mets un masque et j’applique du gel hydroalcoolique avant d’interagir avec l’outil de capitalisation de l’attention de Google.
Grâce à PeerTube, je peux enfin regarder des vidéos sur Internet sans protection car PeerTube est compatible avec mon côté islamo-libriste !
En tant que vidéaste du dimanche, jusqu’ici, pour publier les quelques vidéos que j’ai faites dans ma vie, je les hébergeais sur mon site perso, enrobées de balises HTML « vidéo », en gros comme on fait avec une image. Ça veut dire que si jamais une vidéo devenait un peu populaire, je pouvais me retrouver avec l’accès à mon site, ou serveur, bloqué ou très ralenti, car la vidéo c’est lourd, donc ça peut vite saturer la connexion.
Je n’ai pas les moyens et encore moins l’envie de surdimensionner mon serveur au cas où une vidéo serait regardée par plus de dix personnes un même jour dans l’année, chose qui, fort heureusement, n’est jamais arrivée.
Entre en jeu la magie de PeerTube. Elle fait appel à la connexion des visiteurs, en pair à pair, pour partager le transfert des données. C’est-à-dire que quand quelques personnes regardent une même vidéo, elles envoient des bouts de vidéo aux autres personnes qui la regardent aussi, l’audience devient une ressource de bande passante. On peut résumer : plus une vidéo est en train d’être regardée, et plus il y a de ressources pour sa diffusion. Et quand plus personne ne regarde, les ressources sont éteintes ou font autre chose.
PeerTube est compatible avec mon côté islamo-écologiste ! Il y a exactement trois ans, j’ai installé une instance PeerTube pour moi et quelques potes du coin. J’ai migré quelques vidéos à la noix, c’était une preuve de concept, convaincante. Et puis, il y a un an, j’ai fait mon premier « vrai » court film. On était tous bloqué à la maison et j’avais quelques conseils à partager. Eh bien pas d’hésitation ! J’ai mis sur le Fédiverse via mon instance PeerTube, et je n’ai même pas eu peur du succès ! J’ai eu environ 360 vues en un an ! Presque une vue par jour ! C’est le début de ma reconversion !
Bon, j’ai aussi publié un documentaire en décembre dernier qui a connu des pics à plus de 200 vues par jour ! Et ça passe nickel, ça n’a pas cramé le forfait réseau de mon serveur, ni même le datacenter qui l’héberge. J’ai même vu ma vidéo apparaître sur la page « tendances », trending pour les francophones, de l’instance de Framasoft qui est framatube.org, juste à côté d’une vidéo du collectif l’Extracteur. C’est très encourageant. Je ne me sens pas seul sur mon île, je me sens faire partie d’un ensemble qui partage du commun. PeerTube est compatible avec mon côté islamo-communautariste.

Comment fait-on pour trouver des vidéos ?
Un bon point de départ est le site joinpeertube.org. Déjà, il y a d’autres explications, peut être plus claires que les miennes, et même une vidéo explicative. En plus, on peut découvrir quelques contenus, des chaînes et même des instances. Par exemple, il y a Skeptikon qui est une instance autour de la promotion de l’esprit critique et de la démarche scientifique. On y trouve pas mal de vidéastes qui ont commencé leurs activités sur la YouTube et se sont mis ensemble pour créer leur propre instance sur le Fédiverse. Il y plein d’autres instances spécialisées, comme celles de Debian, FDN, etc. Il y a une page pour nous aider à trouver une instance avec des critères comme la possibilité de créer des comptes, les thématiques abordées, etc. Il faut garder en tête que chaque instance choisit de suivre, ou non, les autres et en suivra plus ou moins.

Pour retrouver encore plus facilement les vidéos de la Fédiverse, il existe un moteur de recherche spécial PeerTube qui va chercher un peu partout, dans la limite des stocks disponibles. Pour cela, direction le site sepiasearch.org. Évidement, ce logiciel de moteur de recherche est aussi un projet libre.
Avec tout ça, j’espère que vous comprenez pourquoi j’aime surnommer PeerTube, MeilleurTube.

Étienne Gonnu : En tout cas ça me paraît très clair. Merci beaucoup Emmanuel et à une prochaine, j’espère, pour une nouvelle chronique qui, ce coup-ci, n’était pas un râlage de vieux libriste mais plutôt un enthousiasme pour un beau projet.
Je vois le temps qui file, je te laisse. Très bonne fin de journée Manu. Salut.

Emmanuel Revah : Bon courage. Merci. À bientôt.

Étienne Gonnu : Nous approchons de la fin de l’émission, nous allons terminer par quelques annonces.

[Virgule musicale]

Quoi de Libre ? Actualités et annonces concernant l’April et le monde du Libre

Étienne Gonnu : Je vous l’ai déjà mentionné, ce week-end un April Camp. N’hésitez pas à venir nous faire un coucou, participer à un des nombreux projets de l’April, que vous soyez membre ou non. Retrouvez, comme d’habitude, tous les événements libristes ainsi que les organisations locales du logiciel libre sur agendadulibre.org

Notre émission se termine.

Je remercie les personnes qui ont participé à l’émission : Adrien Bourmault qui, en plus de son intervention, était aux manettes de la régie aujourd’hui. Merci à Isabella Vanni, à Benoît Sibaud, à Anna, à Emmanuel Revah.
Merci également à l’équipe qui s’occupe de la post-production des podcasts : Samuel Aubert, Élodie Déniel-Girodon, Lang 1, bénévoles à l’April, Olivier Grieco, le directeur d’antenne de la radio.
Merci à Quentin Gibeaux, bénévole à l’April, qui découpe le podcast complet en podcasts individuels par sujet.

Vous retrouverez, comme d’habitude, sur notre site web, april.org, toutes les références utiles ainsi que sur le site de la radio causecommune.fm.

Nous vous remercions d’avoir écouté l’émission.
Si vous avez aimé cette émission, n’hésitez pas à en parler le plus possible autour de vous et à faire connaître également la radio Cause Commune, la voix des possibles.

La prochaine émission aura lieu en direct mardi 11 mai 2021 à 15 heures 30. Notre sujet principal portera sur Webassoc, une communauté de professionnels du Web qui aide les associations et collectifs humanitaires de solidarité et d’environnement à se renforcer avec Internet et qui fonctionne complètement bénévolement.

Nous vous souhaitons de passer une belle fin de journée. On se retrouve en direct mardi 11 mai et d’ici là, portez-vous bien..

Générique de fin d’émission : Wesh Tone par Realaze.