Émission Libre à vous ! diffusée mardi 26 septembre 2023 sur radio Cause Commune


Voix off : Libre à vous !, l’émission pour comprendre et agir avec l’April, l’association de promotion et de défense du logiciel libre.

Étienne Gonnu : Bonjour à toutes. Bonjour à tous.
Comment construire collectivement un environnement en ligne plus sûr et transparent ? Alors qu’un projet de loi visant à sécuriser et réguler l’espace numérique est en travaux à l’Assemblée nationale, la question apparaît essentielle. Nous en discuterons avec Suzanne Vergnolle, docteur en droit, en prenant l’exemple du Digital Services Act, un texte juridique propice à l’ouverture, sur lequel elle a récemment écrit un rapport.
Également au programme, les Costy fille et père nous révèlent, entre autres, les origines du nom Mozilla, le tueur de Mosaic. Luk, quant à lui, opposera réalité molle et réalité dure.

Soyez les bienvenu·es pour cette nouvelle émission de Libre à vous !, l’émission qui vous raconte les libertés informatiques, proposée par l’April l’association de promotion et de défense du logiciel libre.
Je suis je suis Étienne Gonnu, chargé de mission affaires publiques pour l’April.

Le site web de l’émission est libreavous.org. Vous pouvez y trouver une page consacrée à l’émission du jour avec tous les liens et références utiles et également les moyens de nous contacter. N’hésitez pas à nous faire des retours ou à nous poser toute question.

Nous sommes mardi 26 septembre 2023, nous diffusons en direct, mais vous écoutez peut-être une rediffusion ou un podcast.

À la réalisation de l’émission, Fred et Julie, Julie qui rejoint l’équipe régie de Libre à vous !, donc bienvenue et merci à elle. Salut à vous deux.

Frédéric Couchet : Bonjour à vous ! Belle émission.

Julie : Bonjour.

Étienne Gonnu : Nous vous souhaitons une excellente écoute.

[Jingle]

Chronique « À cœur vaillant, la voie est libre » de Laurent et Lorette Costy, intitulée « Mosaic Killer »

Étienne Gonnu : « À cœur vaillant, la voie est libre » de Laurent et Lorette Costy. Comprendre Internet et ses techniques pour mieux l’utiliser, en particulier avec des logiciels libres et services respectueux des utilisatrices et utilisateurs pour son propre bien-être en particulier et celui de la société en général. Laurent Costy est administrateur de l’April et fait cette chronique avec sa fille Lorette. Il est aujourd’hui question de « Mosaic Killer ».

[Virgule sonore]

Laurent Costy : Aujourd’hui, Lorette va nous faire un bilan « maillots de bain de l’été ».
Bonjour Lorette, alors, les maillots de bain de l’été ?

Lorette Costy : C’était très bien !

Laurent Costy : Merci beaucoup Lorette pour cette introduction définitivement la plus courte des 20 chroniques que nous avons vaillamment, et avec cœur, faites ensemble !

Lorette Costy : Saperlipoprout ! 20 chroniques déjà ! Bientôt la moitié de l’objectif que l’on s’est fixé qui est 42 chroniques « À cœur vaillant, la voie est libre » ! Je me souviens de notre première pour l’émission 100 le 30 mars 2021. Tu jouais le papa pédagogue, comme un pied d’ailleurs.

Laurent Costy : Vraiment trop bien le site de l’émission : tout est bien rangé, découpé et l’ordre chronologique respecté. Et on peut effectivement retrouver des moments que l’on aurait préféré oublier !

Lorette Costy : Ton jeu d’acteur s’est quand même un peu amélioré depuis ! C’est quand même un plaisir de parcourir le site Libre à vous !. C’est du beau boulot !

Laurent Costy : Mais carrément ! On ne se rend pas assez compte de tout le travail qu’il y a derrière : la mise en place du site au départ, le traitement audio des émissions, la découpe des sujets ou la mise à jour du site toutes les semaines. On va d’ailleurs profiter qu’on a la parole pour remercier toutes les personnes qui contribuent, bénévoles et salarié·e·s !

Laurent et Lorette Costy ensemble : Merci !

Lorette Costy : Hop-là !

Laurent Costy : Yoplà !

Laurent Costy : Du coup, je poursuis dans les remerciements et fais un big up à la Fondation Mozilla. Avant de parler d’une fonctionnalité de leur navigateur Firefox qui a changé ma vie, il faut que je te parle de leur actualité !

Lorette Costy : Oh, je sais ! Ils sont à l’initiative d’une mobilisation contre le projet de loi qui vise à vouloir, je cite, « sécuriser et réguler l’espace numérique », SREN pour l’acronyme. L’idée de Mozilla, en alertant, est d’éviter d’ouvrir la voie à ce qui deviendrait un « dangereux précédent qui pourrait servir ensuite à transformer les navigateurs en outils de censure gouvernementale. »

Laurent Costy : Mais te voilà bien renseignée ! Encore 22 chroniques et tu pourras te passer de moi !

Lorette Costy : Pour compléter, il faut savoir que Mozilla a été à l’initiative d’une pétition. Pour aider les gens à comprendre, ils ont patiemment expliqué le souci pour que les gens puissent signer cette pétition en toute conscience ! On est tellement habitué, dans notre démocratie, à voter « idéo-pas-logiquement » que ça fait du bien !

Laurent Costy : L’idée initiale, je cite, « d’obliger les développeurs de navigateurs à créer les moyens de bloquer obligatoirement les sites web figurant sur une liste fournie par le gouvernement et intégrée directement dans le navigateur » paraît politiquement très séduisante, mais c’est une mauvaise idée ! Elle pourrait donner à un gouvernement autoritaire un moyen de minimiser l’efficacité des outils qui peuvent être utilisés aussi pour contourner la censure.

Lorette Costy : Bref ! Un truc pour de l’affichage et pour pouvoir dire que l’on s’occupe soi-disant de la sécurité des gens au détriment de leur liberté, comme d’habitude !
La semaine dernière, l’alerte de Mozilla a porté ses fruits puisqu’un amendement porté par Eric Bothorel, qui s’appuyait sur l’argumentation de Mozilla, a été adopté et limite ainsi les effets indésirables du texte. Je cite : « Pouet, pouet la galette, on ne veut pas de cette sécurité aux effets de bord délétères pour nos libertés numériques », disait Gavroche sur les barricades, j’y étais, je le sais. Il semble avoir été écouté.

Laurent Costy : Bien dit et belle référence ! En parlant de barricades, ça me permet de revenir sur les nouveautés de l’été de Mozilla Firefox.

Lorette Costy : On voit bien la transition ! En effet, bien joué : barricades, pavés, dans la mare, mare aux canards, coin-coin, Framasoft, numérique plus respectueux et enfin Firefox. Bien joué !

Laurent Costy : Waouh ! Merci pour cette traduction ! Même moi je ne m’étais pas rendu compte à quel point ma transition était léchée ! Plein de respect à moi et surtout à ma descendance.

Lorette Costy : T’inquiète ! Laisse-moi deviner cette nouvelle fonctionnalité du navigateur qui a révolutionné ta vie : ils ont automatisé la décoche des cookies autres que fonctionnels, comme ça, tu n’as pas à le faire manuellement et à renseigner les nombreux bandeaux qui surgissent sur l’écran tel des vampires assoiffés de sang frais et de rhum orange ! Personne ne le sait, mais les vampires aiment aussi le rhum orange ! C’est goûtu !

Laurent Costy : Idée lumineuse, mais ce n’est pas ça. Ça me fait penser que cette fonctionnalité peut être ajoutée en passant par les extensions : ça s’appelle Consent-O-Matic.

Lorette Costy : Trop bien que cette extension ! Même si je lis, sur la page dédiée du site de Mozilla : « La sécurité de ce module n’est pas contrôlée par Mozilla. Assurez-vous de sa fiabilité avant de l’installer. » Dois-je m’en inquiéter ?

Laurent Costy : En tout cas, bon réflexe que de bien lire la description de ce module. Effectivement, à toi de faire un choix. Même si l’add-on est sous licence libre, licence MIT pour ne pas la citer, cela ne garantit pas tout. Néanmoins, en ce qui me concerne, j’ai fait le choix d’automatiser l’interdiction d’envoyer des informations sur ma navigation en dehors des cookies nécessaires. C’est développé par des membres de l’Université d’Aarhus au Danemark, j’ai décidé de leur faire confiance.

Lorette Costy : Waouh ! C’est trop rigolo de voir la fenêtre apparaître et puis disparaître après un très court instant, c’est sympa !

Laurent Costy : Bon, soyons honnêtes ça ne marche pas toujours, mais ça rend des services. En regardant les fonctionnalités de Firefox, je me demande même si ça reste utile avec la dernière version. Si on se fie à la page de Mozilla qui compare les navigateurs, je lis : « Bloque par défaut les cookies tiers utilisés pour le pistage ». Pour la prochaine chronique, je demanderai l’avis d’Hello Secteur One que l’on croise régulièrement sur les sympathiques manifestations libristes et qui représente souvent Mozilla.

Lorette Costy : C’est une bonne idée, il faut savoir se faire aider par les bonnes personnes dans la vie ! Et la réponse sera donnée dans la chronique 21. D’ailleurs soyez bien à l’écoute, mesdames et messieurs, il y aura une interrogation dans la chronique 22, si cependant on se souvient qu’on avait dit qu’il y en aurait une !

Laurent Costy : Et puisqu’on est généreux dans cette chronique, on vous offre une question, une réponse immédiate et pas d’évaluation la prochaine fois : savez-vous d’où vient le nom Mozilla ? Eh bien figurez-vous que ça vient de « Mosaic » et de « killer » ou « killa » en argot. À l’époque, dans les années 90, la guerre des navigateurs faisait rage, pire que Nelson et Villeneuve à Trafalgar. Mozilla est donc né de la contraction de ces deux mots : « Mo » pour Mosaic, navigateur de l’époque, et « illa » pour la fin de « killa ». Le « s » de Mosaic s’est transformé en « z ».

Lorette Costy : Toujours un bon truc à glisser en repas de famille pour faire son malin, si vous voulez mon avis ! Et si on vous demande où vous l’avez appris, vous direz que c’est dans Libre à vous !. Bon ! Et cette fonctionnalité miraculeuse, quelles sont les histoires ?

Laurent Costy : J’aurais pu évoquer l’éditeur PDF désormais intégré à Firefox ou encore, depuis longtemps déjà, le blocage par défaut de l’envoi, à des tiers, de l’empreinte unique du navigateur et de l’appareil. J’aurais pu aussi te parler de hubs.mozilla.com, leur métavers. Mais métavers c’est déjà so 2021 ! L’IA a renvoyé ce sujet à la préhistoire de l’informatique !

Lorette Costy : En plus, si on était complotiste, on pourrait même penser que l’IA a été mise sur le devant de la scène fin 2022 pour faire oublier ce que la presse a qualifié d’échec monumental et de flop retentissant : Horizon Worlds, le métavers de Meta. Mais heureusement, nous travaillons notre esprit critique chaque jour avec l’éducation populaire et on sait raison garder ! Le complotisme ne passera pas par nous !

Laurent Costy : Et avec l’IA qui envahit tout chaque jour, il va falloir encore aiguiser notre esprit critique ! Bon, puisque tu donnes ta langue au chat : la nouvelle fonctionnalité que j’aime beaucoup, c’est la possibilité de traduire la page en cours par le petit bouton intégré à la barre d’adresse. C’est trop puissant pour des gens comme moi insuffisamment anglophones !

Lorette Costy : Oh, mais il n’y a pas que l’anglais en plus ! Impressionnant ! Je viens d’essayer sur la page d’accueil de la structure polonaise panoptykon.org. C’est extrêmement pratique !

Laurent Costy : Bon choix pour un test ! C’est cette structure qui est à l’origine d’une infographie qui montre, dans trois cercles concentriques, d’abord les données que l’on renseigne volontairement sur Internet – son nom, son âge –, ensuite les métadonnées, qu’on lâche généralement inconsciemment, et enfin, toutes les déductions qui sont faites à partir de tout ça par la machine. Ça fait froid dans le dos ! D’ailleurs, on retrouve une adaptation de cette infographie sur une page éditée par les Ceméa : ecn.cemea.asso.fr/panoptykon, avec un « y » et un « k ».

Lorette Costy : Et regarde ! On peut même traduire de français à français ! Sur la page d’accueil de l’April, si je demande français vers français, l’expression « logiciel libre, société libre » est parfaitement traduite par « logiciel libre, société libre » ! C’est incroyable ! Respect !

Laurent Costy : C’est trop classe ! Cependant, n’oublions pas qu’apprendre une langue, ce n’est pas qu’une question de traduction. C’est aussi et surtout se confronter à une culture, appréhender des modes de vie différents. Bref ! Au-delà des outils de traduction, c’est d’abord s’intéresser aux autres !

Lorette Costy : Waouh ! C’est bien de le dire. D’ailleurs, ce n’est pas une chose simple que d’intégrer cette dimension dans une IA générative de traduction. C’est d’ailleurs peut-être ça une de limites de l’IA : l’altérité et l’empathie que l’on a besoin de ressentir pour vivre, tout simplement.

Laurent Costy : Hou-là ! La chronique se transforme en un café du commerce de haute volée philosophique en rase-motte. Je te propose de digérer ça pour la prochaine fois et de ne pas en reparler, OK ?

Lorette Costy : Ça me va ! Il va juste falloir que tu m’aides dans mon projet à l’école et pour mon alternance, j’ai plusieurs soucis : il faut que je fasse un CV en ligne et on me recommande un truc qui ne me semble pas très cathodique. Comment pourrais-je le dire à ma prof et comment faire autrement sont mes deux questions du moment. Ensuite, je voudrais aider mon asso dans sa migration vers un numérique plus éthique. Tu crois que tu pourrais m’aider ?

Laurent Costy : Pas de souci ! Pour le premier point, on peut faire un podcast pour l’expliquer à ta prof. Pour le second, la migration ça peut presque occuper toute une vie. Tu fais quoi dans les 30 prochaines années ? En attendant, je t’envoie des bises en hexadécimal parce que je suis d’humeur hexadécimale aujourd’hui : 62 69 73 65 73 da

Lorette Costy : Bisous aussi : 706 170 615 06f 746 16d !

[Virgule sonore]

Étienne Gonnu : De retour en direct sur radio Cause Commune, la voix des possibles.
Nous venons d’écouter un nouvel épisode d’« À cœur vaillant, la voie est libre », la chronique de Laurent et Lorette Costy pour Libre à vous !, « Mosaic killer » ou « Mozaic killa ».
Nous allons faire une pause musicale.

[Virgule musicale]

Étienne Gonnu : Nous allons écouter Greensleves (HapiNes version) par Ehma. On se retrouve dans deux minutes. Belle journée à l’écoute de Cause Commune, la voix des possibles.

Pause musicale : Greensleves (HapiNes version) par Ehma.

Voix off : Cause Commune, 93.1.

Étienne Gonnu : Nous venons d’écouter Greensleves (HapiNes version) par Ehma, disponible sous licence libre Creative Commons Attribution, CC BY, qui permet la réutilisation, la modification, la diffusion et le partage de cette musique pour toute utilisation, y compris commerciale, à condition de créditer l’artiste, le nom, la source du fichier original, d’indiquer la licence et d’indiquer si des modifications ont été effectuées.

[Jingle]

Étienne Gonnu : Sujet principal.

[Virgule musicale]

Comment construire collectivement un environnement en ligne plus sûr et transparent ? L’exemple du Digital Services Act, DSA. Discussion avec Suzanne Vergnolle, autrice d’un rapport visant à renforcer la coopération avec société civile dans la mise en œuvre du DSA

Étienne Gonnu : Comment construire collectivement un environnement en ligne plus sûr et transparent ? Alors qu’un projet de loi visant à sécuriser et réguler l’espace numérique est en travaux à l’Assemblée nationale la question apparaît essentielle. Pour en discuter avec nous, Suzanne Vergnolle, docteur en droit, qui a récemment écrit un rapport visant à renforcer la coopération avec la société civile dans la mise en œuvre du Digital Services Act ou, plus court, DSA, le règlement européen sur les services numériques. À partir de l’exemple de ce DSA, nous allons réfléchir ensemble et discuter sur comment mettre en œuvre des mesures de transparence et comment la société civile peut contribuer à l’élaboration et à la mise en œuvre de politiques publiques.
N’hésitez pas à participer à notre conversation au 09 72 51 55 46 ou sur le salon web dédié à l’émission, sur le site causecommune.fm, bouton « chat ».
Bonjour Suzanne. Tu es avec nous en studio. Merci de te joindre à nous.

Suzanne Vergnolle : Bonjour Étienne.

Étienne Gonnu : Avant d’entrer dans le vif du sujet, est-ce que tu voudrais bien te présenter, s’il te plaît ?

Suzanne Vergnolle : Bien sûr. Je suis Suzanne Vergnolle, docteur en droit et maître de conférences au Conservatoire national des arts et métiers, abrégé Cnam, ce vieux bâtiment au centre de Paris qui a notamment pour mission de préserver les savoirs et de participer à la diffusion de la connaissance.

Étienne Gonnu : Tu pourrais peut-être nous préciser un peu ton rapport aux questions, aux enjeux des libertés informatiques et, plus largement, aux questions du logiciel libre en particulier.

Suzanne Vergnolle : Je dirais que mon rapport aux libertés numériques est assez puissant, assez fort et il m’occupe au quotidien depuis pas mal d’années maintenant.
Au tout début de mes études en droit, je me suis un peu questionnée sur les interactions qui pouvaient exister entre la société, le droit, évidemment, et les technologies. Je comprenais bien qu’il y avait une espèce de rapport entre ces trois grands secteurs, mais j’avais envie de comprendre comment ça pouvait effectivement interagir. J’ai effectué un master en droit à San Francisco. À l’époque, c’était principalement sur la propriété intellectuelle et, assez rapidement, je me suis rendu compte que c’était un domaine où il y avait des lobbies très puissants depuis de très nombreuses années, qui étaient très installés et qui avaient tendance, un petit peu, à distordre parfois les avancées technologiques au profit de leurs intérêts propres et, quand on était juste des individus ou des petits collectifs associatifs, etc., c’était très dur de peser dans le processus législatif ou de proposer une autre voie. Heureusement il y a d’autres éléments, genre Creative Commons, qui sont quand même sortis, mais on se rend bien compte que c’est quand même un secteur assez difficile. J’ai découvert, en réalité, le domaine du droit de la vie privée et c’est un petit peu comme ça que j’ai découvert le droit du numérique. J’ai entamé une thèse à l’Université Paris Panthéon-Assas où je me suis questionnée sur l’effectivité de la protection des personnes par le droit des données à caractère personnel.
Très concrètement, c’est identifier les objectifs du législateur : quand le législateur a adopté la loi informatique et libertés, le 6 janvier 1978, en France, que voulait-il concrètement faire ? C’est essayer de comprendre quelle était la différence entre les objectifs de ce législateur, d’une part, et puis la réalité des pratiques informatiques d’autre part. Donc, tout au long de ma thèse qui est assez longue et assez développée, je formule des recommandations, des analyses pour essayer de garantir une meilleure protection des personnes dans un environnement numérique mouvant.

Je pense que mon rapport au Libre a commencé quand j’ai travaillé, entre 2013 et 2015, chez Etalab, le service du Premier ministre en charge de l’ouverture et de la réutilisation des données publiques. C’était un peu inhérent à la mission d’Etalab qui était de dire « on est obligé d’avoir du logiciel libre parce que c’est démocratique, parce que tout le monde peut y avoir accès, parce qu’il n’y a pas de barrières à l’entrée, donc, si on veut être un État démocratique inclusif, il faut qu’on ait du logiciel libre », et ça s’est poursuivi dans mon activité associative. Une fois que j’ai quitté Etalab, j’ai notamment été administratrice de Regards Citoyens et, là aussi, 100 % logiciel libre, on travaillait uniquement avec des outils libres et, pour une juriste comme moi, c’était une expérience très intéressante parce que ça me faisait aussi découvrir un autre monde, d’autres communautés avec des intérêts plus universels en réalité.

Peut-être un dernier mot. Aujourd’hui, je suis maître de conférences en droit du numérique au Cnam. Le rapport que tu mentionnais tout à l’heure est lié à un contact pris par des associations qui sont venues me proposer de travailler, de chercher effectivement sur un rapport en lien avec les interactions entre la société civile et la mise en œuvre concrète, par la Commission européenne principalement, mais aussi par les régulateurs nationaux, du Digital Services Act, le règlement sur les services numériques qui a été adopté en octobre 2022 et qui est progressivement en cours d’être mis en application.

Étienne Gonnu : C’est pour cela qu’on t’a proposé, quand tu as pris contact avec nous, de venir nous parler de ce rapport. On s’est dit qu’il y aurait sans doute matière à discuter déjà de ce rapport, particulièrement, et puis, au-delà de ça, de tirer les enjeux plus globaux sur ces questions de la régulation des espaces numériques. Ça touche beaucoup à ce que fait l’April puisqu’on agit là-dessus. Comme tu le disais, la technique n’est pas neutre, il y a des rapports de forces politiques qui s’inscrivent dedans, différents intérêts qui vont parfois s’opposer, donc des actions politiques sont à mener et c’est intéressant de voir, justement, comment s’appuyer sur ces textes.
Est-ce que tu veux nous présenter rapidement, de toute façon nous rentrerons dans les détails après, nous dessiner les grandes lignes de ton travail avec ce rapport ?

Suzanne Vergnolle : Les objectifs de mon rapport étaient effectivement de proposer des recommandations et des conseils pour garantir l’implication fructueuse et utile des organisations de la société civile dans la mise en œuvre du DSA.
La mise en œuvre du DSA est assez compliquée parce qu’il y a plusieurs niveaux : il y a le niveau national avec des régulateurs nationaux qui vont avoir un champ de compétences et puis il y a aussi le niveau européen où, en fait, c’est la Commission européenne qui est chargée de s’assurer de la conformité aux règles prévues par ce texte pour les très grandes plateformes et les très grands moteurs de recherche, ceux qui ont le plus d’impact pour la société et pour les Européens.
La volonté c’était vraiment de baser mon travail non seulement sur des recherches juridiques – qu’est-ce qui existe, qu’est-ce qui est possible, qu’est-ce que le règlement permet en termes de collaboration avec la société civile –, mais aussi de m’informer grâce à des entretiens que j’ai pu effectuer avec des experts, avec des personnalités qualifiées, sur ce qui fonctionne dans des coopérations et ce qui ne fonctionne pas. Donc d’apprendre un petit peu de ça et puis, derrière, de formuler des recommandations.
Mon travail a été principalement orienté vers la Commission européenne parce que c’était, notamment, un des régulateurs clés et surtout parce que c’est une des rares fois, première fois presque, que la Commission européenne est chargée de mettre en œuvre, concrètement, un texte juridique avec des pouvoirs d’enquête, des pouvoirs de sanction, etc., donc presque un rôle quasi-juridictionnel, quasi-juge, alors même que ce n’est pas dans son champ, dans son domaine d’action général. Pour rappel, la Commission européenne c’est l’exécutif de l’Europe, elle propose des textes juridiques, elle n’a pas vraiment comme mission générale d’agir pour faire en sorte que ces textes soient concrètement respectés. Avec cette opportunité de ces nouveaux pouvoirs qui lui sont conférés, il y a un terrain à construire et, dans ce terrain, l’idée c’était de mettre aussi de la société civile et de l’intelligence collective en accord, en rapport avec la Commission européenne pour que ces pouvoirs soient mis en œuvre de manière intelligente et cohérente.

Étienne Gonnu : Comme tu nous l’expliques, c’est vrai que le Digital Services Act, le DSA, est très vaste. Finalement, notre sujet ne va pas être de parler globalement du DSA, on va parler de quelque chose d’assez précis. Peut-être qu’on peut présenter quand même un peu ce que prévoit ce DSA, dans quelle histoire il s’inscrit. D’ailleurs, ce n’est pas le seul texte qui a été voté, il y a aussi le DMA [em>Digital Markets Act] sur les marchés numériques. On ne va pas du tout en parler, mais c’est vrai que ce sont des textes jumeaux, on va dire, qui ont été élaborés concomitamment.

Il y a une longue histoire, tu as parlé des grandes plateformes, en fait c’est un enjeu qui date de 2001 avec l’ancien régime juridique de responsabilité des acteurs : il y avait les hébergeurs d’un côté, les éditeurs de l’autre, c’était une distinction vraiment essentielle sur comment fonctionne le régime de responsabilité des acteurs du numérique, donc ce n’était pas rien de remettre un peu en cause cette dichotomie presque sacrée pendant un moment. Il y a eu beaucoup de craintes. Je pense que les craintes qui ont été exprimées de cette remise en cause entre éditeur et hébergeur ont été rassurées, la crainte étant de faire peser une très grande responsabilité sur les personnes, sur les intermédiaires qui se contentent d’héberger du contenu sans qu’ils aient à regarder ce qui se passe, là ça pourrait être très inquiétant. Une des solutions que tu as évoquée c’était de créer un peu une régulation spécifique pour les très grandes plateformes.
Est-ce que tu pourrais, est-ce que tu serais en capacité de nous présenter un petit peu les points d’équilibre qu’a trouvés ce texte ? Qu’est-ce que prévoit ce texte, ce DSA, pour qu’on ait quand même une idée un peu globale de ce dont on parle ?

Suzanne Vergnolle : En réalité, c’est vrai que la construction du droit du commerce électronique, de cette responsabilité, remonte au tout début des années 2000, elle remonte même, en fait, à la loi américaine Communications Decency Act, de 1996, qui a créé la Section 230 dont on a beaucoup parlé à l’occasion de l’élection de Donald Trump où, en fait, globalement, le principe posé c’était de dire : quand on est hébergeur on héberge du contenu, donc on ne peut pas être tenu responsable de ce contenu en cas d’illicéité du contenu, contrairement au statut d’éditeur. Par exemple l’éditeur d’un journal, l’éditeur en chef du Monde, peut être tenu responsable si, au sein du Monde, il y a des contenus à caractère raciste, xénophobe, etc., parce qu’il a un pouvoir de contrôle vis-à-vis de ce contenu. À cette époque, l’idée c’était vraiment de dire : on ne peut pas faire peser une responsabilité aussi forte sur des gens qui ne font que mettre à disposition des serveurs.
En Europe, on a pris ces principes qui étaient de dire : immunité de responsabilité, pas de responsabilité pour les gens qui ne font que des choses purement techniques, ça va être des mises en cache, ça va être de l’hébergement et ça va être de la simple transmission.
Ces trois statuts, qui sont créés en 2000, sont repris à l’identique dans le DSA et les principes de responsabilité sont également repris à l’identique dans le DSA.

Qu’est-ce qui change ? Adossé à ce principe de responsabilité limitée, atténuée, parce qu’on ne peut être responsable que si on est au courant qu’on a du contenu sur sa plateforme et qu’on n’agit pas dans un délai raisonnable pour le retirer, on va rajouter des obligations et c’est là où le DSA est une espèce d’innovation : on va rajouter des innovations qui dépendent non seulement de la taille du service, mais aussi du contenu, du type de service qui est proposé. On a donc des catégories de services qui vont avoir des catégories d’obligations qui vont être différentes : plus on est un service qui est grand et qui pose des enjeux importants pour la démocratie parce que viralité des contenus, parce que capacité de toucher un public très grand, plus les obligations vont être importantes. C’est vraiment la logique même du DSA.
Dans le DSA, on a donc de nouvelles obligations dites de diligence où les plateformes doivent, en plus de ces principes de responsabilité atténuée – retrait des contenus quand on en a connaissance ou conscience –, mettre en place, au sein de leurs services, des mécanismes pour s’assurer qu’on n’a pas, par exemple, des risques systémiques – c’est applicable par exemple pour les très grandes plateformes –, qu’on ne valorise pas les contenus racistes, contenus discriminatoires, contenus sexistes, etc. Elles vont donc devoir évaluer leurs services et faire en sorte qu’ils soient en conformité avec les objectifs d’un environnement plus sûr et plus transparent.
Dans ces règles, on a deux types d’obligations : on a des obligations de transparence et des obligations de diligence de conformité et, à l’intérieur, il y a encore d’autres sous-catégories.
C’est vrai que c’est un texte assez intéressant parce qu’il y a beaucoup de choses, il y a beaucoup d’acteurs, on sort un petit peu de cette relation bilatérale qui a longtemps existé entre les plateformes et le régulateur et on rentre dans une nouvelle ère parce qu’il y a cette transparence qui est très présente dans le texte.

Étienne Gonnu : Je ne veux pas passer à côté de mentionner l’acronyme qui est sorti un peu de ce texte : on parle des VLOP pour Very large online platforms, qui, je pense, a amusé pas mal de personnes.
Bravo pour cette synthèse qui n’est pas évidente sur un texte quand même très complexe, on sent ta profession professorale.
Donc difficulté pour les plateformes dont on sait qu’elles fonctionnent en réalité sur la viralité, notamment la viralité des contenus racistes ou à friction qui créent de la tension et un effet négatif.
Merci pour cette précision.
Puisqu’on parle de contexte, je pense qu’il est intéressant, je l’ai évoqué, qu’on parle aussi un peu du contexte français et actuel parce qu’un projet de loi en cours de travaux, en cours de discussion à l’Assemblée nationale, le projet de loi SREN, sécurité et régulation de l’espace numérique dont parlaient justement les Costy dans leur chronique juste avant notre échange. Ce projet de loi est en discussion. Il a déjà été discuté au Sénat, il vient d’être discuté à l’Assemblée en commission et, la semaine prochaine, il repart en séance publique, il suit donc sa navette habituelle.
C’est intéressant qu’on ait ce projet de loi, alors même qu’on a un règlement européen. On rappelle que l’application des règlements européens est directe, ce n’est pas une directive qui nécessite une transposition. Quelle est donc la raison d’être de ce projet de loi SREN qui intervient ? On sent au niveau de l’Europe, mais c’est particulièrement vrai au niveau français, une forme de sur-légifération. On aime beaucoup légiférer sur le numérique, inventer des choses. Il y a quelques années, dans les années récentes, on a eu la loi contre la haine en ligne, par exemple, qui a été largement censurée par le Conseil constitutionnel. C’était à nouveau cette volonté de rendre les plateformes non seulement responsables, mais presque directement responsables de la mise en œuvre des lois, de l’encadrement de la liberté d’expression en ligne qui ne devrait pas reposer spécifiquement sur ces plateformes ; je pars sur d’autres débats. Voilà le contexte français. Quel regard pourrais-tu nous apporter, justement, sur celui-ci ?

Suzanne Vergnolle : En effet, il s’agit d’un règlement, donc, pour nos auditeurs qui ne sont pas experts de droit européen, c’est tout à fait juste : un règlement est en principe d’application immédiate.
Toutefois, on constate que dans le DSA, dans le règlement, on a quand même quelques dispositions qui laissent un peu de marge de manœuvre aux États membres, notamment rien que celle de désigner quel sera le régulateur qui sera en charge de mettre en œuvre, au niveau national, les règles qui sont applicables aux services intermédiaires. Rien que là-dessus, le législateur français devait intervenir pour, au moins, nommer un régulateur national, un digital services coordinator, un coordinateur des services numériques, ce qui est assez intéressant d’ailleurs parce qu’il coordonne, potentiellement avec d’autres autorités, les enjeux liés aux services numériques. En France, le régulateur qui est pressenti, qui sera très certainement nommé c’est l’Arcom [Autorité publique française de régulation de la communication audiovisuelle et numérique] et il a la volonté de travailler avec les autres autorités, notamment la CNIL en matière de protection des données, parce qu’il y a des dispositions, par exemple en matière de publicité ciblée, de protection des mineurs, qui sont plutôt de la spécialité de la CNIL que de l’Arcom. L’idée c’est donc de travailler en bonne entente ensemble.

Étienne Gonnu : Je précise juste que l’Arcom est une institution récente, dont tout le monde n’a pas forcément entendu parler, c’est la fusion l’Hadopi [Haute autorité pour la diffusion des œuvres et la protection des droits sur internet] et du CSA [Conseil supérieur de l’audiovisuel], et qui a, en plus, de nouveaux pouvoirs, de nouvelles responsabilités, simplement pour préciser.

Suzanne Vergnolle : Quelle est la raison d’être de ce projet de loi ? À mon sens, c’est de s’assurer qu’on ait quand même un régulateur qui soit présent le plus tôt possible pour qu’il puisse avoir une légitimité dans ses travaux le plus tôt possible, rien que de mise en place et d’accompagnement de la Commission européenne qui a besoin des régulateurs nationaux. En fait, alors là c’est vraiment en tant que juriste, la crainte que je vois avec la volonté du législateur français de vouloir modérer, notamment d’imposer aux navigateurs des suppressions comme c’était dit dans la chronique tout à l’heure, le problème c’est qu’on a déjà beaucoup d’articles dans le DSA, on a déjà une législation qui s’applique au niveau européen, donc une charge qui est quand même assez importante pour les entreprises qui travaillent au niveau européen, j’ai peur que vouloir faire trop de choses en même temps, ça risque juste de ne pas bien prendre, que la mayonnaise retombe, alors même qu’on a un texte qui est issu d’un consensus assez cohérent. Peut-être mon petit mot à l’égard du législateur français, c’est d’être vigilant, de s’assurer de ne pas vouloir aller trop loin parce qu’on a déjà un texte qui est très ambitieux, qui est très intéressant en termes de protection des libertés en ligne.

Étienne Gonnu : Je trouve cela intéressant. On voit aussi comment, finalement, la législation entre l’Europe, la France, ce n’est pas juste de la législation technique, il y a aussi beaucoup d’enjeux politiques. On sait que la France occupe une place particulière dans l’Europe aux côtés de l’Allemagne, il y a cette volonté d’être moteur, peut-être aussi avec cette idée qu’en faisant de la législation au niveau national essayer d’influencer, finalement, l’évolution des législations au niveau européen. On sent peut-être aussi cette tension qu’il a pu y avoir sur d’autres textes, parfois certains textes ont essayé d’anticiper des travaux au niveau européen et ça peut se ressentir là.

Suzanne Vergnolle : Oui. Le règlement sur les services numériques, le DSA, a été justifié non seulement parce que les règles européennes de la directive de 2000 étaient un petit peu trop vieilles, disons, mais aussi parce que des pays commençaient à adopter leur propre législation, notamment l’Allemagne avec la loi NetzDG [loi Netzwerkdurchsetzungsgesetz], une loi qui a été énormément décriée en Allemagne et puis, évidemment, avec en France la loi contre la haine en ligne qui a été complètement retoquée par le Conseil constitutionnel, mais qui a retrouvé son chemin via la loi contre le séparatisme quelques années plus tard. En fait, on avait des dispositions nationales qui créent une espèce de problème parce qu’on n’aime pas, en Europe, quand il y a des différences entre les États, on aime que ce soit le plus simple pour une entreprise, sur le territoire européen, de se conformer à la loi.

Étienne Gonnu : Tout à fait. Je me perds dans mes notes, je m’étais rajouté une question, si elle ne me revient pas, ce n’est pas grave.
Tu as parlé de responsabilité, ça vient créer un enjeu, notamment cette loi Avia contre la haine en ligne qui a pour ambition d’imposer des délais très précis — une heure, 24 heures — de retrait de contenus. On voit bien que la question ne se pose pas pareil pour de très grandes plateformes, avec de très grands moyens, et pour de plus petites plateformes, de l’impact ça peut avoir. Tu parlais juste avant de responsabilité, de devoir retirer du contenu une fois qu’on est informé, qui est un peu le régime de base, c’est un critère beaucoup plus flexible qui est celui de diligence, en fait, qui s’adapte aux réalités concrètes, matérielles, des personnes. En gros, est-ce qu’elle donne les moyens suffisants pour répondre à leurs responsabilités et on voit bien comment avoir des mesures précises, des délais précis, peut impacter ça. Cette volonté de sur-légifération est un peu une des craintes.

Suzanne Vergnolle : À vrai dire même pour les très grandes plateformes : le délai d’une heure ne permet pas, même à une très grande plateforme qui a une armada de juristes, etc., de prendre une décision informée, pondérée, dans les temps, etc. Pour certains contenus, on pense à la diffusion en direct d’attentats, on se dit qu’il faut effectivement couper le plus vite possible et après se poser des questions. Mais le gros risque qu’on a vraiment en termes de modération des contenus, c’est le risque de dit sur-censure, c’est-à-dire de censurer pour éviter la responsabilité, de se dire « dans le doute, je préfère retirer le contenu, donc potentiellement porter atteinte à la liberté d’expression et d’information des personnes, plutôt que de prendre le risque, en tant que plateforme, de voir ma responsabilité engagée. »

Étienne Gonnu : Absolument. Pour les personnes qui s’intéressent à ce sujet, on sait que la pédocriminalité et le terrorisme sont vraiment les deux épouvantails qui servent à faire passer ce genre de mesure. Je pense que personne ne défend le fait qu’il y ait la liberté d’expression de publier ce genre de contenu, qu’il s’agisse de pédocriminalité ou de terrorisme, mais on peut pas, finalement, mettre à bas toute la défense et tout le régime de la liberté d’expression parce que ce genre de contenu existe. On sait que dès qu’il s’agit de censurer ou d’atteindre un peu à la liberté d’expression, les deux étendards portés sont les textes contre la pédocriminalité et contre le terrorisme, ça fait des années que c’est vrai.
Sur les débats sur la loi de régulation de l’espace numérique et, globalement à chaque fois, c’est une rengaine qui revient. On encore entendu la semaine dernière en commission, pourtant on est en 2023, qu’Internet serait un Far West, je cite très précisément une députée qui l’a dit, qu’importe son nom je ne m’en souviens plus. On entend parfois qu’Internet serait une zone de non-droit, que ce qui est toléré dans la vie réelle ne devrait pas être toléré en ligne, ce qui n’est pas le cas, d’ailleurs ce qui est en ligne est généralement bien plus légiféré que ce qui est hors ligne. Comment réagis-tu quand tu entends cela ? Qu’est-ce t’évoque cette idée du Far West d’Internet ? Est-ce qu’il y a une réalité derrière cette expression ?

Suzanne Vergnolle : C’est une expression qui a beaucoup été utilisée par le commissaire Thierry Breton au niveau européen, qui avait même fait des gifs avec des cowboys, etc., c’était assez intéressant.
Je dirais que ça se vend bien en termes de communication, pourquoi pas, effectivement dire qu’il faut réguler, etc., le message passe bien. J’ai envie de répondre que si, effectivement, c’était tant un Far West, on n’aurait pas besoin de monter autant de cours en droit du numérique, on n’aurait pas besoin d’avoir autant d’heures de formation, que ce soit en termes de droit des données à caractère personnel, que ce soit en termes de régulation de la parole en ligne, que ce soit en termes de cybersécurité ; on a des textes, des textes, ça prolifère ! Rien qu’au niveau européen, récemment on a le Data Act, le Data Governance Act, le règlement sur la protection des données, le règlement sur les données à caractère non personnel, et j’en passe, on a énormément de textes. À vrai dire, en tant que juriste en droit du numérique, il y a beaucoup de sujets à couvrir, en fait on n’a plus vraiment de juristes transverses tellement on a de sujets avec des spécificités. C’est donc imagé, ça passe en termes de com’, mais, en termes de réalité, je pense que c’est assez loin de la réalité pratique des professionnels qui sont confrontés à une masse assez importante de textes qui arrivent, qui sont des textes longs, compliqués, pas forcément évidents à digérer, parce qu’on ne comprend pas toujours exactement l’objectif, parce que les textes sont des textes de compromis, parfois on a on a une phrase qui est un peu contredite par une autre ou ce genre de difficulté. On va donc aussi avoir, comme on a en ce moment sur le sujet règlement sur la protection des données, RGPD, beaucoup d’interprétations qui sont en train d’arriver de la part de la Cour de justice de l’Union européenne et des CNIL, Commissions nationales de l’informatique et des libertés à peu près partout dans les États membres.

Étienne Gonnu : Puisque tu parles de l’importance, on va dire, du corpus législatif qui concerne le droit du numérique, un droit effectivement très large, on va peut-être commencer à se poser cette question, qu’on a évoquée : comment collectivement peut-on agir déjà dans l’élaboration globalement des règles ? Quand on a préparé l’émission, tu m’as dit qu’il y a des nouveautés dans le corps même du texte, dans l’élaboration du Digital Services Act, du DSA, il y avait des nouveautés aussi dans le rapport : comment la société civile a pu être incluse dans le processus, tu pourras nous en dire deux mots. Et puis voir aussi ce que prévoit ce texte en termes de transparence et d’intégration, de coopération avec la société civile.
Avant d’attaquer ça, je pense qu’on peut se faire une petite pause musicale pour respirer un petit peu. Je vous propose écouter Playmate par Terror Bird. On se retrouve dans environ deux minutes. Belle journée à l’écoute de Cause Commune, la voix des possibles.

Pause musicale : Playmate par Terror Bird.

Voix off : Cause Commune, 93.1.

Étienne Gonnu : Je suis Étienne Gonnu pour l’April. Je suis avec Suzanne Vergnolle, docteur en droit et autrice d’un rapport sur le sujet de comment construire collectivement un environnement en ligne plus sûr et plus transparent ?, en partant de l’exemple du Digital Services Act, du DSA, le règlement européen sur les services numériques.
N’hésitez pas à participer à notre conversation au 09 72 51 55 46 ou sur le salon dédié à l’émission sur le site causecommune.fm, bouton « chat ».

Avant la pause, on a bien pris le temps de poser le contexte dans lequel s’inscrit notamment ce DSA, ce qu’il prévoit de manière générale, dans quel contexte politique il intervenait, ce qui se passe aussi en France. On peut maintenant, peut-être, entrer un peu plus précisément dans notre sujet qui est cette idée d’une construction collective, notamment comment mettre en œuvre une politique plus transparente.
Comme je le disais, et c’est ce que montre ton rapport, dans ce DSA il y a des dispositions assez novatrices, il me semble que c’est ton terme, sur cette idée de mesures de transparence. Est-ce que tu veux nous présenter cela ?

Suzanne Vergnolle : La première chose à avoir en tête c’est qu’il y a plusieurs justifications à ces mesures de transparence.
Il y en a une qui est la même que celle qui existait déjà dans les années 2000 avec l’adoption de la directive 2000/31, la directive e-commerce, qui est de garantir la confiance dans l’environnement numérique. En 2000, on avait peur que les gens n’osent pas aller en ligne, n’osent pas faire leurs achats en ligne, etc., on est très loin de ça, mais on a quand même des vrais problèmes de confiance aujourd’hui. En 2023, on a encore des gens qui sont victimes d’usurpation d’identité, qui ne veulent plus jamais mettre un pied sur Internet, qui donc se privent, potentiellement, de ce que ça a à offrir. C’est un exemple un peu extrême, mais on a quand même encore des problèmes de confiance qui sont différents, mais qui sont toujours présents.
Cette transparence, en quelque sorte, permet de rétablir la confiance, comme c’est souvent le cas quand on prend des mesures de transparence, c’est de montrer : en fait, vous imaginez des choses, voilà la réalité, voilà le nombre de contenus qu’on retire, voilà le nombre de types de contenus qu’on a sur nos plateformes, comment c’est retiré, est-ce que c’est de la part des autorités qui nous disent qu’il faut retirer, donc des injonctions, ou est-ce que c’est via des utilisateurs ou des signaleurs de confiance qu’on retire ces contenus. Faire cette transparence c’est donc aussi rétablir un peu de la confiance dans le fonctionnement des services.
L’autre justification, c’est de rééquilibrer le déséquilibre informationnel, qui existe un peu par nature, entre les destinataires du service, donc les utilisateurs, et les services intermédiaires, particulièrement les grandes plateformes ou les très grands moteurs de recherche. La réalité c’est qu’il y a peu de connaissance sur le fonctionnement des services. On sait qu’on subit de la publicité ciblée, on ne sait pas trop ce qui est utilisé, quelles sont les données qui servent à nous cibler ; on sait qu’on est soumis à des algorithmes de recommandation, on ne sait pas trop comment ça fonctionne.
En fait ce texte, par ses multiples dispositions – il y en a plus de 80 quand même –, vise justement à imposer de la transparence à tous les acteurs qui sont impliqués dans le DSA. On a donc de la transparence pour tous les services : tous les services intermédiaires doivent établir des rapports de transparence ; on a de la transparence pour les régulateurs, donc les régulateurs nationaux doivent ainsi établir des rapports pour dire ce qu’ils font, comment ils le font, etc., la Commission européenne, les signaleurs de confiance. En fait, à tous les niveaux on de la transparence et c’est vraiment quelque chose qui est assez intéressant et qui est assez nouveau, dans le sens où, souvent, on parle de transparence un peu comme d’une carte joker quand on veut dire qu’on fait des choses pour les gens, mais quand on regarde concrètement dans les lois, il y a rarement des vraies dispositions avec des vrais articles qui sont activables et qui permettent aux gens d’avoir accès à de la vraie information.
Des collègues appellent le DSA le data-generating piece of legislation, « une pièce de loi qui vise à générer de la donnée » et, en réalité, c’est tout à fait vrai. On va potentiellement avoir des masses de données super intéressantes qui vont pouvoir aider les destinataires des services, donc les utilisateurs, à un peu mieux comprendre ce qui se passe sur les services.

Étienne Gonnu : C’est intéressant, d’ailleurs j’aurais dû commencer par cette question, tu y as répondu en bonne partie, mais je pense qu’on peut quand même se la reposer de manière plus claire : de quoi parle-t-on quand on parle de transparence ? Comme tu disais, c’est une carte joker qui est régulièrement invoquée. Qu’est-ce que ça veut dire et pourquoi, en fait, est-ce une question de démocratie fondamentale ?
À l’April, par exemple, on défend le logiciel libre dont un des buts est d’amener de la transparence sur la manière dont on va développer la technique. C’est, pour nous, un enjeu de transparence et un enjeu de liberté informatique pour tout le monde, pas seulement pour les personnes qui développent. Lorsqu’on parle de législation, de démocratie, pourquoi cet enjeu de transparence, en le définissant, est-il fondamental ?

Suzanne Vergnolle : Je pense que quand on parle de démocratie, voire de service public, pourquoi la transparence est-elle fondamentale ? Parce que le service public existe grâce à la confiance que les citoyens ont dans leur État, dans leur mode de gouvernance, et, sans cette confiance, on « perd », entre guillemets, on crée du clivage, on crée des tensions ; sans cette confiance on crée de la frustration et on risque d’avoir le chaos, j’exagère à peine. En fait, ces mesures de transparence c’est aussi pour montrer aux citoyens la réalité de l’action publique. Ça c’est vis-à-vis du service public, mais de manière plus transversale en réalité. En fait, là encore, c’est l’opportunité d’Internet, du numérique, qui permet de faire le choix assez facile de la transparence, parce que c’est un choix : au début on choisit plus ou moins d’être transparent. C’est beaucoup plus difficile quand on écrit un livre, par exemple, de faire la transparence sur les différents éléments qui ont servi à l’écriture du livre, parce que, en fait, ce n’est pas numérisé, il y a donc un « coût supplémentaire », entre guillemets, de mettre à disposition, alors que, par défaut, la donnée existe directement de manière numérique, donc il y a cette idée, par défaut, de partager l’information.
Pourquoi est-ce important d’un point de vue démocratique, aujourd’hui, d’avoir des services numériques qui sont plus transparents ? C’est parce qu’on vit, démocratiquement aujourd’hui, une crise de confiance, que ce soit dans nos institutions, dans nos représentants, dans les services qu’on utilise. On a du complotisme à tour de bras, on nous manipule, d’ailleurs on ne sait pas qui est « on », parfois ce sont un peu les politiques, parfois ce sont un peu les grandes entreprises, parfois un peu des communautés, etc. En fait, la transparence permet aussi d’avoir un discours qui est plus ancré dans des réalités : vous dites qu’il y a tant de contenus terroristes, mais, en fait, quand on regarde concrètement sur les plateformes, il n’y a que tant de contenus réellement terroristes. Ça permet donc d’avoir des chiffres et de poser le débat dans une réalité concrète, pratique et réelle.

Étienne Gonnu : Je sais plus où je l’ai entendu, il y a un peu eu un changement dans les discours politiques, notamment des partis plus populistes d’extrême droite en particulier : on ne parle plus de « il se passe telle chose », « la criminalité augmente sur la base de », mais « on ressent », « les Français ressentent bien que », etc., ça évoque le ressenti plutôt que la réalité matérielle de ce qui se met en œuvre.
Tu évoques à juste titre, de manière régulière, cette idée de la confiance. C’est aussi pour cela que le logiciel libre ne concerne pas que les informaticiens et les personnes en mesure de lire le code : on sait que d’autres personnes peuvent lire le code et c’est juste sur quelle base on délègue cette confiance. Moi je ne suis pas capable de tout comprendre sur tout ce qui m’entoure, mais je sais que ça amène une sorte de garantie structurelle, je sais un peu mieux sur quelle base j’accorde ma confiance. D’ailleurs Laurent, dans sa chronique précédente, évoque cette question de confiance quand il dit que ça a été développé par des universitaires au Danemark, je crois. À l’idée que ce sont des universitaires, on va peut-être plus facilement leur accorder la confiance parce qu’on sait qu’ils sont tenus une certaine déontologie, etc.

Pour revenir à ce que tu évoquais, on entend souvent parler de cette transparence, tu dis que c’est d’être activable, ce qui est intéressant. Si, dans la loi, on a parfois tendance à faire des promesses ou à poser, finalement, des encouragements à la transparence, des encouragements à certaines pratiques, le fait que ce soit activable, ce sont finalement de vraies valeurs normatives, ça fait une grande différence.
Je pars un peu dans tous les sens, mais je trouve intéressant le parallèle qu’on avait évoqué quand on a préparé l’émission. On sait qu’une des premières, si ce n’est la première grande loi proposée par Macron, du moins par la majorité présidentielle, c’était pour rétablir la confiance dans la vie publique, donc une grande loi, une grande annonce, en fait il n’y avait rien de véritablement activable, justement.
Je ne sais pas si tu veux rebondir là-dessus puis nous préciser justement ce qui est activable et comment en fait ça prend corps.

Suzanne Vergnolle : C’est tout à fait juste. À cette occasion, on suivait les débats parlementaires avec les collègues de Regards Citoyens, on était dans les tribunes à l’Assemblée nationale. D’ailleurs, pour ceux qui ne savent pas, vous pouvez aller suivre les débats parlementaires dans les tribunes de l’Assemblée nationale, il faut juste s’inscrire à l’avance et puis on peut aller directement dans l’Assemblée voir ce qui se passe, c’est très amusant de voir des petites enveloppes passer de député à député, etc., bref ! Parenthèse à part, nous étions très frustrés parce que les députés parlaient en permanence de transparence, de transparence, et il n’y avait aucune disposition concrète qui offrait de la transparence aux citoyens. Et là, dans ce texte, on a, comme je le disais, plus de 80 dispositions concrètes, pas juste à l’égard des grandes plateformes ou des plateformes, mais aussi à l’égard des régulateurs, etc., qui sont activables et là, je pense qu’il va falloir être très vigilant parce que, comme toujours, on dit que le diable se cache dans les détails, je dirais même que le diable, en droit, se cache dans la mise en œuvre. Très concrètement on a cette obligation générale, par exemple de publier des rapports de transparence, mais que va-t-il y avoir à l’intérieur de ces rapports ? C’est cela qui est intéressant. En réalité, la plupart des très grandes plateformes ont mis en place des politiques de transparence et publient régulièrement des rapports de transparence, ça avait été initié en 2011 par Google. Elles publient donc chaque année des informations sur qui demande le retrait, quels sont les types de contenus qui sont retirés sur leur plateforme, etc.
Mais si on veut pouvoir faire des vraies comparaisons, assez fines, assez granulaires, au sein d’États sur certains contenus, etc., il va falloir que ces rapports de transparence aient une certaine forme de granularité et qu’ils soient assez fins, très détaillés pour que ce soit vraiment utile. C’est là où, en fait, la société civile va avoir sa place aussi, parce que ces dispositions sont activables, mais il va falloir en profiter, il va falloir analyser ces données, regarder ce qu’il y a dedans, voir ce qui se passe. Il y a donc un vrai rôle de la société civile et des organisations pour rester vigilantes et s’assurer que cette transparence n’est pas au service des services, au service des grandes plateformes, au service des hébergeurs, etc., mais qu’elle est au service des citoyens, de la démocratie, du débat public, de l’information basée sur de la réalité. Là c’est vraiment le « rôle », entre guillemets, de la société civile d’utiliser ces données pour en faire quelque chose.

Étienne Gonnu : Du coup qui est cette société civile qui va récupérer ces données ? Comment faire en sorte qu’elles lui soient utiles ? Les idées qui me viennent ce sont les journalistes, les chercheurs et les chercheuses, des associations peut-être. Pour toi, que regroupe cette notion de société civile qu’on entend en fait très souvent, mais qui n’est pas si souvent définie ?

Suzanne Vergnolle : C’est compliqué. Dans mon rapport, justement, je me suis un petit peu confrontée à cette difficulté-là. La définition de la société civile est en réalité très large, elle inclut tout et rien, à part l’État.
En tout cas, dans celle que j’ai retenue, j’ai considéré que les acteurs principaux qui ont vraiment une place dans la mise en œuvre de ce texte ce sont évidemment les associations, les chercheurs qui ont d’ailleurs, eux, des dispositions – je le dis aux chercheurs qui nous entendent : utilisez l’article 40 pour demander l’accès direct aux données des très grandes plateformes qui sont donc des données censées être protégées, qui ne sont pas accessibles au grand public, qui sont seulement accessibles aux chercheurs ; c’est une petite voie royale qui leur est consacrée en plus des dispositions générales de transparence. On a donc dit les associations qui constituent la société civile, les chercheurs, on a évidemment les citoyens, les personnes. En réalité, j’exclus plutôt l’industrie de cette catégorie, de manière un peu réduite, en tout cas pour activer ces éléments qui sont dans le DSA, parce que, en fait, il y a déjà des risques de droit de la concurrence, tout simplement, mais aussi parce que, effectivement, je pense que c’est un texte qui donne du pouvoir aux citoyens et ça serait beau qu’ils s’en saisissent.

Étienne Gonnu : Je pense que ça peut être répondu rapidement. Pour que ces données et que ces rapports remontés soient activables et utilisables, j’imagine qu’il y a quand même des critères, que ces données soient dans des standards ouverts, facilement accessibles. Que prévoit le texte sur ces questions ? Parce que si on a des données version Google, qu’on est obligé d’utiliser les outils Google pour les comprendre, ça atteint et ça limite la portée de ce droit.

Suzanne Vergnolle : Dans toutes les dispositions, il n’y a évidemment pas autant de détails que ce qu’on aimerait. C’est là où la Commission va prendre des actes délégués qui vont préciser dans quelles modalités les choses vont pouvoir être mises en place. Pour l’exemple de nos rapports de transparence, parce qu’on en a on en a déjà pas mal parlé, il faut que ce soit disponible au public, accessible sur une interface facile, etc., mais il n’y a pas encore le niveau de détail qu’on attend en termes d’accès automatisé et lisible par machine, ce genre de détails-là, aussi parce qu’on est sur un règlement. Il faut espérer que dans les actes délégués, qui seront pris par la Commission européenne, ce soit un petit peu plus détaillé dans ce sens-là.

Étienne Gonnu : D’accord.
Une petite anecdote, pour refaire un lien rapide avec le projet de loi en cours sur sécurité et réguler les espaces numériques, SREN. Une des dispositions de ce projet loi c’est de mettre en place des systèmes de vérification d’âge pour les sites, particulièrement les sites à caractère pornographique. Il y avait un amendement du groupe écologiste pour exiger l’ouverture des codes de ces systèmes pour faire la transparence, qui vont donc être une traduction technique de l’exigence légale de la mise en place de ces systèmes. L’argument de la rapporteure, donc de la majorité présidentielle, pour donner un avis défavorable à cet amendement, je cite quasiment mot pour mot ce qu’elle a dit : « En réalité votre amendement est possible et souhaitable, mais nous ne souhaitons pas le mettre de manière obligatoire dans le texte, donc avis défavorable ». C’est souhaitable, mais on ne souhaite pas le rendre activable. Quelque part, on reste dans l’incantation. J’ai trouvé la manière de répondre intéressante pour montrer toute la nécessité, finalement, de ne pas faire de la vraie loi, de donner des normes qui ont une portée normative.

Lorsque tu as présenté ton rapport, tu as notamment parlé de deux axes, la transparence, et tu as commencé à évoquer cette question de la place de la société civile dans l’élaboration des textes et ensuite, et je crois que c’est le cœur de ton rapport, dans la mise en œuvre des politiques publiques. Tu m’en avais un peu parlé quand on a préparé l’émission et je veux bien, peut-être, que tu reviennes sur comment a été élaboré et préparé ce DSA, sur la place qu’ont pu avoir des membres de la société civile, notamment des associations, dans le cadre de l’élaboration.
À l’April, par exemple, s’il y a des projets de loi qui vont nous intéresser, qui vont toucher au logiciel libre, on va prendre contact avec des députés, on va proposer des amendements. Ces contacts existent, mais, finalement, ils arrivent peut-être après, dans un second temps. C’est difficile d’interagir notamment quand l’État, le gouvernement, prévoit un projet de loi ; en général, la société civile va plutôt intervenir dans un second temps, au niveau du législateur.

Suzanne Vergnolle : Au moment où la procédure est transparente en réalité. Encore une fois, c’est un des gros soucis qu’on a en France : toute la préparation du projet de loi se fait de manière secrète, avec des réunions interministérielles qui produisent des documents qui ne sont pas accessibles au public parce que c’est considéré comme un des secrets, dit le secret des délibérations du gouvernement, alors même que c’est un sujet purement démocratique et qu’on impose cette transparence au stade du Parlement. Donc oui, à titre personnel, je considère qu’il faut absolument faire la transparence sur ces documents qui sont produits à l’occasion des délibérations faites par le gouvernement sur ses projets de loi pour savoir comment ont été opérés les arbitrages. Le citoyen a le droit de savoir quels ont été ces arbitrages et pourquoi ils ont été effectués.

Au niveau européen, j’avais regardé pour la directive 95-46 qui est la directive de protection des données qui avait été adoptée il y a longtemps, en 1995, il avait fallu six ans, il me semble, pour adopter le texte. Pour le RGPD, le règlement général pour la protection des données, la première proposition européenne était de 2012, il a été adopté en 2016, donc quatre ans. On sent qu’il y a des processus législatifs qui sont assez longs sur les sujets numériques et en fait, là, en ce moment, on a une accélération. Le DSA, le règlement sur les services numériques, a été adopté, ainsi que le règlement sur les marchés numériques qui est le jumeau, la petite sœur, la grande sœur, ils font partie de la même famille, ces deux textes ont été adoptés très rapidement. On pourrait effectivement craindre que les processus d’écoute, d’entente n’aient pas été optimum.
De mes discussions avec les associations qui font du travail de lobbying au niveau européen, j’ai pu avoir des retours, elles m’ont plutôt dit « on a eu la possibilité de se faire entendre, on n’a pas toujours été entendues, mais on a au moins eu la possibilité de se faire entendre ». Au sein des services de la Commission qui travaillaient sur ce texte il y avait une volonté de faire participer la société civile alors que ce n’est pas toujours évident, en tout cas de réserver du temps, d’éviter certaines sollicitations du secteur privé et de privilégier, parfois, celles des associations, donc c’est plutôt bon signe ; c’est dans cet environnement que le texte a été adopté.
Encore une fois, c’est un texte assez long, assez compliqué, comme toujours un texte de compromis où il y a des thèmes qui sont rajoutés, par exemple il y a une réglementation des places de marché. Certaines personnes disaient qu’il faut une réglementation séparée parce que c’est un problème un peu différent du service assez classique type Facebook où on publie du contenu, ce n’est pas tout à fait pareil. D’ailleurs, c’est assez intéressant de voir que Zalando, une des très grandes plateformes qui a été désignée par la Commission européenne, conteste sa désignation comme très grande plateforme sur ce fondement même en disant « nous, en fait, on ne fait pas exactement le même business que les autres. »

C’est vrai que la place de la société civile dans l’élaboration de ce texte a été, de ce que j’ai cru comprendre de la part des associations, plutôt pas trop mal. Maintenant on a le texte, l’idée c’est de faire en sorte que la société civile ait une place dans la mise en œuvre de ce texte, que ce soit au niveau national, mais aussi européen. L’idée de mon rapport c’était donc de réussir à trouver un équilibre entre une coopération intelligente avec le régulateur et garantir quand même l’indépendance pour éviter, en fait, de faire du travail gratuit pour le régulateur et de perdre un petit peu cette capacité. Le fait d’être indépendant est absolument nécessaire, notamment vis-à-vis des plateformes, vis-à-vis des services, mais aussi vis-à-vis du régulateur. On voit qu’il y a des assos qui font beaucoup de bruit par rapport au régulateur, je pense notamment à l’association None Of Your Business, une association de protection des données à caractère personnel qui est très vocale contre l’Agence irlandaise de protection des données, qui, fréquemment, dit « ça ne convient pas », publie des documents et se fait menacer d’être poursuivie derrière parce que ce sont des documents dans le cadre de procédures. Il y a quand même ce besoin d’indépendance parce que, potentiellement, les associations peuvent aussi faire des plaintes. Il y a, quand même encore, ce besoin d’indépendance.

Étienne Gonnu : Je précise que None Of Your Business, c’est « ma vie privée ce ne sont pas vos affaires ».

Donc il y a un enjeu, tu parles d’indépendance. À nouveau en France, et je pense que c’est le cas dans beaucoup d’autres pays, on nous ressert quand même très souvent l’invocation du « dialogue social », « il y a eu un vrai échange avec la société civile ». Parfois, assez légitimement, on peut en douter, je pense notamment à la loi sur les retraites : d’un côté on nous disait qu’il y avait énormément de dialogue, visiblement on peut en douter. Comment assurer la réalité de ce dialogue, la réalité de la contribution et de la place laissée à la société civile, aux acteurs et actrices de la société civile ?, parce qu’il y a un enjeu. C’est facile de le dire mais comment évite-t-on le washing, le nettoyage ? On sait qu’il y a le greenwashing pour faire passer pour vertes des politiques qui ne le sont pas. Là on pourrait avoir, imaginons, un dialogue washing. Comment faire en sorte pour que ce lien soit réel ?

Suzanne Vergnolle : Dans mon rapport, j’ai commencé par un petit peu cartographier les différents moyens qui peuvent exister pour impliquer la société civile dans la mise en œuvre des politiques publiques. Évidemment, on a la consultation publique qui est le niveau à peu près 1 de la coopération ; on a l’existence de listes d’experts qui permettent d’avoir des listes de gens, quand on a besoin on les appelle et on leur demande de venir accompagner le régulateur ou l’autorité publique ; on a l’existence de groupes d’experts où là, en fait, c’est l’autorité publique qui compose un groupe avec des experts et qui participe à ce groupe dans l’objectif de prendre en compte ces travaux dans le cadre de son activité ; on a aussi les plaintes, ce n’est pas vraiment de la coopération, c’est plus on pousse vers un certain agenda ; on a aussi les événements, en gros on organise une conférence, on organise un atelier, un workshop, on dit qu’on essaye de travailler.
Dans ce rapport, mon projet c’était de trouver quelque chose qui soit utile non seulement pour les associations qui ont des ressources humaines et matérielles limitées – on a souvent des associations qui sont composées de bénévoles avec quelques salariés qui ont donc un temps assez limité pour tous les sujets qu’ils doivent traiter –, mais aussi pour l’autorité publique, parce que, pour elle aussi, c’est de l’investissement de mettre des personnes à disposition. Dans mes recommandations il y a pas mal d’analyses sur comment on crée un groupe d’experts qui est fructueux pour tout le monde.
À ce titre, d’ailleurs, j’ai été très agréablement heureuse de voir qu’une offre d’emploi a été ouverte à l’Arcom, l’autorité dont on parlait tout à l’heure, qui vise justement à avoir une personne chargée de mission qui fait la coopération, le trait d’union, entre l’autorité et la société civile. C’est typiquement une super idée parce que ça va permettre de ramener les revendications de la société civile au sein même du régulateur, donc d’avoir cette voix qui est portée.
Plus précisément sur les groupes d’experts, j’ai toute une série de recommandations sur comment on crée un groupe d’experts qui est utile pour toutes les parties prenantes avec, notamment, des recommandations très pratico-pratiques : comment on fait les réunions, notamment comment on crée l’agenda. Par exemple, celui qui écrit l’agenda c’est celui qui a le pouvoir de déterminer les points qui vont être discutés, donc évidemment un agenda qui est co-écrit ; la capacité de pouvoir demander et obtenir un remboursement, éventuellement, pour des petites associations qui participeraient à ce groupe. Beaucoup de recommandations sur ce groupe d’experts parce que, à mon sens, c’est un très bon moyen d’imposer, en fait, une présence, pour la Commission européenne, de la société civile et de s’assurer que le travail de la Commission européenne est informé par la réalité du terrain. La Commission européenne ne reçoit pas de plaintes, c’est très intéressant de savoir qu’ils ont dit « les plaintes ne nous intéressent pas, on n’en a pas besoin, on va faire notre propre travail. » Il va donc falloir que le terrain vienne quand même à eux d’une certaine façon et, la meilleure façon, c’est d’avoir des experts de la société civile, que ce soit des chercheurs, des profs, des associations, qui font ça au quotidien, qui ont une approche très pratico-pratique pour savoir quels sont les problèmes et surtout quelles sont les plateformes qui posent le plus de problèmes, quelles sont les plateformes sur lesquelles il faut mettre des moyens pour enquêter.
Évidemment, ce groupe d’experts ne peut pas intervenir dans le cadre de l’enquête, mais, au moins, au moment de décider qui va être enquêté, que la société civile puisse avoir son mot à dire me paraissait important. Le gros avantage du groupe d’experts c’est que c’est un forum qui est établi. Contrairement à une liste d’experts où on peut dire « oui, oui, on a appelé des experts, on les a consultés », là il y a un agenda sur le long terme, des agendas par séance. On a une volonté, sur le long terme, d’inscrire une vraie place de la société civile dans le choix, la mise en œuvre, le suivi de l’application de ce texte.
Mon rapport s’intéresse principalement au niveau européen parce que c’était, entre guillemets, « l’urgence », mais au niveau national c’est parfaitement possible de faire la même chose. L’Arcom pourrait très bien décider de mettre en place un groupe d’experts pour l’aider à décider qui ils doivent poursuivre, pour l’aider à décider quels sont les sujets difficiles, compliqués. D’ailleurs, ce n’est pas que l’Arcom qui peut faire ça, la CNIL pourrait décider de faire ça, des autorités administratives indépendantes pourraient très bien décider de mettre en place des collèges d’experts qui les aideraient dans leur travail au quotidien.

Étienne Gonnu : Pour être clair sur la question, dans le DSA, il me semble, tu me corrigeras, le texte prévoit l’existence de ce groupe d’experts.

Suzanne Vergnolle : C’est formidable parce que ça ne le prévoit pas. Tu as lu mon rapport, donc à la fin tu es convaincu !

Étienne Gonnu : D’accord ! Ta recommandation c’est justement qu’il faut construire un groupe d’experts avec des vigilances sur la manière dont il va s’organiser et se mettre en œuvre. Le but ce n’est pas d’importer les rapports de force parce qu’il y a des intérêts divergents. Je crois que tu m’avais dit, parmi d’autres recommandations, qu’il ne faut pas les industriels parce qu’ils sont déjà en position de pouvoir et de domination, leurs voix n’ont pas besoin d’être entendues dans le groupe d’experts. Il faut créer, c’est tout ce que tu viens de dire, un groupe indépendant, ouvert, qui prend en compte la réalité et aussi l’importance structurelle. Vous oyez où je veux en venir je vais arrêter de m’emmêler les pinceaux là-dedans. Ta recommandation est là.
J’avais une question sur le chat de la radio. En fait, tu as déjà en partie répondu, mais tu peux compléter si tu le souhaites, sur les moyens donnés à l’Arcom pour réguler. On voit donc que l’Arcom va recruter quelqu’un. On sait que les moyens humains sont souvent le nerf de la guerre pour la mise en œuvre. Est-ce que c’est techniquement possible, pour l’Arcom, d’intervenir, je pense qu’on le verra. Mais déjà, du moins, des moyens sont délégués par cet emploi.

Suzanne Vergnolle : Plusieurs fiches de postes ont été ouvertes avant même que l’Arcom soit officiellement désignée comme autorité nationale, le service coordinateur. Plusieurs postes ont été ouverts. Évidemment, c’est le nerf de la guerre pour toutes les autorités, mais c’est aussi le nerf de la guerre pour tout le monde, même pour les plateformes aujourd’hui. Il y a tellement de choses à mettre en place qu’il va falloir qu’elles recrutent du monde et, en réalité, il n’y a pas beaucoup de juristes qui sont formés, il y en a, bien évidemment, mais l’absorption est très importante, c’est donc difficile d’avoir des profils compétents. Là on est sur des textes qui sont très compliqués, qui requièrent une certaine expertise. Des postes ont été ouverts, des moyens semblent être mis. Évidemment, toutes les autorités se battent chaque année pour avoir plus de moyens.
Je pense concrètement qu’une bonne façon d’éviter une déperdition de l’énergie c’est peut-être d’avoir des profils très différents, d’avoir des datascientists en interne qui peuvent faire de l’analyse, d’avoir des juristes, d’avoir des personnes qui ont une meilleure compréhension des politiques publiques, d’avoir, en fait, ces différents profils qui travaillent ensemble pour éviter qu’un juriste parte sur une idée qui, en réalité, est infondée.
Il y a pas de données, encore une fois on est sur la réalité pratique, et je pense qu’une des forces des autorités c’est de diversifier à l’intérieur, en interne, les profils. Ça serait une de mes recommandations qui n’est pas dans mon rapport, mais que je rajoute. Et aussi, évidemment, de travailler avec la société civile même si ça prend du temps. Quand je discutais avec, par exemple l’UFC-Que choisir, lors de mes interviews j’ai discuté avec une personne d’UFC-Que choisir, elle me disait qu’eux, en tant qu’association, pouvaient transférer à la Commission européenne de la réalité de terrain que la Commission européenne n’avait pas du tout. Exemple, une pratique commerciale déloyale : le service disait qu’il n’y en a plus et, en fait, l’UFC-Que choisir continuait de recevoir des plaintes. Cette information-là est vraiment importante.

Étienne Gonnu : Malheureusement, on arrive sur la fin de notre échange qui est passionnant. Je vais me permettre de tirer un lien que je vois. Tu parlais de l’importance de la donnée, de la remonter. La question de comment donner de la valeur et de comment faire entendre cette parole scientifique qui va pouvoir se construire sur la transparence des données ; une réponse c’est finalement le groupe d’experts tel que tu l’as décrit. En fait, il faut donner les espaces pour que cette parole scientifique puisse être entendue.
J’aimerais que tu nous proposes, peut-être en conclusion, les points forts à retenir et je te glisse une autre question dedans : est-ce que tu es en confiance ? Finalement on dresse un bilan plutôt positif et encourageant sur le DSA, mais sans être naïf sur le contexte politique dans lequel il intervient, quels sont, pour toi, les éléments importants à retenir ?

Suzanne Vergnolle : Je pense que le DSA est un texte opportun, qui arrive au bon moment et qui est plein de promesses.
Il reprend les principes historiques et qui fonctionnaient de la directive e-commerce.
Il propose des nouvelles obligations qui visent à garantir un meilleur équilibre informationnel et à donner du pouvoir aux utilisateurs et à la société civile.
À mon sens, il y a deux grands thèmes qui ressortent de ce texte et qui en font un texte fondé sur le collectif et la transparence, c’est évidemment la capacité de coopérer qui est complètement en germe dans le texte et les obligations de transparence qui sont absolument multiples et qui permettent, justement, de favoriser cette coopération.

Est-ce que je suis optimiste ? Je suis de nature optimiste, donc plutôt, mais je pense que c’est aussi à nous, individus, militants potentiellement, de vouloir se battre pour un environnement qui nous ressemble et qui ne soit pas complètement pris par des intérêts qui nous semblent antidémocratiques. On a donc aussi, un petit peu, une responsabilité, les plateformes ont des responsabilités, mais, en tant qu’individus, on a aussi une responsabilité de participer à l’élaboration de la mise en œuvre de ce texte.

Étienne Gonnu : Notamment au travers des collectifs, comment collectivement intervenir sur ces sujets.
Merci beaucoup, c’était vraiment passionnant. Avant de se quitter, je vais te redonner un peu la parole, ce n’était pas directement notre sujet du jour, mais c’est plutôt une actualité te concernant. Tu proposes, au Cnam, une formation en anglais sur les règles et les politiques publiques en lien avec les services numériques, peux-tu nous en dire deux mots avant qu’on se sépare ?

Suzanne Vergnolle : Bien sûr. C’est un nouveau cours qui vise justement à étudier et analyser les nouveaux enjeux juridiques et politiques de ces nouveaux textes, donc du règlement sur les services numériques, mais aussi du règlement sur les marchés numériques, on n’en a pas parlé, mais c’est aussi un texte très important. C’est un cours entièrement dispensé à distance, qui vise justement à permettre à des juristes et non juristes, des informaticiens, des curieux, de mieux comprendre l’ensemble de ces règles, de mieux comprendre les enjeux très concrets qui sont liés à la mise en œuvre concrète de ces règles, par exemple les utilisateurs, le calcul, etc. En fait, ça s’inscrit dans un objectif de former les juristes en France sur les sujets européens et de les former dans une langue qui est souvent leur langue de travail, en tout cas la langue d’édition, d’écriture des contrats, etc., donc leur apporter cette pratique.
En tout cas, merci beaucoup pour l’invitation. J’ai été très heureuse d’être ici. Merci à tous vous, vous êtes tous très professionnels,

Étienne Gonnu : Merci à toi, Suzanne, donc Suzanne Vergnolle. Tu es docteur en droit et tu as récemment écrit un rapport visant à renforcer la coopération avec la société civile dans la mise en œuvre du Digital Services Act ou DSA.
Merci beaucoup, c’était un vrai plaisir d’échanger avec toi.
Je vous propose de passer directement à notre dernier sujet.

[Virgule musicale]

La pituite de Luk sur le thème « Dur et mou »

Étienne Gonnu : La pituite de Luk est une chronique rafraîchissante au bon goût exemplaire qui éveille l’esprit et développe la libido. Il a été prouvé scientifiquement qu’écouter la pituite augmente le pouvoir de séduction, augmente le succès dans les affaires ou aux examens.
Luk oppose aujourd’hui le concept de réalité molle à celui de réalité dure. On l’écoute et on se retrouve juste après, toujours en direct sur cause Commune, la voix des possibles.

[Virgule sonore]

Luk : J’ai un peu relu mes anciennes chroniques pour me remettre dans le bain de cette nouvelle rentrée et j’ai réalisé à quel point je fais une fixette sur ce sentiment que notre monde est une sorte de pataugeoire au sein de laquelle faire la différence entre la réalité, le fantasme et le pur mensonge est sans espoir. Cette reprise ne fera pas exception, car ces derniers mois n’ont pas arrangé les choses.

L’ONU a annoncé que l‘effondrement climatique avait commencé au cours des mêmes semaines où le climatologue Jean Jouzel rencontrait des grands patrons du Medef. Il s’est vu opposer « la vie réelle », par le patron de Total, pour justifier que la première urgence est de ne brusquer personne. Je sais bien qu’il est important d’être à l’écoute et de ne jamais juger une personne suicidaire, mais ça n’a pas dû être facile pour Jouzel de conserver son calme. À bien y penser, ce sont les méthodes de discussion avec les forcenés qu’il faudrait étudier. Ces gens nous détiennent en otage.

Même flottement autour des nouvelles CGU [Conditions générales d’utilisation] de Microsoft qui ne permettent pas de savoir si oui ou non ils vont employer la terachiée de données qu’ils ont sur office 365 pour entraîner leurs IA. La seule certitude que j’ai, c’est que l’initiative de Mozilla pour obtenir une réponse ne débouchera sur rien.

J’ai adoré voir le simulateur de Macron pondu par Anis Ayari répondre aux questions sur Twitch. Une entreprise chinoise affirme avoir remplacé son patron par une IA, nous pourrions faire pareil avec tout le pays : ses réponses étaient parfaitement crédibles et elle nous épargnerait peut-être de basculer progressivement en dictature.

Tout cela n’est qu’une petite partie du bourbier ; il semble s’étendre dans tous les domaines de nos existences.

Mais, face à cette réalité molle socialement déterminée, il existe une réalité dure. Celle des faits. C’est pour cela que j’aime bricoler : c’est une activité créative dont le résultat n’est pas négociable ; quand ça n’a pas réussi, c’est parce que ça a raté !
Dans la réalité dure, rien n’est jamais exactement comme prévu : les angles ne sont pas parfaitement droits, les planches n’ont pas exactement la bonne épaisseur, ne sont jamais parfaitement plates, elles gonflent quand on les peint. On ne négocie pas avec une planche. J’ai tout tenté : name and shame, bashing, cancel… Elles restent de bois.
J’imagine que c’est le même genre de satisfaction qu’on éprouve quand on voit son code tourner et ses serveurs fonctionner. La grosse différence est qu’en matière de bricolage, les erreurs sont beaucoup plus punitives. Mon index gauche peut en témoigner.

J’ai réalisé cet été à quel point cette réalité molle et boueuse me fatigue. J’ai bien plus envie de bricoler, d’apprendre de nouvelles choses et de les mettre en pratique que de me confronter à la folie de notre monde. Plus je l’observe, pire c’est, et je sais bien que je ne suis pas le seul à ressentir cela.

Le problème est que cette réalité molle n’est pas moins réelle que sa contrepartie dure. C’est elle qui nous permet d’apprendre des autres, une chose qui m’aurait épargné de perdre un demi centimètre de doigt si j’en avais été capable.
Elle nous permet de nous organiser, d’être solidaires face à l’adversité.
Elle permet, malheureusement aussi, la mise en place de structures sociales prédatrices, auto-destructrices. La gouvernance par le troll, la starification tous azimuts ne sont rien d’autre qu’un rapport de forces et l’épuisement moral que je ressens est l’effet recherché.

Comment se sortir de tout ça ? Si je le savais, j’aurai entamé une carrière d’influenceur avec des vidéos du genre « Vaincre le merdier ambiant : 5 méthodes qui font la différence », vendu des formations bidons et mis en vente des NFT [Non-fungible token] de mon projet d’IA pour des lendemains qui chantent.

[Virgule sonore]

Étienne Gonnu : Il n’y a pas à dire, les chroniques de Luk réveillent !
Il est clair que si on parle de libertés informatiques, d’enjeux climatiques ou globalement de liberté et de justice sociale, il n’est pas toujours facile de rester optimiste. Comme Luk l’exprime, la solution est sans doute dans l’idée du faire, d’agir. Elle se trouve aussi dans les luttes émancipatrices, qu’il s’agisse d’agir pour les libertés informatiques, comme nous cherchons modestement à le faire à l’April, ou pour tout autre cause qui nous paraît juste.
Plein d’amour et de courage à vous tous et toutes qui nous écoutez. Pour paraphraser nos amis de Framasoft : « La route est longue mais la voie est libre », collective et solidaire, pourrait-on rajouter.

Sur ce, nous approchons de la fin de l’émission, je vous propose de passer aux annonces.

[Virgule musicale]

Quoi de Libre ? Actualités et annonces concernant l’April et le monde du Libre

Étienne Gonnu : Le café associatif Le Pot Commun organise à Nevers une soirée logiciels libres jeudi 28 septembre à partir de 18 heures. Marie-Odile Morandi, administratrice de l’April, animatrice du groupe transcriptions et, on peut ajouter, autrice de chroniques pour Libre à vous ! sera présente et fera une courte présentation de l’April.

Un apéro April aura lieu le vendredi 29 septembre, ce vendredi, à partir de 19 heures, dans les locaux de l’April. Un apéro April consiste à se réunir physiquement afin de se rencontrer, de faire plus ample connaissance, d’échanger, de partager un verre et de bonnes choses à manger, mais aussi de discuter sur le logiciel libre, les libertés informatiques, l’actualité, les actions de l’April.
Un apéro April est ouvert à toute personne intéressée par ces sujets, membre de l’April ou pas, alors n’hésitez pas à venir nous rencontrer, d’autant que ce vendredi 29 septembre, je le répète à partir de 19 heures, nous aurons le plaisir d’accueillir les membres de l’AFPy, l’Association Francophone Python dont la présidente est de passage à Paris.

Du côté de Toulouse, l’association libriste Toulibre et la médiathèque José Cabanis organisent un après-midi du numérique et de la culture libres. Deux conférences, la projection du film-documentaire LOL, LOgiciel Libre, une Affaire Sérieuse et un débat autour de ce film seront proposés. Cet après-midi numérique aura lieu dimanche 1er octobre de 14 heures à 18 heures, entrée libre et gratuite.

Comme d’habitude, je vous invite à consulter l’Agenda du Libre, agendadulibre.org, pour retrouver des évènements en lien avec les logiciels libres ou la culture libre près de chez vous.

Notre émission se termine.

Je remercie les personnes qui ont participé à l’émission : Laurent et Lorette Costy, Suzanne Vergnolle, l‘incroyable Luk.

Aux manettes de la régie aujourd’hui, Frédéric Couchet et Julie Chaumard.
Merci également aux personnes qui s’occupent de la post-production des podcasts : Samuel Aubert, Élodie Déniel-Girodon, Lang1, ainsi que Julien Osman, et Olivier Grieco, le directeur d’antenne de la radio.
Merci aux personnes qui découpent les podcasts complets des émissions en podcasts individuels par sujet : Quentin Gibeaux, bénévole à l’April, et mon collègue Frédéric Couchet.

Vous retrouverez sur notre site web, libereavous.org, toutes les références utiles ainsi que sur le site de la radio, causecommune.fm. N’hésitez à nous faire des retours pour indiquer ce qui vous a plu mais aussi des points d’amélioration. Vous pouvez également nous poser toute question et nous y répondrons directement ou lors d’une prochaine émission.

Toutes vos remarques et questions sont les bienvenues à l’adresse contact chez libreavous.org.

Si vous préférez nous parler, vous pouvez nous laisser un message sur le répondeur de la radio pour réagir à l’un des sujets de l’émission, pour partager un témoignage, vos idées, vos suggestions, vos encouragements ou pour nous poser une question. Le numéro du répondeur est le 09 72 51 55 46.

Nous vous remercions d’avoir écouté l’émission. Si vous avez aimé cette émission, n’hésitez pas à en parler le plus possible autour de vous et à faire connaître également la radio Cause Commune, la voix des possibles.

La prochaine émission aura lieu en direct mardi 3 octobre à 15 heures 30. Notre sujet principal sera probablement une rediffusion, mais je précise qu’il y aura des chroniques inédites.

Nous vous souhaitons de passer une belle fin de journée. On se retrouve en direct mardi octobre et d’ici là, portez-vous bien.

Générique de fin d’émission : Wesh Tone par Realaze.

Média d’origine

Titre :

Émission Libre à vous ! diffusée mardi 26 septembre 2023 sur radio Cause Commune

Personne⋅s :
- Étienne Gonnu - Laurent Costy - Lorette Costy - Luk - Suzanne Vergnolle
Source :

Podcast

Lieu :

Radio Cause Commune

Date :
Durée :

1 h 30 min

Autres liens :

Page de présentation de l’émission

Licence :
Verbatim
Crédits des visuels :

Bannière de l’émission Libre à vous ! de Antoine Bardelli, disponible selon les termes de, au moins, une des licences suivantes : licence CC BY-SA 2.0 FR ou supérieure ; licence Art Libre 1.3 ou supérieure et General Free Documentation License V1.3 ou supérieure.
Logo de la radio Cause Commune utilisé avec l’aimable autorisation d’Olivier Grieco, directeur d’antenne de la radio.

Avertissement : Transcription réalisée par nos soins, fidèle aux propos des intervenant⋅e⋅s mais rendant le discours fluide. Les positions exprimées sont celles des personnes qui interviennent et ne rejoignent pas nécessairement celles de l'April, qui ne sera en aucun cas tenue responsable de leurs propos.