Les algorithmes idéologiquement orientés Décryptualité du 8 novembre 2021

Luc : Décryptualité. Semaine 44. Salut Manu.

Manu : Salut Luc.

Luc : Le sommaire de cette revue de presse.

Manu : Petit sommaire et nous ne sommes que tous les deux ; ça explique sûrement.

Luc : Je pense effectivement que les journalistes font attention. Ils prennent des nouvelles et ils font moins d’articles quand on est peu nombreux, j’imagine.

Manu : C’est ça !

Luc : ICTjournal, « Les entreprises gèrent mal les dépendances open source de leurs applications », un article de Yannick Chavanne.

Manu : Pour une fois je suis allé jeter un œil parce que ce n’est pas le premier article qui parle de « attention, il y a des dépendances open source, les entreprises qui les utilisent ne font pas assez gaffe et ça entraîne des problèmes de sécurité et de fiabilité, parce que, vous comprenez, quand on a 10 000 dépendances dont on dépend, il en suffit d’une pour pourrir le panier ». Je suis allé jeter un œil et, effectivement, il y a une vraie étude derrière, qui n’est pas trop mal foutue, par des sociétés et une entreprise qui gèrent de la qualité. Donc oui, peut-être qu’effectivement ces articles leur font de la pub en disant qu’il faut passer par ces sociétés pour analyser les dépendances de logiciels, mais, en même temps, il est vrai que les dépendances de logiciels libres, parce que les logiciels libres on peut en dépendre, on peut les réutiliser, c’est d’ailleurs un peu leur but, eh bien le fait de réutiliser toutes ces briques ça peut rendre les murs un peu instables si on les réutilise mal ; il faut y faire attention. Allez jeter un œil parce que j’aimerais bien voir d’autres personnes qui analysent un petit peu que le sujet, pas que moi.

Luc : Il y a la dimension juridique et la dimension technique. C’est-à-dire que quand on va aller prendre des briques on veut qu’elles marchent bien, qu’il n’y ait pas de failles de sécurité, ça il faut le suivre. Après, si on ne fait pas du Libre derrière ! Quand tout le monde fait du Libre c’est beaucoup plus simple.

Manu : C’est ça. Il y a aussi ce qu’ils appellent les problèmes légaux, tout simplement.

Luc : Archimag, « Cloud : le gouvernement annonce une enveloppe de 1,8 milliard d’euros », un article de Bruno Texier.

Manu : Je ne suis pas allé regarder dans le détail. J’ai un peu lu les articles. Voilà ! Il y a de l’argent qui arrive. On sait qu’il y avait des problèmes et qu’il y a des problèmes parce que le cloud, l’informatique en nuage, c’est-à-dire les serveurs des autres que l’on loue en général, eh bien ces serveurs-là, en gros, on les prend aux États-Unis parce que ce sont eux qui ont la compétence. On s’est bien rendu compte que ça posait des problèmes, on a voulu les remettre en Europe, mais on pense qu’on n’a pas les compétences en Europe, donc on utilise encore les entreprises américaines. C’est gênant. Là il y a de l’argent qui arrive un petit peu. On va espérer qu’il ne sera pas distribué qu’à Google, Microsoft et Amazon, que ça va arriver sur les pépites européennes.

Luc : Ces deux dernières semaines on a eu des articles de gens qui défendent justement l’idée que les entreprises françaises et européennes sont capables de faire le boulot et peuvent développer les compétences. Donc gros sujet d’indépendance, gros sujet pour savoir qui va toucher sa part des 1,8 milliards d’euros. On comprend que tout ça échauffe les esprits. Nous, nous aimerions plus d’autonomie européenne, plus de logiciel libre et pas, effectivement, aller payer des licences propriétaires de technos américaines.
Clubic.com, « Pourquoi Mastodon demande la publication du code source du réseau social de Trump ? », un article de Fanny Dufour.

Manu : Qu’on a déjà abordé rapidement la semaine dernière parce que le sujet a déjà été lancé. Oui, Trump a été bloqué sur les réseaux sociaux aux États-Unis ; à force de dire des bêtises, voilà, il y a des gens qui ont voulu arrêter ça. Il a déjà lancé un premier réseau social il y a quelque temps, mais c’était vraiment ridicule. Là il en a lancé un autre qui est un peu plus solide. Il y a notamment des financements derrière, des trucs assez importants, il y a des équipes de développeurs. Je trouve que les développeurs ont été très intelligents, ils ont repris Mastodon [1] qui est un logiciel libre de ce qu’on appelle du microblogging un peu comme Twitter. Ils ont fait ce qui s’appelle « TRUTH Social », le réseau social de la vérité, je ne sais pas avec quelle mauvaise foi on peut l’appeler. Mais voilà, manque de bol, en reprenant Mastodon ils ont repris un logiciel libre qui est sous copyleft, il a une licence qui s’appelle la licence AGPL [2] qui normalement vous force, si vous le réutilisez, à ce que votre logiciel soit lui-même libre et il se trouve que ce n’est pas le cas. Donc les gens qui possèdent le droit d’auteur, les ayants droit de Mastodon, demandent des comptes à « TRUTH Social » et en théorie, dans un mois, si leur code source n’est pas ouvert, ils n’auront plus le droit d’utiliser légalement le code de la brique Mastodon et là il pourrait y avoir des répercussions au tribunal. En tout cas c’est la théorie parce que derrière il y a des millions, des centaines de millions et des avocats et que ça peut être plus compliqué, on le sait.

Luc : Nous sommes d’ailleurs sur Mastodon, Décryptualité [@lfievet2 chez pouet.chapril.org] , echarp [@echarp chez pouet.chapril.org] ; si vous voulez nous faire un petit coucou, ce sera avec plaisir.
De quoi va-t-on parler cette semaine ? Il n’y avait que trois articles dans la revue de presse.

Manu : Oui, c’est un peu léger, mais effectivement il y a un autre sujet qui est plutôt pas mal, que tu as remonté, auquel tu t’es intéressé ces derniers temps, c’est un sujet technique. Oui, c’est technique !

Luc : Pas que !

Manu : À la base c’est technique, ce sont les algorithmes et il y a une particularité que tu voulais remonter sur les algorithmes.

Luc : On en parle quand même régulièrement, notamment par rapport aux réseaux sociaux c’est quand même un sujet qu’on remonte très fréquemment. C’est un article [3] de blog qui n’est pas le blog de n’importe qui, c’est le blog d’Olivier Ertzscheid qui est un chercheur en sciences de l’information et de la communication, qui a beaucoup écrit sur les réseaux sociaux et sur les algorithmes, etc. ; son blog s’appelle affordance.info. En octobre, le 26, il a fait un article qui s’appelle « Les algorithmes sont-ils de droite ? ». Long article, très intéressant, qui a pour origine un article qui est publié par Twitter, le réseau social, d’une étude menée en interne, publiée dans un souci de transparence, et qui démontre que oui, Twitter – Olivier Ertzscheid explique qu’on sait que c’est la même chose sur tous les autres réseaux sociaux – est un réseau social où les idées de droite circulent beaucoup mieux que les idées de gauche.

Manu : Honnêtement, je pense que l’article lui-même est présenté avec un titre putaclic, comme on dit, oui Monsieur, parce que « Les algorithmes sont-ils de droites ? », point d’interrogation, c’est un truc typique pour qu’on clique dessus et qu’on aille jeter un œil et tu t’es fait avoir !

Luc : L’article est assez long et très documenté. Il a écrit plusieurs bouquins sur le sujet, c’est son sujet de recherche et, de fait, on parle bien de politique puisque l’étude est allée voir des gens qui sont politiquement engagés et les idées qui circulent, etc. ; donc on parle très clairement de politique. L’étude a été faite sur des gros volumes de données dans plein de pays. Il y a une exception en Allemagne, manifestement, avec des petites analyses pour essayer de comprendre pourquoi en Allemagne c’est un peu différent. Ça a été fait dans plusieurs pays dont la France. Le résultat c’est que les idées de droite circulent nettement mieux, c’est-à-dire que quelqu’un qui est de droite va voir des infos relayées, voir dans son fil des infos de gens qui sont de droite, et les gens qui sont de gauche vont également en voir, moins parce qu’il y a le côté un peu bulle de filtre dont on a parlé, mais comparativement ils verront beaucoup plus d’idées et d’infos de droite.
C’est un peu provocateur, mais derrière il y a vraiment du contenu et on n’est pas sur quelque chose d’un petit peu tendancieux et de surinterprétation du sujet. On parle bien de positionnement politique.

Manu : Je vais essayer, en tant qu’informaticien de notre groupe de deux, vite fait. Un algorithme [4] c’est un vieux concept. Pour ceux qui ne suivent pas trop, c’est un concept clairement utilisé en informatique, mais qui est, en fait, un concept très général, ce sont simplement les règles que l’on applique – les règles de triage du linge pour la machine à laver – eh bien ce sont des règles qui vont entraîner un algorithme. C’est un peu la même chose si on veut mettre quelqu’un en prison. Si on veut mettre quelqu’un en prison on peut appliquer des règles qui seront déclinables sous la forme d’un algorithme : combien de crimes cette personne a-t-elle commis ? Quelle était la nature du crime ? Quelle était sa couleur de peau ? Oui, il y a des endroits où on peut utiliser ce genre de règles, bien sûr. On met toutes ces règles-là en forme en informatique et on les applique, c’est ce qu’on appelle un algorithme, c’est quelque chose d’assez précis à l’origine. Aujourd’hui ça a pris beaucoup plus d’ampleur parce que, de la même manière qu’on peut mettre des gens en prison en suivant un algorithme, on se rend compte que les algorithmes ne sont pas neutres, loin de là !

Luc : C’est un sujet qui est évoqué dans l’article. Il va citer justement Antonio Casilli [5] qui, dans un bouquin, disait que les algorithmes ne sont que le reflet des règles. Cette idée est connue de longue date. On a souvent parlé du Code is Law de Lawrence Lessig [6] qui avait sorti cela au début des années 2000. Du coup, ça pose cette question à savoir s’il y a une volonté des réseaux sociaux d’avoir des algorithmes qui vont pousser des idées de droite ou si c’est le résultat d’autre chose. On en avait parlé ces dernières semaines, notamment avec les révélations, les fuites faites par Frances Haugen [7] sur Facebook qui disait, qu’en fait, c’était plus rentable. Donc même s’il n’y a pas de volonté politique, les fake news et les trucs qui font scandale, etc., donc toutes les idées d’extrême droite, complotistes ou ce genre de choses, font beaucoup plus recette, d’un point de vue business Facebook, que les autres.

Manu : Je me souviens, je ne sais plus si c’était sous la forme d’interview, mais des gars diffusaient des fake news pour se faire du fric. En gros ils profitaient de la publicité : chaque fois que des gens venaient lire leurs articles, il y avait de la publicité à côté et ça leur permettait de gagner de l’argent. En fait ces gars-là, qui n’en avaient clairement rien à fiche du contenu, s’étaient rendu compte, en tout cas d’après ce qu’ils disaient, que oui, les fake news de droite, celles qui trollent sur les concepts qui sont plutôt soutenus par la droite, rapportaient plus, tout simplement, que le les gens avaient plus de facilités à aller sur ces liens, sur ces textes, pour les lire, les parcourir et les rediffuser. Donc il y avait une viralité de ces mêmes idées-là. On pourrait imaginer que c’est la même pour les algorithmes de Twitter et de Facebook, on clique plus facilement sur un titre putaclic de droite.

Luc : C’est effectivement le cas et c’est une des hypothèses qui est évoquée dans l’article en disant « est-ce que ce n’est pas juste le reflet de la société où les gens aiment les trucs à scandale, s’indigner, etc. ? Est-ce que la société n’est pas juste à droite, donc ce sont les idées de droite qui sont partagées ? » Une des choses qui est évoquée, qui s’appuie beaucoup sur l’expérience des électeurs de Trump et de l’élection de Trump, c’est que notamment les gens de droite ont, d’une part, des idées plus simples, d’autre part ont le sentiment qu’ils sont peu relayés dans les médias et on le voit aujourd’hui en France.

Manu : Que les journalistes et toute la sphère médiatique est plutôt de gauche, en gros.

Luc : C’est ça, voilà. À droite on trouve souvent des gens qui ont plus d’argent, plus d’éducation, qui vont donc être plus à l’aise avec les outils numériques et, tout mis bout à bout, cela fait que les gens qui sont dans ces idées-là sont plus virulents, occupent plus d’espace, font plus de bruit, donc on va finalement les entendre nettement plus sur les réseaux sociaux.

Manu : Je te reprends, je ne suis pas d’accord. Plus d’éducation à droite, il faut voir !

Luc : C’est sûr que si on pense aux électeurs de Trump on n’est pas tout à fait convaincu. Il y a aussi le phénomène que toutes ces boîtes-là — Facebook, on l’a vu avec toutes ces affaires — sont là pour gagner de l’argent. Dans l’aréopage de Facebook et de toutes ces grosses boîtes on a des gens qui sont dans le business, des entreprises cotées en bourse, etc. On trouve des gens qui sont plutôt à droite parce que la droite va être plutôt en faveur de moins d’impôts, de ceci cela. On rappelle que toutes ces grosses boîtes, et plein d’autres, se font aligner chez nous très régulièrement par les impôts. Que l’État continue à leur passer des commandes en disant que, finalement, il n’y a pas de problème à commander chez Microsoft – entre autres choses toutes les grosses boîtes le font – alors qu’elles font de l’optimisation fiscale et que, en plus de ça, les impôts leur tombent dessus et leur mettent des redressements assez sévères. Donc il y a à la fois des entreprises qui sont dirigées par des gens qui sont quand même très à droite, avec des milliardaires, également dans la presse, qui maîtrisent énormément de choses, sont dans un monde où leur rémunération a explosé depuis quinze, vingt ans et qui n’ont pas envie que ça change. Du coup, ils aiment bien que le statu quo reste. On peut penser à la situation actuelle avec Zemmour et le fait qu’il est porté par un milliardaire qui a racheté plein de médias, qui a clairement un agenda d’extrême droite. Il y a à la fois de la volonté, également le business, et le fait que ces gens font du bruit.

Manu : Petite remarque que je trouve amusante c’est que les algorithmes sont maîtrisés par certains, donc ils appliquent les règles qui leur conviennent et qui vont dans leur sens. Je pense effectivement que si tu lui donnes le choix à un Bolloré, il va orienter les journalistes qui vont travailler avec lui dans un certain sens et ça va entraîner plein de choix derrière. Mais il y a aussi une partie qui émerge et qui vient tout simplement de la complexité. D’après ce que disait Frances, Facebook ne maîtrise pas toutes les conséquences et toutes les parties, les mécanismes de ses algorithmes. En fait, ce que nous en voyons c’est plutôt un mécanisme qui est émergent mais qui, clairement, n‘est pas compris par ses concepteurs.

Luc : Effectivement. Un autre article a été publié là-dessus et ressort des analyses des documents qu’elle a fait fuiter. Chez Facebook personne ne contrôle ce que les algorithmes font vraiment, c’est-à-dire qu’ils ont ajouté plein de critères dedans, etc., et, en fait, chaque information, chaque poste va obtenir une note pour voir s’il est intéressant ou pas. Comme ce sont des équipes différentes et que c’est devenu hyper-compliqué, plus personne ne contrôle ça. Ils arrivent à regarder si ça fait de l’argent, parce qu’il y a ce fameux engagement derrière ; c’est le seul critère qui compte réellement pour eux. En revanche, quand ils ont été attaqués sur les fake news au fil des dernières élections des dernières années, chaque fois ils ont dit « oui, on va améliorer ça ». Ça n’a jamais marché, c’est vrai pour Google et tous les autres. On découvre maintenant – on s’en doutait, mais on en a la preuve – qu’en fait ils ne contrôlent rien. Ce qui fait qu’il ne faut pas rentrer dans une théorie du complot en disant que tous les réseaux sociaux veulent orienter les opinions, bien que ça existe – un mec comme Bolloré veut orienter les opinions, c’est son objectif –, mais, en même temps, même s’ils ne veulent pas le faire, ils n’ont pas intérêt à ne pas le faire et, d’une façon générale, les idées qui sont mises en avant vont plutôt dans le sens des gens qui dirigent ces entreprises.

Manu : Ce sont des sujets qui sont super compliqués. On sait qu’il y a eu des conséquences majeures. On imagine, dans une certaine mesure, que le Brexit, l’élection de Trump aussi, étaient les conséquences — encore une fois dans une certaine mesure, c’est compliqué à jauger — de ces algorithmes. On sait qu’il y a eu des données de Facebook qui ont été utilisées pour manipuler les électeurs.

Luc : Avec cette idée que Cambridge Analytica [8] c’est vraiment cette volonté, cette capacité à manipuler les gens. On a des infos contradictoires, il y a des articles qui disent que oui, ils ont des moyens énormes, des articles qui disent que non, à priori il y aurait finalement eu peu d’influence, que c’est surtout Cambridge Analytica qui essaye de vendre sa soupe. On a les usines à trolls, notamment russes, qui sont là pour essayer de semer le trouble et foutre le bordel autant que possible dans les pays adverses parce que c’est intéressant pour eux d’un point de vue géopolitique. Tout ça est un magma terrible et finalement on ne sait pas s’il y a un pilote dans l’avion ou pas du tout. C’est un sujet qui est un peu flippant et on aimerait bien y voir plus clair.

Manu : J’ai une solution. Je pense qu’on t’élit comme dictateur bénévole à vie et tu vas nous clarifier tout ça d’ici la semaine prochaine. Qu’est-ce que tu en penses ?

Luc : OK. Je suis partant. Allons-y !

Manu : Je vous propose à tous de nous retrouver la semaine prochaine après avoir élu en bonne forme un dictateur, Luc 1er.

Luc : Pas trop bénévole quand même…

Manu : Oui. Il faut que tu gagnes un peu ta vie ! Le sujet nous portant, tels qu’on est là on est vraiment motivés par le sujet, je pense qu’on va le reconduire à un moment donné parce qu’on n’a vraiment fait qu’écrémer le début.

Luc : Oui. Et quand je serai dictateur, Décryptualité sera obligatoire, passera à 20 heures sur tous les médias dans le monde.

Manu : Ce sera efficace. Je te dis à la semaine prochaine.

Luc : Salut.