Voix off : Le code a changé
Xavier de la Porte : On pourrait sans doute consacrer une belle thèse à la manière dont la science-fiction représente l’administration et met en scène la présence de l’État. Mais bon, comme j’y connais que dalle, je vais limiter mon corpus à quelques épisodes de Black Mirror et en tirer une théorie générale qui se résume à « c’est pas joli ».
Prenons Fifteen Million Merits. Les gens vivent dans un système où il faut acquérir des points pour accéder à tout. Il y est démontré que les individus sont enfermés dans une logique administrative permanente et que la neutralité du système n’est qu’apparente.
Prenons maintenant Hated in the Nation. Il y est raconté un monde où la justice est déléguée à un système technologique, en gros ce sont des drones qui sont dirigés par un programme qui obéit à la décision populaire. Ça se termine mal.
Prenons enfin Nosedive où les individus se notent constamment les uns les autres, la note de chacun déterminant ce à quoi il a accès – logement, boulot, et même partenaire amoureux – eh bien ça ne fait pas envie !
Outre que c’est horrible, il y a un point commun entre toutes ces représentations de l’organisation sociale : si l’État existe, il est presque invisible, il n’apparaît que sous la forme d’applications ou de machines, il n’y a presque plus de fonctionnaires, toutes les décisions publiques sont des calculs, les individus sont des profils évalués jusque dans les aspects les plus intimes de leur vie. Cet État automatisé est donc à la fois absent et omniprésent.
En un sens, ce que montre Black Mirror, c’est une vision cauchemardesque de ce que m’ont raconté Joël et Soizic dans les deux premiers épisodes. La SF montre une vision cauchemardesque, évidemment, c’est son travail de le faire, mais ne raconte-t-elle pas une crainte que nous commençons à ressentir depuis quelques années déjà, parce que, parfois, notre vie administrative résonne avec ces visions dystopiques ?
À la fin de l’épisode précédent, Soizic Pénicaud, qui a cofondé l’Observatoire des algorithmes publics [1], a parlé de la violence que nous ressentions à être mis en calcul et elle a employé le mot « imaginaire ». Je lui demande si l’imaginaire auquel elle pense c’est celui de la science-fiction.
Soizic Pénicaud : Il peut y avoir du fictionnel, mais il y a le côté machine, cette idée que c’est une machine qui calcule. D’ailleurs, dans la bureaucratie, le langage est très codifié, il est parfois un peu robotique, c’est-à-dire que c’est un langage assez formel et, quand on reçoit un message de l’administration, c’est très difficile de savoir si c’est un message qui a été écrit par un humain ou par une machine. En fait, je pense que ça rejoint aussi cette imaginaire de la violence bureaucratique.
Xavier de la Porte : Justement, de plus en plus l’administration a recours à l’IA pour essayer d’atténuer cette violence en proposant, par exemple, des chatbots sur plusieurs de ses plateformes. Qu’est-ce que Soizic pense de cela ?
Soizic Pénicaud : C’est potentiellement poser le problème à l’envers. Si on dit que les citoyens et citoyennes, ou les personnes qui sont en lien avec l’administration, ont besoin de lien et de l’information, ne pourrait-on pas remettre des agents publics aux guichets ou des numéros de téléphone qu’on pourrait appeler ? Du coup, tout de suite se demander comment l’IA peut réduire nos problèmes, on s’empêche d’imaginer un service public différent.
Xavier de la Porte : En effet. Bien vu. D’ailleurs, c’est une tendance que j’ai vu se dessiner d’épisode en épisode, une tendance étrange à vouloir régler les problèmes que pose la technologie par la technologie. En l’occurrence c’est flagrant : la dématérialisation de l’administration fait que les gens se retrouvent à galérer sur des sites qui ne répondent pas à leurs questions, donc qu’est-ce qu’on fait ? Eh bien, on imagine que c’est une IA qui répondra. D’ailleurs, après notre entretien, Joël m’a envoyé des captures d’écran d’une IA spécialisée en droit pour l’aider à résoudre les problèmes que lui posent les démarches dématérialisées de ses clients. Soizic le souligne aussi : de plus en plus de gens utilisent les IA génératives du tout venant, GPT et consorts, pour avoir des réponses à leurs problèmes administratifs avec toutes les questions que ça pose en termes de fiabilité, etc.
Je pense qu’il faut qu’on aille plus loin. Aujourd’hui, ce sont des algorithmes qui servent à prendre des décisions. Est-ce que ça pourrait être un jour l’IA ? J’ai déjà en tête quelques usages de l’intelligence artificielle par l’administration. On sait que la DGFiP, la Direction générale des Finances publiques, utilise l’IA pour repérer des anomalies dans des déclarations fiscales et patrimoniales. On sait que l’IA sert à identifier les constructions illégales ou les piscines non déclarées en passant par l’analyse d’images. Bref ! Mais est-ce que l’intelligence artificielle pourrait un jour prendre des décisions comme le font aujourd’hui les algorithmes classiques ?
Soizic Pénicaud : Dans la loi, sur la décision publique en tant que telle, il y a des garde-fous par rapport à l’utilisation de technologies qu’on ne peut pas expliquer. L’administration doit garder la maîtrise de la décision, il y a donc des choses qu’on ne peut pas faire.
Après, les systèmes les plus problématiques ne sont souvent pas les systèmes les plus techniques.
On parlait de l’algorithme de la Caf [Caisse d’allocations familiales] ou de l’algorithme de Parcoursup [Plateforme d’accès à l’enseignement supérieur], au maximum ce sont des régressions logistiques, donc des méthodes statistiques qu’on peut expliquer, qu’on peut décortiquer, etc. Donc, dès qu’on commence à se dire que plus c’est technique, plus c’est dangereux, on oublie tous les systèmes qui n’ont pas du tout l’air intéressant, des trucs qui ne payent pas de mine, qui sont sur des fichiers, des tableurs de calcul, qui, finalement, sont ceux qui ont le plus d’effet. Je pense que c’est une première chose.
Après, sur des technologies plus avancées, par exemple le deep learning [2] ou maintenant l’IA générative, bien sûr qu’il va y avoir des choses qu’on va moins pouvoir expliquer techniquement. En revanche, il y a plein de choses qu’on peut quand même expliquer, on peut notamment expliquer tout ce qui va être le contexte du système : qui a décidé qu’on allait le mettre en place ? Qui va le concevoir ? Quelles données va-t-on utiliser ? Qui a payé ? Combien ça coûte ? Quels sont les serveurs sur lesquels les données vont être stockées ? Comment les systèmes sont-ils évalués ? Toutes ces informations-là sont des informations qu’on peut donner sur n’importe quel système, quelle que soit sa complexité. C’est pour cela que si on se concentre sur la technique, on a presque l’impression qu’il faut jeter l’éponge et dire « c’est une boîte noire, on peut rien en dire » alors qu’en fait les informations les plus intéressantes ne sont pas forcément les informations techniques. Tous les autres choix, qui sont éminemment politiques, peuvent et doivent être documentés, quels que soient les systèmes et quelle que soit leur complexité.
Xavier de la Porte : C’est tellement vrai et, d’une certaine manière, c’est une invitation à ne pas baisser les bras, parce qu’il y a pas mal d’expérimentations pour l’usage de l’IA générative par l’administration : des chatbots pour les usagers ou pour les agents publics notamment. Et, à défaut de soulever complètement le capot, ce qui est toujours compliqué avec cette techno, on peut se concentrer sur tout le reste qui est aussi important et que, pour le coup, on maîtrise. Mais, au sujet des expérimentations, justement, j’ai du mal à comprendre la logique qui est derrière. C’est quoi ? C’est l’amélioration des services publics ? C’est faire des économies ? Être moderne ?
Soizic Pénicaud : Je pense qu’il y a plusieurs choses. Une des particularités des IA génératives c’est qu’une partie des agents publics les utilisent spontanément. En fait, ils ont envie d’utiliser ChatGPT pour leur travail, il y a donc presque une espèce de mouvement par le bas.
Après, côté étatique, il y a une envie de ne pas passer à côté de quelque chose. Une envie de dire qu’on veut un meilleur service public, donc on veut innover, donc on doit tester ces nouveaux systèmes.
Après, il y a aussi des logiques économiques sous-jacentes, notamment sur l’IA générative : on a une volonté de pousser à une adoption de ces systèmes, c’est le terme utilisé par l’État, pour encourager potentiellement des entreprises, pour encourager une économie, puisqu’on voit que l’IA générative, en ce moment, est ce qui va tirer l’économie mondiale pour des raisons assez étranges et pas forcément fondées.
Après, ça ne veut pas dire non plus que ce sont des systèmes qui ne fonctionnent pas du tout. Je pense aussi qu’il faut prendre au sérieux les résultats que les administrations partagent, mais, encore une fois, il faut se poser la question de qui le dit, comment c’est évalué. Par exemple, est-ce que ce sont vraiment les agents qui le disent ou est-ce que c’est la direction qui trouve que c’est super ? Et aussi quelles sont les conséquences sur la société, les citoyens et les citoyennes, mais ce sont des questions qui restent ouvertes.
Xavier de la Porte : Je tique sur la dernière phrase de Soizic : comment ça ce sont des questions qui restent ouvertes ? Ça veut dire qu’on ne sait pas bien quels sont les effets de ces systèmes sur les agents, sur les usagers ? Et là, Soizic m’explique que c’est un des aspects du travail qu’elle mène avec ses collègues de l’Observatoire des algorithmes publics et leurs conclusions me laissent un peu pantois.
Soizic Pénicaud : On voit qu’il y a une infime partie de ces systèmes pour lesquels des évaluations sont publiées, y compris quand ce sont des expérimentations.
Xavier de la Porte : De quoi parles-tu quand tu parles de systèmes ?
Soizic Pénicaud : Je parle de tous les systèmes d’IA générative qui sont actuellement testés, par exemple la vidéosurveillance algorithmique pendant les Jeux olympiques. Il y a eu toute une histoire de comité d’évaluation qui, avant même d’avoir rendu son rapport, s’est vu dire que de toute façon l’expérimentation serait prolongée. Et là ça pose vraiment la question : quand est-ce qu’on stoppe des choses, puisque, apparemment, une fois que le processus est enclenché, de toute façon on ne reviendra jamais en arrière.
Par exemple, quand on nous dit qu’un système d’IA générative va faciliter le quotidien des agents. Que veut dire « faciliter le quotidien » ? Souvent, ce qui revient, c’est réduire les tâches répétitives. Qu’est-ce que veut dire « réduire les tâches répétitives » ? Qui décide de ce qu’est une tâche répétitive ? Qui décide du fait qu’on ait envie de la réduire ou pas ? Est-ce que ce sont les agents ? Est-ce que c’est la direction ? Cela n’est jamais vraiment défini.
Xavier de la Porte : Pas faux. On peut préférer une tâche un peu chiante et répétitive, mais qu’on peut faire en pensant à autre chose, à une tâche tout aussi chiante, mais qu’on ne maîtrise pas parce que l’outil qui sert à l’accomplir a été implémenté sans être suffisamment testé et que, du coup, ça devient une grosse source de stress.
Derrière l’idée de mettre de l’IA partout, peut-être y a-t-il un autre but ? Que les agents se conforment à la logique de la machine qui est toujours parée des atours de la rigueur et de l’efficacité. Là, du coup, on en revient à une question qu’on effleure depuis le début : est-ce que la dématérialisation, la mise en algorithmes de la décision publique et les expérimentations avec l’IA, est-ce que tout cela n’obéit pas à une logique commune qui est de réaliser une sorte d’utopie administrative ? Et cette utopie serait que l’État fonctionne avec la rigueur d’un ordinateur. Et là, je me souviens d’un projet assez fou qui était né au Chili sous la présidence de Salvador Allende, projet qui s’est appelé Cybersyn [3]. En gros, Cybersyn c’est la rencontre du socialisme et de la cybernétique, cybernétique qui se veut avant tout une science de l’organisation de l’information. Et ça donne le projet d’une mise en informatique de l’État chilien pour que l’information remonte mieux et se diffuse mieux, pour que les décisions soient coordonnées, qu’elles soient plus rapides, etc. D’ailleurs, c’est assez marrant aujourd’hui d’écouter le scientifique britannique Anthony Stafford Beer, qui était le principal architecte de Cybersyn, raconter comment il a expliqué le binz à Allende.
Anthony Stafford Beer, traducteur, voix off : Laissez-moi vous raconter ce qui s’est passé quand j’ai présenté le projet au président Salvador Allende. Vous savez sans doute qu’Allende était médecin. Il était donc facile de lui expliquer le modèle en termes neurocybernétiques, la façon dont on contrôle un corps. De là, je lui ai expliqué le défi de contrôler l’État. Je lui ai dit « imaginons que tout cela ce sont des éléments de l’État. Ensuite on doit avoir un système 2, un système 3, un système 4 », et puis je suis arrivé au système 5. J’ai pris une grande inspiration, je m’apprêtais à dire « ça, camarade Président, c’est vous ». Avant que je puisse le dire, il a souri et il a dit « ah, le système 5, enfin le peuple ! »
Xavier de la Porte : Belle histoire. Même si le projet n’a pas eu le temps de voir le jour, les Américains en ont décidé autrement en aidant à faire tomber Allende, il reste aujourd’hui une salle de commande magnifique et des archives délectables. Ce qui est intéressant c’est que c’est un projet qui vise à contrer les lourdeurs et les lenteurs de l’administration et à imposer une mécanisation des processus politiques. Ma question donc c’est : quand on connaît les liens très forts entre l’IA d’aujourd’hui et la cybernétique, on peut se demander si les expérimentations dont a parlé Soizic ne sont pas une manière de tendre vers un idéal de l’État et de son fonctionnement.
Soizic Pénicaud : Les personnes qui mettent en œuvre ces politiques publiques ne conscientisent pas forcément l’idéal qu’elles vont perpétuer ou renforcer. J’ai été agente publique et j’ai mis en œuvre des projets numériques. Quand on a la charge de mettre en œuvre les projets numériques, c’est déjà assez difficile de faire avancer son projet et c’est difficile de se poser des questions sur ce qu’on est en train de créer et toutes les ramifications que les projets vont entraîner. On a la responsabilité de penser toutes ces ramifications, même si c’est très difficile, parce que ne pas le faire c’est un choix, c’est un choix d’ignorer les conséquences que ça peut avoir. Je suis partie de l’administration en partie parce que j’avais du mal avec ce qu’on était en train de faire avec le numérique, pas tout, des choses très intéressantes sont faites, mais il y a parfois un décalage entre ce qui va faciliter la vie de l’administration et ce qui va faciliter la vie de l’administré.
Xavier de la Porte : Au fond, il y aurait un risque qu’un numérique mal déployé participe à une sorte d’autonomisation de l’administration qui sert ses propres intérêts et pas les intérêts des gens au service desquels elle est censée être. Ce que dit Soizic me rappelle les critiques que l’anthropologue David Graeber [4] a adressé au fil de ses livres à l’administration et à la bureaucratie en général. Graeber était un anarchiste donc sa critique de l’État est assez radicale. Mais, en même temps, il a su identifier des paradoxes.
David Graeber : Why is it that everybody hates bureaucracy so much ? But second of all, why is it that, despite the fact that we all claim to hate it, we always get more and more ? So there must be some secret level on which we actually really love it.
Xavier de la Porte : Beau paradoxe en effet. Tout le monde dit détester la bureaucratie et pourtant, il y a de plus en plus de bureaucratie, donc il doit y avoir un amour secret pour la bureaucratie, alors même que selon Graeber, l’administration produit, je cite, « une sorte de stupidité structurelle ». En gros, les agents sont encouragés à appliquer des procédures plus qu’à résoudre des problèmes et les règles sont conçues pour être uniformes, donc elles ignorent la complexité des situations réelles et c’est cela, qui, selon lui, produit une stupidité structurelle. J’imagine à peine ce que Graeber aurait pensé en écoutant Joël, notre avocat en droit des étrangers du premier épisode.
Graeber a aussi produit une critique qui est plus proche de ce que vient de dire Soizic. Selon lui, la bureaucratie administrative a tendance à plus protéger les institutions que les personnes, en évitant par exemple le risque et la responsabilité. D’ailleurs c’est drôle, il utilise le même mot que Soizic « responsabilité ». En fait, le système a pour vocation de se protéger d’abord, se protéger lui-même contre les plaintes et les critiques, plutôt que protéger les citoyens et les citoyennes. Pour autant, est-ce que cela veut dire que tout cela confine à une forme d’autonomisation de l’administration d’État ? J’émets l’hypothèse mais Soizic tempère.
Soizic Pénicaud : La numérisation et les algorithmes s’intègrent dans des mouvements politiques plus globaux. Si, dans les mouvements politiques plus globaux, on va durcir les politiques migratoires, on va durcir les politiques de contrôle, mécaniquement le numérique et les algorithmes vont participer de cela.
Xavier de la Porte : OK. Donc Soizic confirme l’intuition de Joël : la force du contexte politique dans lequel s’inscrit la numérisation se répercute dans les systèmes informatiques. Concrètement, qu’est-ce que cela veut dire ? Cela veut dire, par exemple, que la Caf crée un algorithme dont Soizic nous a bien expliqué qu’il visait principalement à identifier les gens susceptibles d’avoir touché des trop-perçus, en gros à lutter contre la fraude, volontaire ou non, eh bien c’est un choix politique.
On pourrait imaginer que l’État choisisse de lutter contre un autre problème, par exemple le non-recours aux prestations sociales, le fait que les gens ne réclament pas toutes les prestations auxquelles ils ont droit, parce que le phénomène est massif, les agents de l’État considèrent qu’il concerne environ 30 % des gens. Cela veut dire qu’en France 30 % des gens ne touchent pas le RSA ou les allocations familiales ou l’aide au logement ou encore plein d’autres prestations sociales auxquelles ils ont droit. Et on sait aussi que ces gens sont en général les plus précaires. Il y a bien sûr des campagnes d’information, il y a même un site internet sur lequel on peut voir ce à quoi on a droit, c’est un simulateur qui s’appelle « Mes droits sociaux ». Mais on voit bien que ça n’a pas du tout la même force qu’un algorithme qui pourrait détecter automatiquement les profils de gens susceptibles de ne pas toucher tous leurs droits, au lieu d’en créer un qui détecte ceux susceptibles de les avoir outrepassés. Ça serait peut-être plus efficace ! Bref, en faisant part à Soizic de cette idée, je lui demande si on ne pourrait pas avoir recours au numérique pour mener d’autres politiques publiques.
Soizic Pénicaud : On pourrait faire autrement avec les mêmes outils, d’ailleurs la Cnaf [Caisse nationale des allocations familiales], les organismes sociaux le proposent, le discutent, pas forcément avec les mêmes moyens qui sont mis par rapport aux politiques de contrôle. En revanche, je pense que là aussi ça peut poser question, parce que, encore une fois, il faut penser à ce que cela crée en termes d’infrastructure. C’est-à-dire que si on dit qu’on va utiliser du numérique pour le bien des usagers ou des administrés, ça implique aussi une collecte de données, ça implique la construction de procédures de partage de données qui, ensuite, peuvent être utilisées, y compris pour le contrôle. Du coup, il y a aussi une tension entre vouloir développer des systèmes potentiellement vertueux et ce que cela peut créer ensuite, comment les systèmes peuvent être détournés, ce qui peut être créé par-dessus. Ça ne veut pas dire qu’il ne faut pas utiliser le numérique. En fait, il y a beaucoup plus de soucis sur le fait que les gens ne sont pas informés.
Xavier de la Porte : J’interromps Soizic parce que ça me fait penser à un truc qui m’est arrivé récemment, qui est en train de m’arriver en fait. En août, au pied de mon immeuble, des travaux gigantesques ont commencé : la création d’une gare pour accueillir la ligne 15 du métro et la relier à la ligne 12. Depuis août, donc, notre rue est bloquée, des machines gigantesques creusent des fossés de 10 ou 15 mètres de profondeur, coulent du béton, ça fait un bruit de dingue de 7 heures du matin à 22 heures, l’immeuble tremble, etc. Par exemple un jour lambda ça donne ça.
[Bruit assourdissant de machines
Xavier de la Porte : Il a fallu un hasard pour qu’on découvre l’existence d’un fonds d’indemnisation ouvert par le Grand Paris. Jamais nous n’en avions été informés. Il a fallu constituer un dossier, passer devant une commission, c’est toute une histoire.
Mon premier réflexe a été de me dire, comment se fait-il que l’État, qui sait très bien me retrouver quand je me suis mal garé pendant cinq minutes à l’autre bout de la France, soit infoutu de proposer une indemnisation automatique pour les deux ans demi de nuisances qu’il nous impose ? Il a quand même toutes les informations à disposition : où j’habite, quel étage, quel appartement, le nombre de personnes logées, leur âge, l’intensité des nuisances, etc. Mais, j’ai eu un second réflexe qui a été de me dire « en même temps, si l’indemnisation était arrivée directement, avec tous ces critères, est-ce que je n’aurais pas un peu flippé de m’apercevoir que le Grand Paris a pu rassembler ces informations dans un fichier aussi facilement ? Est-ce que je ne me serais pas demandé d’où ces gens savent-ils tout ça ? » Et là, j’aurais imaginé dans quel autre but, ils auraient pu utiliser ces informations. Peut-être que ce qui aurait été bien c’est tout simplement une affiche, dans l’immeuble, qui informe de l’existence de ce fonds.
Je comprends assez bien ce que dit Soizic sur ce que suppose la numérisation, même quand elle est bien intentionnée. D’ailleurs, sur les usages à mauvais escient de ce que cela pourrait entraîner, il suffit de voir ce que le DOGE [Department of Government Efficiency] d’Elon Musk a pu mettre en place aux États-Unis en quelques semaines après la deuxième élection de Trump, en utilisant des bases de données administratives qui comportaient des informations médicales, parfois bancaires, ainsi que des historiques professionnels, etc. Des atteintes caractérisées à la vie privée qui, en plus, n’ont pas du tout produit les résultats escomptés comme le racontait, en juin 2025, une vidéo du Monde.
Journaliste du Monde : Au moment où cette vidéo du Monde est réalisée, le site du DOGE décompte à peu près 180 dollars économisés sur un objectif de 1000, mais ces résultats pourraient être en plus exagérés, voire inventés. The New York Times a révélé que certaines de ces coupes comptaient des contrats qui n’avaient jamais existé ou qui avaient déjà été supprimés auparavant.
Depuis son lancement, le DOGE se vantait aussi de mettre à jour des prétendues fraudes massives dans l’administration américaine, mais à ce stade rien qui n’ait déclenché d’enquête par la justice américaine.
Xavier de la Porte : Super le DOGE ! Amassage de données en tout genre, création d’algorithmes par des geeks de tout poil, usage de l’IA, tout cela pour des résultats assez nuls donc. Néanmoins, même dans des usages moins ambitieux et moins attentatoires aux libertés individuelles, je me demande si ce n’est pas le propre de l’administration que de posséder des données critiques, numériques ou pas, sur ses citoyens. Parce que, au fond, cette question des informations que l’État possède sur ses citoyens, de la manière dont elles sont utilisées, des politiques qui sont menées avec elles et des présupposés qui sous-tendent ces politiques, n’est pas complètement nouvelle. Quand je dis ça, Soizic acquiesce en évoquant le travail qu’elle mène avec ses collègues de l’Observatoire des algorithmes publics et en apportant à notre discussion la meilleure des conclusions.
Soizic Pénicaud : On n’est pas en train de s’attaquer à un nouveau problème. On est toujours en train de parler de l’État, de l’administration, de politiques publiques, c’est juste qu’elles prennent une forme particulière avec les algorithmes, mais on ne doit pas réinventer la roue par rapport aux choses qu’on sait déjà sur l’État. C’est comme cela aussi qu’on repolitise la question technique et qu’on évite d’être pris au piège en se disant « comme c’est de l’innovation il faut l’aborder complètement différemment ». Bien sûr qu’il y a des spécificités, mais, en réalité, on parle toujours des mêmes choses et, surtout, on ne parle jamais uniquement de technique, on parle de politiques qui touchent la vie des gens, donc les personnes sont tout à fait légitimes de s’en emparer. « Algorithme » est un terme qui fait peur, mais en réalité, encore une fois, on parle juste de prises de décision et tout le monde est capable de comprendre une décision.
Xavier de la Porte : C’est une leçon qui me semble tout à fait sage et qui touche à plein d’autres problèmes que notre rapport à l’administration, aux services publics et à l’État. Oui, le numérique change les choses, bien sûr, Joël et Soizic l’ont bien montré : la dématérialisation des démarches administratives, la mise en algorithmes de la décision publique et le recours à l’IA ont des effets propres et, parmi ces effets, il y a un durcissement de notre relation avec l’État, c’est indéniable. Et on peut même se demander si ce durcissement ne participe pas à ce que le sociologue Alexis Spire [5] a constaté dans ses derniers travaux et qu’il identifie comme, je cite, « un ressentiment à l’égard de l’État, un ressentiment particulièrement fort dans la partie la plus défavorisée de la population française qui a l’impression que tout cela joue contre elle » et là, il y a peut-être un changement. Néanmoins, le cadre dans lequel ces initiatives sont développées n’est pas nouveau. Ce cadre, c’est la manière dont l’État se conçoit, le rôle que se donne l’administration, le lien qu’elle veut avoir avec ses administrés, l’idée qu’on se fait d’une société et la place qu’on veut y faire aux moins favorisés. Tout cela c’est de la politique et c’est de la bonne vieille politique.
Voix off : Xavier de la Porte.
Xavier de la Porte : Merci à Soizic Pénicaud. Je rappelle qu’une partie de son travail est lisible par tout le monde sur le site de l’Observatoire des algorithmes publics et merci beaucoup à Joël Werba.
À la prise de son, Melissa et David, au mixage Basile Beaucaire, réalisation Séverine Cassar.
Le code a changé, un podcast original de France Inter.