Voix off : Next, Next, Next, Next.
Mathilde Saliou : Comment les nouvelles technologies modifient-elles nos manières d’appréhender le monde ? En quoi nous aident-elles ? Dans quelle mesure nous freinent-elles parfois ? Quand les contestons-nous ? Qu’est ce qui nous convainc qu’elles nous augmentent ? Et qu’est-ce qui nous motive à les contourner ?
Bienvenue dans Entre la chaise et le clavier, le nouveau podcast de discussion de Next.
Dans ces entretiens réguliers, je vous propose d’aller rencontrer des chercheurs, des expertes, des citoyens, des internautes du quotidien, pour discuter de leurs travaux sur le numérique ou de la manière dont ils et elles le manipulent.
Anne Alombert, voix off : Sous prétexte de gagner en efficacité, en productivité et en vitesse, eh bien, finalement, on va aller vers une homogénéisation de nos productions et vers une sorte d’incapacité collective à renouveler nos savoirs.
Épisode 1 : Éviter la bêtise artificielle
Mathilde Saliou : Début octobre, je suis descendue à vélo dans le centre de Paris. Je mettais pied à terre pour parcourir la rue piétonne proche de ma destination, lorsqu’une silhouette m’a dépassée, une grande chevelure rousse emprisonnée dans un manteau noir. Pas de doute, c’était Anne Alombert, maîtresse de conférences de philosophie contemporaine à Paris 8, membre du Conseil national du numérique [1], de 2020 à 2024, elle rejoignait les bureaux des Éditions Allia. Comme elle avait ses écouteurs dans les oreilles, j’ai dû m’y reprendre à deux fois pour attirer son attention. Cela m’a fait sourire intérieurement, car j’ai moi-même tendance à m’isoler du monde avec ce genre de dispositif branché dans mes conduits auditifs. Après avoir récupéré un café, puis rejoint les bureaux d’Allia au fond d’une cour cachée, nous nous sommes installées dans un petit bureau tapissé de livres du sol au plafond, c’est là que nous avons entamé notre discussion.
Vous venez de sortir un livre qui s’appelle De la bêtise artificielle. Quand on parle de bêtise, parle-t-on de celle des machines ou de celle des humains ?
Anne Alombert : En fait, j’essaye de parler de la bêtise qui pourrait être produite de manière industrielle, disons, par les nouveaux dispositifs technologiques qu’on appelle les intelligences artificielles génératives. Je dirais que cette bêtise n’est ni celle des humains ni celle des machines, c’est plutôt une conséquence d’un certain fonctionnement de certaines technologies et des effets que ces technologies peuvent avoir sur nos pratiques linguistiques, nos pratiques symboliques, nos pratiques expressives. Ce ne sont donc ni les humains qui sont bêtes ou les machines qui sont bêtes, c’est plutôt une conséquence sociale de certains choix technologiques, de certaines politiques technologiques, de certaines idéologies, aussi, qui provoquent cette bêtise.
Mathilde Saliou : Donc, si on résume, le risque qui vous inquiète avec le champ technologique, qui est aussi un champ économique, je ne sais pas comment vous le définiriez, de l’intelligence artificielle, ce serait de créer de la bêtise à échelle industrielle.
Anne Alombert : Oui, c’est un petit peu ça, effectivement. Par exemple, aujourd’hui, quand nous utilisons des dispositifs qu’on appelle les IA génératives, par exemple des générateurs automatiques de textes, d’images ou de sons, on pourrait dire qu’on va cesser d’utiliser certaines capacités psychiques, mentales, intellectuelles. Par exemple, quand nous nous exprimons nous-mêmes pour produire du sens, nous mobilisons notre mémoire, nous mobilisons notre imagination. Quand nous déléguons cette capacité d’expression ou de production de sens à ces dispositifs technologiques-là, qui sont en fait des machines à calculer sur des quantités massives de données, nous risquons de ne plus mobiliser ces capacités-là. Une étude du MIT, qui a été pré-publiée il y a quelques mois [2] , montrait que l’usage de ChatGPT avait des effets sur le cerveau des utilisateurs. Par exemple, certaines zones cérébrales, comme celles qui sont associées à la compréhension du sens, à la production du sens, ne sont pas mobilisées pendant l’utilisation de ces machines, du coup, les utilisateurs deviennent ensuite dépendants. Qu’est-ce que ça veut dire ? Ça veut dire que quand on leur enlève le logiciel, le service ou le produit numérique, les personnes ont beaucoup de mal à s’exprimer à nouveau, à rédiger à nouveau, à écrire à nouveau, et même, peut-être bientôt, à parler à nouveau. C’est donc un risque de prolétarisation cognitive ou symbolique ou psychique qu’il nous faut garder en tête quand nous diffusons à grande échelle ces dispositifs algorithmiques.
Le deuxième risque, c’est le risque du renforcement des moyennes et des biais. Comme vous le savez, ces machines font des calculs probabilistes sur des quantités massives de données, elles vont donc avoir pour tendance de renforcer les données qui sont les plus répandues dans les jeux de données. Ça produit donc des effets d’uniformisation, de standardisation, et tout ce qui relève des stéréotypes, des clichés, se voit renforcé dans ces dispositifs-là. Il y a aussi, évidemment, tous les biais idéologiques qui sont intégrés dans ces machines durant la phase de l’entraînement et qui vont, évidemment, conditionner la production des textes, des images, des sons.
Voilà ce que j’appelle la bêtise artificielle, c’est le risque de prolétarisation psychique ou cognitive et le risque d’uniformisation ou de standardisation culturelle.
Mathilde Saliou : Pourquoi utilisez-vous le terme « prolétarisation » pour parler d’une activité psychique ? Derrière, on entend « prolétaire », donc, potentiellement, la lutte des classes.
Anne Alombert : Oui, tout à fait. J’ai beaucoup travaillé avec la philosophie de Bernard Stiegler [3], qui est un philosophe contemporain, qui s’est beaucoup intéressé à la question des technologies numériques et à leurs enjeux anthropologiques, psychiques, socio-politiques. Bernard Stiegler avait relu les travaux de Karl Marx sur le prolétariat et avait transformé un petit peu ce concept de prolétariat pour en faire le concept de prolétarisation. Qu’est-ce que ça veut dire ? Ça veut dire que ce que décrit Marx, lorsqu’il parle du prolétariat, c’est l’extériorisation des savoir-faire de l’artisan dans la machine-outil, la machine mécanique. L’artisan va devenir ouvrier en extériorisant ses savoirs dans la machine-outil, dans la machine mécanique, donc en les perdant, d’une certaine manière. Il va devoir se soumettre aux rythmes et aux injonctions de la machine sur la chaîne de montage, dans une usine par exemple.
Aujourd’hui, avec les machines algorithmiques qui sont les nôtres, ce qui se passe, c’est un nouveau processus de prolétarisation, c’est-à-dire que nous extériorisons nos savoirs, mais non plus nos savoir-faire. Nous extériorisons nos savoir-penser, par exemple nos savoir-décider, nos savoir-exprimer, dans des machines algorithmiques, par exemple les algorithmes de recommandation ou les algorithmes de génération, qui vont décider à notre place quels contenus nous allons voir ou qui vont décider à notre place quelles phrases nous allons écrire. Nous extériorisons ces savoir-penser, ces capacités intellectuelles, mentales, psychiques, cognitives, dans les systèmes algorithmiques contemporains. On a donc un parallèle entre ces deux phénomènes, entre l’extériorisation des savoir-faire et l’extériorisation des savoir-penser, et, dans les deux cas, si on suit la terminologie qui est celle de Bernard Stiegler, on a un processus de prolétarisation.
Mathilde Saliou : L’autre jour, je discutais avec un ingénieur qui disait « dans la logique des ingénieurs, à chaque fois qu’on essaye de faire quelque chose, on essaye de le faire en économisant notre matière grise, donc on automatise autant que possible. » Dans quelle mesure recourir à l’intelligence artificielle pour essayer de s’économiser de la matière grise, donc aller plus vite dans les tâches qu’on veut faire, est-ce problématique ? Est-ce que ça ne peut pas être vu plutôt comme un avantage ? Ça permet de gagner en productivité ou une facilité pour réaliser des tâches.
Anne Alombert : C’est une évidence que ça peut être vu comme un avantage. Parce que si ça ne pouvait pas être vu comme un avantage, ces technologies ne se diffuseraient pas de manière aussi massive et aussi rapide. Évidemment qu’on va gagner en productivité ou en efficacité et on va gagner aussi en vitesse. Et, en général, c’est toujours le cas quand une nouvelle technologie se développe : elle nous fait gagner en productivité, en efficacité et en vitesse, sans quoi elle ne se développerait pas vraiment, en réalité, si je puis dire.
Mathilde Saliou : On a oublié les autres.
Anne Alombert : On a un petit peu abandonné les autres, ce n’est pas très rentable. Et comme on est quand même, disons, en train de parler de technologies ou d’industries qui se développent au sein d’un système économique capitaliste, eh bien la rentabilité, la productivité, l’efficacité ont évidemment une certaine importance. Néanmoins, il faut bien avoir en tête que ces technologies, tout aussi importantes puissent-elles être pour ces gains d’efficacité, de productivité, de vitesse, elles ont aussi des sortes d’externalités négatives, si je puis dire, des effets secondaires que bien souvent nous oublions parce que nous sommes fascinés par ces gains de vitesse, ces gains de productivité, ces gains d’efficacité, c’est absolument fascinant ! Nous sommes face à des machines qui font des calculs très complexes, sur des quantités massives de données, à la vitesse de la lumière, il y a vraiment de quoi être fasciné. Mais il faut bien voir que derrière cette fascination, il y a aussi des enjeux pour nous, pour nos capacités psychiques, cognitives, mentales, comme je le disais tout à l’heure, pour nos cultures collectives et aussi pour nos sociétés.
Ma perspective invite à aller au-delà de ces gains immédiats d’efficacité, de productivité, de vitesse, pour essayer d’évaluer les enjeux à plus long terme de l’usage de ces technologies. Ces technologies, par exemple la génération automatique de contenus, nous font gagner beaucoup de temps, c’est très clair. Le problème, c’est qu’elles s’entraînent sur des contenus humains qui ont été produits et qui sont déposés, si je puis dire, sur le Web, sur Internet, sur la toile. Or, les personnes qui ont produit ces contenus ne sont pas rémunérées. Il y a donc une forme d’extractivisme qui s’exerce, et on peut imaginer que si on ne rémunère pas, si on ne valorise pas la production de contenus humains, on va avoir de plus en plus de contenus automatiquement générés puisque, comme vous l’avez dit, c’est plus rapide, c’est plus efficace, c’est plus productif. Le problème, c’est qu’au bout d’un moment, les gros modèles de langage, ou les IA génératives, vont s’entraîner sur des contenus qui ont déjà été produits automatiquement, qui sont donc déjà des contenus très probables, très stéréotypés, très uniformisés. Un article dans la revue scientifique Nature, publié en 2024, montrait que les résultats de ces grands modèles de langage sont beaucoup moins pertinents lorsqu’ils s’appuient sur des contenus qui ont déjà été générés par d’autres grands modèles de langage ou par les mêmes. C’est un petit peu comme si vous faisiez la photocopie d’une photocopie, d’une photocopie : on perd en qualité, on perd en pertinence. On va donc se retrouver avec des contenus symboliques qui, finalement, seront tout à fait homogènes, uniformes, non pertinents, inintéressants. Il faut donc se poser la question à plus long terme, parce que, sous prétexte de gagner en efficacité, en productivité et en vitesse, finalement on va aller vers une homogénéisation de nos productions et vers une sorte d’incapacité collective à renouveler nos savoirs.
Mathilde Saliou : Est-ce qu’on n’y est pas déjà ? On parle beaucoup, en ligne, de la théorie de l’Internet mort et de la désagrégation, en tout cas de la moindre qualité vraiment visible de toutes sortes d’expériences en ligne, notamment la recherche en ligne sur Google ou la recherche de produits sur Amazon. Bref, l’expérience que nous avons en ligne est déjà de moins en moins qualitative. Donc, en fait, n’est-ce pas déjà le cas finalement ?
Anne Alombert : Oui et ça va s’accélérer encore. En fait, je mobilise dans le livre la notion d’emmerdification d’Internet [4] qui a été utilisée par Cory Doctorow. Je pense que c’est une très bonne notion pour décrire les effets à relativement court terme de ces intelligences artificielles génératives. C’est-à-dire qu’on va avoir affaire à des contenus de moins en moins pertinents et de moins en moins qualitatifs, comme vous disiez, de plus en plus standardisés, homogénéisés, stéréotypés en fait, et stéréotypés selon certains critères, selon certaines valeurs qui sont celles et ceux des entrepreneurs de la Silicon Valley qui produisent ces technologies ou bien des propriétaires des réseaux sociaux, là encore bien souvent issus de la Silicon Valley, qui choisissent et qui décident des algorithmes de recommandation, c’est-à-dire qui décident ce que nous voyons ou ce que nous ne voyons pas sur Internet. C’est pour cela qu’une des perspectives pour sortir un petit peu de ce problème de l’emmerdification, c’est vraiment d’agir sur la recommandation algorithmique et là je fais plusieurs propositions dans le livre, on y viendra peut-être après.
L’enjeu, c’est vraiment de comprendre que, à une époque où nous pouvons produire en quantité industrielle des contenus qui n’ont aucune importance ou qui sont complètement dégradés, comme vous disiez, ou non pertinents ou pire, complètement faux et manipulatoires, avec des désinformations en masse, nous avons tout intérêt à concevoir et à développer des algorithmes de recommandation qui soient capables de faire précisément le tri entre les contenus qui sont pertinents et ceux qui ne sont pas pertinents. Encore une fois, une fausse information en ligne, si elle n’est pas recommandée sur les réseaux sociaux aujourd’hui, elle n’a quasiment aucune importance. Le problème, c’est que ces algorithmes de recommandation, à l’heure actuelle, sont entre les mains de quelques entreprises privées californiennes et ils sont entraînés uniquement en vue d’accumuler du profit par ces entreprises-là et non pas en vue de permettre une circulation informationnelle dans nos environnements informationnels quotidiens qui soit un petit peu démocratique.
Mathilde Saliou : C’est peut-être le moment de revenir beaucoup plus tôt dans votre réflexion, en tout cas dans votre livre. Vous écrivez que « l’anthropomorphisation des machines masque un fantasme de toute puissance et de domination. » Dans les derniers propos que vous aviez, j’entends peut-être venir, en tout cas par l’accumulation que cherchent les grandes entreprises de la tech, un peu cette notion de toute puissance et de domination, mais, en même temps, l’anthropomorphisation est quelque chose que tout le monde fait, c’est-à-dire considérer que ces robots, notamment conversationnels, sont de vraies intelligences, même les utilisateurs participent à ce phénomène. Quand vous écrivez « l’anthropomorphisation des machines masque un fantasme de toute puissance et de domination », de qui parlez-vous et quel problème ça pose ?
Anne Alombert : Il est vrai que nous utilisons aujourd’hui quotidiennement ce langage pour parler des dispositifs technologiques qui nous entourent ; nous parlons d’« intelligence artificielle », d’« agents conversationnels » ; nous parlons aussi d’« apprentissage automatique », comme si, en fait, nous attribuions des capacités qui, traditionnellement, sont attribuées à des humains, à ces dispositifs technologiques, numériques, industriels, computationnels. En réalité, ce langage n’est pas un langage scientifique, c’est-à-dire qu’il ne décrit pas les mathématiques qui sont derrière ces technologies, il ne décrit pas non plus leur fonctionnement technologique, il masque aussi la manière dont elles sont produites et les infrastructures matérielles qui sont nécessaires pour les produire. Derrière ces idées d’apprentissage, d’intelligence, d’agentivité, la plupart d’entre nous ne sait pas très bien quelle signification nous donnons à toutes ces notions. C’est simplement pour dire « ça ressemble à ce que nous avons l’habitude de voir chez les humains », mais le fait que quelque chose ressemble dans sa surface, si je puis dire, à quelque chose d’autre, ne prouve pas du tout que ce soit la même chose. Par exemple, votre portrait sur un tableau vous ressemble, et pourtant votre portrait n’a pas d’intention, n’a pas d’émotion, n’a pas de vie psychique interne. Donc la ressemblance ne suffit pas à affirmer une identité.
Le problème, c’est que quand nous anthropomorphisons les machines de cette manière-là, nous avons l’impression qu’elles sont dotées de capacités psychiques, mentales, cognitives et nous nous empêchons de nous demander ce que leur utilisation fait à nos propres capacités mentales, psychiques et cognitives.
Croire que les machines sont des doubles de l’humain est une conception complètement fantasmatique de la machine, c’est le mythe du robot. En fait, nous utilisons ces termes et nous avons ces conceptions parce que nous sommes un petit peu habités par les productions de science-fiction qui ont beaucoup mobilisé cet imaginaire-là, l’imaginaire du robot comme double de l’humain, etc. Nous sommes aussi habités par toute l’idéologie transhumaniste, qui vient notamment de la Silicon Valley, qui a beaucoup insisté sur l’idée de machines intelligentes, machines pensantes, machines spirituelles, sur l’idée d’une conscience algorithmique, sur l’idée d’esprit numérique. On retrouvait cette notion d’esprit numérique dans la lettre ouverte, publiée par Elon Musk et par beaucoup d’autres experts quelques mois après le lancement de ChatGPT, en 2023 [5] avant qu’Elon Musk ne lance lui-même Grok, son intelligence artificielle générative. Dans cette lettre, beaucoup d’experts du numérique disaient « attention, nous sommes face à des esprits numériques qui vont dépasser les capacités humaines, etc. » Je ne crois pas du tout qu’il s’agisse d’esprits, encore faudrait-il savoir de quoi on parle quand on parle d’esprits, c’est une question assez compliquée. Mais surtout, ce qui est important, c’est que nous, nous ne sommes pas des machines à calculer, nous ne faisons pas des calculs sur des quantités massives de données, d’ailleurs nous en serions incapables.
Pour générer un résultat, l’intelligence artificielle générative doit faire des calculs statistiques sur des quantités massives de données. Il y a aussi un processus de conversion des données textuelles, imagées, sonores, sous forme de valeurs numériques et ces valeurs numériques, ensuite, correspondent en fait à des vecteurs dans des espaces mathématiques multidimensionnels qu’on appelle les espaces latents [6]. Ensuite, la machine va rechercher un petit peu une proximité entre différentes valeurs numériques et c’est sur cette base-là que ces calculs vont générer d’autres vecteurs et ce sont ces vecteurs-là qui vont être ensuite convertis en de nouvelles données textuelles, imagées ou sonores. Nous sommes évidemment incapables de faire tout ce processus-là, d’ailleurs ça n’a même pas de sens de dire qu’un humain pourrait effectuer ce type de processus, ce sont des processus mathématiques, électroniques, algorithmiques. En fait, il ne se passe pas du tout la même chose dans notre cerveau que ce qui se joue dans ces machines à calculer, d’ailleurs ça ne se passe pas seulement dans notre cerveau, ça se passe dans tout notre corps quand nous pensons. Je pense que ces analogies sont un petit peu problématiques et surtout, encore une fois, qu’elles nous empêchent de comprendre comment fonctionnent ces machines et de comprendre ce que ces machines nous font à nous.
Mathilde Saliou : Le projet initial de l’intelligence artificielle, en tout cas tel qu’en parlaient ses fondateurs, c’était d’utiliser notamment la science informatique, mais aussi de mobiliser toutes les autres sciences, pour en apprendre plus sur le fonctionnement du cerveau humain, en essayant de le reproduire ou de l’imiter, etc. Dans quelle mesure l’intelligence artificielle générative nous apprend-elle quelque chose sur le fonctionnement du cerveau humain, si elle nous apprend quelque chose ?
Anne Alombert : C’est une question très compliquée parce que très débattue. En réalité, il n’y a pas de vérité absolue sur ce plan. J’ai évidemment des convictions.
Les fondateurs de cette notion d’intelligence artificielle, lors de la conférence de Dartmouth [7], en 1956, étaient pour la plupart, je le rappelle, des ingénieurs ou bien des personnes qui travaillaient dans le champ de l’informatique ou des sciences cognitives, ou de l’algorithmique. Quand vous lisez le programme, c’est-à-dire le petit texte programmatique qu’ils ont écrit pour demander des financements pour faire leurs recherches, ils ne parlent pas vraiment de comprendre le fonctionnement du cerveau humain ou de l’intelligence humaine. Ils parlent de le simuler et de le reproduire, comme vous l’avez dit, c’est un petit peu différent. Simuler, reproduire, imiter, c’est un petit peu différent de comprendre parce qu’il y a des sciences qui ont pour fonction de comprendre le cerveau humain, ce sont les neurosciences. Mais à la base, l’informatique, l’algorithmique n’ont pas pour fonction de comprendre le cerveau humain, plutôt de simuler des processus, des opérations qui sont traditionnellement considérées comme étant, on va dire, des manifestations d’intelligence, par exemple, le langage, le raisonnement, le jeu.
Encore faudrait-il savoir ce qu’on entend par intelligence, parce qu’il y a 1000 formes d’intelligence en réalité. Donc quelle est l’intelligence qu’on va reproduire ? Quelle est l’intelligence qu’on va simuler ? C’est déjà une bonne question.
Ensuite ce cerveau humain, dont on nous parle si souvent, en fait c’est un organe, disons que le cerveau, il fait partie d’un organisme vivant, l’organisme vivant humain et les organismes vivants humains d’aujourd’hui, du 21small>e siècle, ne sont pas exactement les mêmes que les organismes vivants humains du 4small>e siècle avant Jésus-Christ, par exemple, et les cerveaux, non plus, ne sont pas exactement les mêmes. C’est-à-dire qu’il faut avoir une conception un petit peu évolutionniste de ces questions. Ce que je veux dire par là, c’est que nos cerveaux se forment, se déforment et se transforment en fonction des dispositifs techniques, matériels, médiatiques qui les entourent. C’est ce qu’a très bien montré un paléoanthropologue, qui s’appelle André Leroi-Gourhan [8], qui a écrit, en 1964, un livre qui s’appelle Le Geste et la Parole, dans lequel il montre que chez les premiers humains, puisqu’il est préhistorien, il fait de la paléoanthropologie, le processus d’hominisation et de « formation », entre guillemets, du cerveau est lié au processus d’extériorisation technique. C’est-à-dire que les cerveaux se transforment en fonction des outils qui sont développés et inversement, la transformation de ces cerveaux permet aussi l’évolution des outils, il y a une relation réciproque entre les deux. Un certain nombre de recherches en neurosciences aujourd’hui, notamment les recherches de Maryanne Wolf, qui est une chercheuse américaine, montrent que les cerveaux lettrés et les cerveaux digitaux ne sont pas les mêmes. Qu’est-ce que ça veut dire ? Ça veut dire que quand vous pratiquez beaucoup les médias imprimés, que vous apprenez l’écriture à la main, que vous apprenez la lecture, c’est-à-dire à mettre en sons, à articuler des lettres, etc., il y a des connexions neuronales qui se forment, il y a des synapses qui se forment dans votre cerveau, ça participe à la synaptogenèse, à la formation des synapses dans votre cerveau. Quand vous lisez sur écran ou dans les médias numériques, quand vous regardez surtout des contenus audiovisuels et moins des contenus écrits, quand vous regardez des contenus pendant trois minutes et que vous ne maintenez plus votre attention pendant longtemps sur un même contenu, ces connexions neuronales se déforment, il y en a peut-être d’autres qui se forment. Le cerveau est un organe extrêmement plastique au point que Maryanne Wolf parle de cerveaux lettrés et de cerveaux digitaux pour dire que ce n’est pas les mêmes cerveaux selon les médias qui sont pratiqués. La question va donc être : quel cerveau l’intelligence artificielle imite-t-elle ? Elle imite le cerveau de l’homme préhistorique, elle imite le cerveau des Grecs à l’époque de Platon, elle imite notre cerveau à l’époque de la presse imprimée et des médias audiovisuels ? Ou bien imite-t-elle les cerveaux digitaux des générations actuelles qui sont complètement formés, et bien souvent déformés, par les médias sociaux et par les IA génératives.
Donc, je ne sais pas ce que c’est que le cerveau humain en général.
Mathilde Saliou : Du coup, j’imagine que c’est pareil, que vous aurez une conclusion similaire sur ce qu’est l’intelligence, vous l’avez déjà dit, ce qu’est la pensée et peut-être ce qu’est le fait de créer. Je pose la question parce que, à un moment, vous citez la manière qu’a Sam Altman, fondateur d’OpenAI, d’envisager la création. Pour lui, ça ne se ferait qu’au niveau des concepts et d’idées qui apparaissent dans les cerveaux, quels qu’ils soient, et pas forcément dans l’acte. Ce qui peut expliquer que, à ses yeux, ce ne soit pas très important, que ce soit même pratique de développer des outils qui génèrent à la place de l’humain. En revanche, vous citez notamment une autre étude du MIT, je crois, qui montre que des utilisateurs de ChatGPT écrivant un texte avec ChatGPT ne s’en ressentent pas les auteurs, donc, à priori, n’ont aucun sens de paternité ou de maternité sur l’œuvre, sur leur production.
Anne Alombert : C’est vrai que dans l’usage un petit peu quotidien et dominant de ces dispositifs-là, nous avons souvent tendance à croire que nous allons avoir une idée. Nous voulons, par exemple, écrire un poème dans le style de je ne sais quel poète et nous allons demander à la machine de le faire à notre place, ou bien un film, ou bien une chanson. Quand on fait ça, on passe une commande, on énonce une instruction ou une consigne pour un dispositif technologique qui va nous produire un résultat. Or, ce qui est sûr c’est que l’acte de création – les actes de création, parce qu’il y en a effectivement plein, ils sont tous différents –, qu’aucun acte de création ne se réduit à passer une commande. C’est-à-dire que bien souvent, quand on crée ––que ce soit un texte, que ce soit une musique, que ce soit un film, que ce soit une recette de cuisine––, quand on est dans la création, souvent on ne sait pas à l’avance ce qu’on va obtenir à la fin. On a toujours une idée, on a toujours une intuition, un élan qui nous pousse à l’acte, mais le processus lui-même va transformer cette idée, cet élan, cette intuition, si bien que quand on va arriver à un résultat ––d’ailleurs ce n’est pas toujours facile de savoir quand est-ce qu’on arrive à un résultat–– en fait, on va être soi-même surpris du résultat ; le créateur, les créateurs eux-mêmes sont surpris, il n’y a pas un réalisateur de film qui vous dit « le film que j’ai obtenu à la fin c’est exactement, mot pour mot, celui que je voulais faire au début. » Bien sûr, il y avait une intuition, une intention, une trame, mais le résultat était complètement imprévisible. C’est la même chose dans tous les actes de création.
Cette idée que nous pourrions savoir à l’avance, avant de faire, n’est, à mon avis, pas du tout une bonne description de la création. C’est une bonne description de la consommation. Quand vous voulez un produit, vous savez à l’avance ce que vous voulez : je veux telle paire de chaussures, de telle couleur, de telle marque, etc., je la commande. Mais là on est consommateur, on n’est pas créateur.
Pour moi, dans les usages un petit peu dominants de ces dispositifs, on est dans des positions d’utilisateur ou de consommateur bien plus que de créateur.
Cela dit, évidemment, il y a désormais beaucoup de créateurs qui mobilisent ces IA génératives, ces grands modèles de langage, pour faire des choses très intéressantes. Mais attention, parce que là, eux ne sont plus seulement en train d’utiliser le service numérique proposé par OpenAI, ils sont en train de nourrir eux-mêmes le modèle, peut être de l’entraîner à leur manière et d’intégrer leur création à tout un dispositif artistique parfois complexe, notamment dans le champ des images et de la musique. Ces dispositifs deviennent vraiment intéressants quand on ne passe plus par le langage. En fait, quand on entraîne des modèles sur des données qu’on a nous-mêmes choisies, on leur fait faire des choses tout à fait différentes de ce qu’ils font dans les services les plus massivement diffusés.
Je ne suis pas en train de dire qu’on ne peut pas créer avec de l’intelligence artificielle générative. Je suis en train de dire que dans les usages dominants qui sont faits des services numériques de génération automatique, en fait les usagers, la plupart du temps, se retrouvent vraiment dans une position de consommateur qui consiste à passer une commande pour obtenir quelque chose et non pas du tout de créateur, comme, parfois, les discours marketing tendent à nous le faire croire en disant « même si vous n’avez jamais tenu une caméra entre vos mains, vous allez pouvoir générer un film, même si vous ne savez jouer d’aucun instrument, vous allez pouvoir générer de la musique, même si vous ne savez pas dessiner, vous allez pouvoir générer des images. » Il faut prendre ces discours avec beaucoup de prudence.
Mathilde Saliou : Vous mobilisez, à un moment, le mythe de Prométhée. Est-ce que vous pourriez expliquer pourquoi ?
Anne Alombert : Le mythe de Prométhée c’est, en fait, le mythe grec qui est très connu pour raconter l’origine de la technique. Épiméthée et Prométhée sont deux titans, ils sont frères tous les deux. Épiméthée avait été chargé de distribuer à tous les vivants des qualités, des propriétés qui leur permettent de survivre dans les milieux naturels terrestres dans lesquels ils vivent et de survivre aussi entre eux. Épiméthée a distribué des qualités à toutes les espèces vivantes, certaines ont eu la vitesse, d’autres ont eu la force, d’autres ont eu des poils, d’autres ont eu des ailes, d’autres ont eu des écailles, etc., pour pouvoir vivre dans différents milieux, et puis, il a oublié de doter les humains d’une qualité. C’est un gros problème parce que, du coup, les hommes se retrouvent sans qualité, complètement indéterminés, incapables de survivre dans ces milieux hostiles et de faire face, justement, aux attaques potentielles des autres espèces, etc. Pour cette raison, Prométhée, son frère, pour compenser l’oubli d’Épiméthée, va aller voler aux dieux, notamment Héphaïstos et Athéna qui sont les dieux grecs de l’artisanat et de la guerre, le feu et va le donner aux humains. Le feu est ici le symbole de la technique, de la puissance technique, parce que, avec le feu, vous pouvez fabriquer toutes sortes d’objets qui vont vous permettre de survivre, notamment des vêtements, des habitations, des outils, etc. Souvent, et c’est très connu, on raconte que Prométhée, suite à ce vol, a été puni par les dieux.
On a déjà là l’idée d’une sorte de démesure, de transgression qui est associée à la question de la technique et de la puissance technique, j’y reviendrai.
Ce qu’on raconte un peu moins souvent, c’est que ces techniques, que les hommes peuvent désormais s’approprier pour survivre, vont aussi les menacer de destruction. Pourquoi ? Parce qu’avec ces techniques, qui sont aussi des armes, les humains vont commencer à s’entre-tuer et à se battre. C’est la raison pour laquelle, dans la suite du mythe, il est raconté que Zeus envoie Hermès, le dieu grec de l’écriture, c’est aussi le dieu grec messager qui vient transmettre les messages divins aux mortels, auprès des mortels pour leur transmettre l’art politique. Qu’est-ce que ça veut dire ? Ça veut dire que sans art politique et seulement avec leur technique, les humains sont incapables de vivre ensemble, ils se massacrent les uns les autres. L’art politique va être ce qui va permettre aux humains, aux groupes humains, d’adopter leur technique et de vivre ensemble en paix. Ça nous donne une indication assez claire sur les liens entre technique et politique. Comme nous sommes des êtres intrinsèquement techniques, que les techniques sont les conditions de possibilité de notre survie, en fait, nous ne pouvons pas nous passer de technique, eh bien, de ce fait même, nous devons devenir des hommes politiques que nous ne sommes pas d’emblée, disons de manière innée, il nous faut donc apprendre l’art politique pour que ces techniques ne deviennent pas des armes et ne nous détruisent pas, pour que ces techniques deviennent non pas des armes, mais, au contraire, des supports de savoir, de soin, de culture.
Mathilde Saliou : La mention du mythe m’a marquée parce que je l’ai lue ailleurs, dans un livre qui pourrait paraître lointain mais qui, je pense, ne l’est pas, qui est La ruée minière au XXIe siècle de Celia Isoart. Nous savons que pour faire tourner l’essentiel de nos outils électroniques, il faut d’abord commencer dans les mines pour aller chercher des métaux rares. Elle ne citait pas, à l’époque, la suite du mythe, elle s’inquiétait du fait que nous soyons de nouveau, en tant qu’humains, emportés par l’hubris prométhéenne et que rien ne puisse permettre de freiner la destruction annoncée par le mythe. Vous, en poussant la logique d’Hermès et l’art du politique, vous laissez entendre qu’il y a peut-être une solution. Ou le politique doit-il se loger dans la gestion de l’intelligence artificielle ?
Anne Alombert : C’est une vaste question. Il y a évidemment dans le développement des techniques, des technologies, des industries et en particulier des industries numériques aujourd’hui, une forme d’hubris, de démesure. Nous sommes maintenant à peu près clairement informés de la catastrophe écologique et environnementale qui se déroule sous nos yeux et pourtant, certaines entreprises privées continuent à développer d’énormes centres de données qui sont très coûteux en électricité, qui sont aussi très coûteux en eau, parce qu’il faut refroidir, évidemment, ces centres de données et, parfois, ces constructions se font au détriment des habitants eux-mêmes. C’est-à-dire que les habitants qui vivent dans les villes voisines vont voir leurs réseaux d’eau ou d’électricité ponctionnés par ces centres de données, alors que nous avons besoin, bien sûr, de l’électricité, mais encore plus de l’eau pour pouvoir bien vivre, pouvoir s’hydrater est une condition vitale. Il faut le rappeler, parce que certains transhumanistes tendent à faire de nous des esprits numériques ou bien des espèces de créatures un petit peu téléchargeables, immortelles. En fait, nous avons des corps et sans eau nous ne pouvons pas survivre et nous allons avoir, dans les années qui viennent, des gros problèmes d’eau, comme le disent un certain nombre d’experts en écologie et en sciences de l’environnement.
Tout cela pour dire que ces développements technologiques et industriels sont effectivement potentiellement dangereux.
Néanmoins, je crois qu’il n’y a pas de fatalité à ces développements-là. Ce sont des choix politiques et ce sont aussi des modèles économiques qui se développent à travers ces infrastructures-là et nous pouvons très bien faire d’autres choix et choisir d’autres modèles. C’est la raison pour laquelle il me semble important de rappeler que, dans ce mythe de Prométhée, après la démesure, la transgression, l’hubris, arrive la nécessité de l’art politique et des choix collectifs. Je pense que nous avons en tant que pays, en tant qu’Europe aussi, vocation à faire des choix qui ne vont pas dans le sens du déploiement fulgurant et massif de ces technologies-là, de ces technologies d’intelligence artificielle générative, étant donné que nous n’en avons pas les moyens au niveau environnemental, les ressources ne sont pas suffisantes, tout simplement, et aussi, étant donné que ces technologies ont des effets potentiellement nuisibles à la fois sur le plan économique, mais aussi sur le plan psychique, sur le plan culturel et sur le plan politique, parce qu’en réalité, il s’agit de l’automatisation du langage. Nous sommes des êtres parlants, automatiser le langage c’est une grande bifurcation dans l’histoire de l’humanité et il n’est pas sûr que ce soit la meilleure bifurcation dans le contexte actuel. Nous sommes dans un contexte politique qui devient de plus en plus violent. La capacité à parler, à s’exprimer, à argumenter, à réfléchir est de plus en plus essentielle pour ne pas tomber, justement, dans la violence et dans l’excès. Or, si nous désapprenons à parler, à réfléchir, à penser, je ne suis pas du tout certaine que notre avenir politique soit très fructueux, soit très fécond.
Je pense que pour faire les choix politiques au sujet de l’intelligence artificielle générative, il ne faut pas se poser seulement des questions de productivité et d’efficacité, il faut vraiment se poser des questions à la fois écologiques, environnementales, sur le plan des ressources, pour savoir si de tels développements industriels sont soutenables dans les années qui viennent. Ou bien des questions, on va dire politiques au sens très large, c’est-à-dire qu’est-ce que le développement et la diffusion massive de ces technologies vont faire à nos capacités de réfléchir, de penser, de parler, donc à nos relations sociales, à nos relations collectives.
Mathilde Saliou : Nous sommes le 9 octobre au moment d’enregistrer. Hier, la Commission européenne a dévoilé un plan dans lequel elle expliquait vouloir pousser les entreprises à adopter beaucoup plus rapidement l’intelligence artificielle, parce qu’elle estime que nous sommes en retard, notamment comparés aux États-Unis et à la Chine. Vu ce que vous venez de dire, qu’est-ce que cette politique vous inspire ?
Anne Alombert : Cette politique m’inspire qu’on reste dans les mêmes manières de penser, un petit peu classiques, qui consistent à vouloir automatiser de plus en plus de processus pour produire de plus en plus et pour gagner, encore une fois, en temps, en efficacité, en efficience. Je pense que ce type de réflexion n’est pas suffisant aujourd’hui. Je pense, comme je viens juste de le dire, que nous devons vraiment envisager ces industries-là du point de vue de leurs enjeux pour ce que j’appelle les trois écologies, c’est-à-dire à la fois l’écologie environnementale, mais aussi l’écologie mentale et l’écologie sociale. Je reprends ce terme à un philosophe qui s’appelle Félix Guattari [9], qui parlait des trois écologies en ce sens, et je pense que c’est de cette manière-là, écologique au sens très large, qu’il faut envisager ces outils et pas seulement d’un point de vue économique.
D’ailleurs, d’un point de vue économique, tous ces raisonnements restent un petit peu problématiques, parce que la question se pose tout de même des enjeux de cette automatisation généralisée. Aujourd’hui, avec l’IA générative, vous pouvez automatiser de plus en plus de tâches, donc, potentiellement, vous allez avoir besoin de moins en moins d’employés, mais quel va être le résultat de ce que vous allez produire si ce n’est plus du tout qualitatif ? Est-ce que ça vaut la peine de faire ce type d’économie-là ? Et par ailleurs, quelles conséquences sur l’emploi et sur les sociétés ? Là encore, j’ai beaucoup travaillé avec le philosophe Bernard Stiegler, dont je parlais tout à l’heure, qui s’inquiétait déjà, en 2015, de l’automatisation généralisée et de l’insolvabilité économique que cela pourrait créer : si vous avez de moins en moins d’employés, si vous avez de moins en moins de personnes qui travaillent et qui reçoivent un salaire, vous avez aussi de moins en moins de personnes qui vont pouvoir consommer : vous allez produire des choses, mais pour des personnes qui ne peuvent plus les consommer, donc, d’un point de vue économique, en fait c’est contradictoire.
Mathilde Saliou : Un autre élément important dans la réponse d’avant, que vous souligniez, c’était la nécessité de garder notre capacité à nous exprimer pour pouvoir échanger. La dernière question que je voulais vous poser, liée à votre livre, c’est quelles pistes de solutions mettriez-vous en avant ? Je suppose, et même je sais, qu’il y en a certaines qui sont assez axées sur la possibilité de débat. Peut-être voulez-vous nous évoquer ces pistes-là ?
Anne Alombert : Oui, tout à fait. En fait, ce que j’essaye de montrer dans la dernière partie du livre, c’est que l’intelligence artificielle et les technologies algorithmiques ne sont pas vouées à avoir ce rôle justement de remplacement ou d’automatisation, d’imitation, de simulation des humains. En fait, on peut les utiliser aussi pour, disons, renforcer nos relations collectives et renforcer les processus d’intelligence collective. Je prends plusieurs exemples. Je prends l’exemple de plateformes bien connues comme Wikipédia ou comme Pol.is [10], qui sont des plateformes qui permettent, dans le cas de Wikipédia, de partager des savoirs collectivement, donc de mettre en commun toutes sortes de savoirs sur toutes sortes de sujets, à travers des algorithmes qui sont transparents et des règles qui sont discutables par les individus qui participent à ce type de projet collectif. La plateforme Pol.is est une plateforme qui permet de faire des délibérations en ligne au sujet de telle ou telle proposition politique. Par exemple, les individus peuvent s’exprimer, faire des propositions alternatives, voter pour les propositions avec lesquelles ils sont d’accord ou pas d’accord. Et puis, la plateforme essaye de faire émerger les propositions qui sont transversales aux différents groupes d’opinion. Des groupes d’opinion sont parfois très opposés les uns aux autres et la plateforme va faire remonter les propositions qui trouvent du consensus dans les deux groupes. C’est très intéressant, ce sont des manières complètement différentes d’utiliser les algorithmes et les technologies numériques pour produire de l’intelligence collective de manière à obtenir des résultats qui étaient complètement impossibles avant le numérique. Vous ne pouviez pas coconstruire du savoir avec des millions de personnes avant d’avoir des plateformes numériques, vous ne pouviez pas faire un débat collectif avec des millions de personnes avant d’avoir des plateformes numériques, alors que vous pouviez en fait écrire des livres, vous pouviez produire des films, produire des musiques avant d’avoir des IA génératives. On n’en avait pas besoin pour faire ça. D’ailleurs, c’est précisément parce qu’on pouvait le faire avant que ces IA génératives fonctionnent : si elles n’avaient pas été nourries avec nos données, elles ne pourraient pas fonctionner !
Ce sont donc deux conceptions complètement différentes du numérique : est-ce qu’on utilise ces technologies pour faire la même chose que les humains, ou est-ce qu’on utilise ces technologies pour faire des choses complètement nouvelles et inédites qu’on ne pouvait pas faire à une époque médiatique précédente ?
Ce sont aussi des modèles économiques et des idéologies politiques complètement différentes : est-ce qu’on fait du commun ou bien est-ce qu’on utilise ces industries pour faire des produits ou des services privés qui vont rapporter beaucoup d’argent à un tout petit nombre de personnes, sans rémunérer tous les contributeurs ? Ce sont deux philosophies complètement différentes.
Et puis j’insiste aussi beaucoup, je donne plusieurs exemples de nombreuses technologies. Je montre, par exemple, qu’aujourd’hui les agents conversationnels ou bien les compagnons virtuels se développent de manière massive et que ces technologies-là nous isolent complètement les uns des autres, alors qu’il existe aussi des plateformes qui permettent de mettre en rapport les savoirs locaux, de mettre en lien les individus qui sont dans le besoin avec des individus bénévoles, etc., et qui permettent de renforcer les solidarités locales.
Et puis, enfin, j’insiste sur un algorithme de recommandation collaborative qui est développé par la plateforme Tournesol [11], qui permet que des citoyens, tout simplement, aillent voter ou aillent comparer, aillent évaluer des vidéos en ligne pour choisir celles qui leur semblent pertinentes. À partir de ces choix, de ces décisions, de ces évaluations, l’algorithme recommande les contenus qui ont été jugés d’utilité publique par les citoyens. Là on a donc un algorithme vraiment démocratique puisqu’il se fonde sur les choix, les évaluations, les décisions des citoyens et non pas sur les agendas politiques ou commerciaux des grandes entreprises du numérique. Il va recommander des contenus qui sont peut-être beaucoup plus pertinents que ceux que nous recommandent les algorithmes de X, de TikTok, de Facebook, de YouTube.
Je pense que cette idée de pluraliser nos algorithmes de recommandation et de travailler à des recommandations citoyennes, contributives, collectives, collaboratives, c’est vraiment l’avenir d’Internet. C’est-à-dire que si nous voulons retrouver un milieu symbolique, numérique de qualité et ne pas tomber dans l’emmerdification généralisée, nous avons besoin de pluraliser ces algorithmes de recommandation. Le pluralisme algorithmique est d’ailleurs une des recommandations des États généraux pour l’information [12] et je pense que cette question du pluralisme algorithmique est extrêmement importante pour l’avenir.
Mathilde Saliou : Inspiré par les travaux de Nicolas Nova, je pose une question à la plupart de mes invités : une difficulté technique ou un bug qu’ils auraient rencontré et ce que cela a provoqué comme réflexion chez eux ? Quel est le dernier bug ou le dernier problème que vous avez eu avec un de vos outils numériques ?
Anne Alombert : Ce n’était pas vraiment un bug, mais un des problèmes que j’ai eus, c’est le fait que je n’arrivais pas à me connecter sur Microsoft Teams, qui est un service de visioconférence, avec mon ordinateur, car mon ordinateur était configuré avec Linux, il y avait donc une incompatibilité, me semble-t-il, je crois que c’était la cause. Comme je suis complètement prolétarisée technologiquement, c’est-à-dire que j’ai très peu de connaissances techniques, je ne suis pas sûre que ce soit la raison pour laquelle je n’ai pas pu me connecter, en tout cas, c’est un petit peu ce que j’ai cru pouvoir deviner. C’est un petit problème que j’ai eu récemment qui fait que j’ai dû, finalement, rejoindre un collègue dans son bureau pour faire la réunion.
Mathilde Saliou : Plutôt qu’utiliser votre propre ordinateur.
Anne Alombert : Plutôt qu’utiliser mon propre ordinateur.
Mathilde Saliou : Juste avant qu’on commence l’entretien, vous m’évoquiez déjà cet exemple et vous souligniez que ça illustre très bien certaines problématiques d’interopérabilité pour lesquelles on pourrait argumenter. Est-ce que vous pouvez développer un peu ?
Anne Alombert : Oui, tout à fait. En fait, ça illustre d’abord ma propre prolétarisation technique, c’est-à-dire le fait que je ne sois pas vraiment capable d’identifier la source et la cause du problème et je pense que c’est la position de beaucoup d’utilisateurs du numérique. C’est très facile à utiliser mais c’est beaucoup plus compliqué à comprendre et, quand quelque chose ne fonctionne pas, bien souvent on ne comprend pas pourquoi ça ne fonctionne pas, ça nous laisse un petit peu dans une situation qui peut, disons, nous désorienter. Et cet exemple illustre aussi, à mon avis, le fait que certains systèmes ne sont pas interopérables entre eux et que, par exemple, si vous n’avez pas un ordinateur qui fonctionne avec Microsoft, vous n’allez pas pouvoir utiliser certains services de Microsoft. Cette question de l’interopérabilité est vraiment essentielle aujourd’hui parce que les stratégies commerciales des grandes entreprises du numérique ont souvent pour but de nous enfermer dans des écosystèmes, c’est-à-dire qu’il faut utiliser tous les services Microsoft pour pouvoir naviguer de service en service, c’est la même chose avec Google, etc. Vous allez vite vous retrouver enfermé dans la logique d’une entreprise privée, alors même qu’on pourrait imaginer que tous ces services soient interopérables.
Par exemple, quand vous êtes sur un réseau social, si vous avez envie de changer de réseau social, ce serait beaucoup plus facile parce que vous pourriez tout simplement transporter toutes vos données pour aller sur un autre réseau que vous jugez plus éthique, plus intéressant, plus pertinent. Il y a, comme je les cite dans le livre, des réseaux sociaux alternatifs qui ne fonctionnent pas avec des algorithmes de recommandation et de la publicité ciblée, qui ont des modèles d’affaire et surtout des projets politiques tout à fait différents des réseaux sociaux commerciaux. Mais, bien souvent, nous sommes enfermés dans notre petit réseau social et nous ne pouvons pas passer d’un réseau social à l’autre. Or, vous savez très bien que si vous avez un opérateur téléphonique et que vous voulez appeler quelqu’un qui a un autre opérateur téléphonique, vous pouvez le faire.
De même pour les messageries électroniques : si vous êtes sur tel service, vous pouvez envoyer un mail à quelqu’un qui est sur un autre service. Le problème, c’est que quand il s’agit des messageries instantanées ou des réseaux sociaux, ces services ne sont pas interopérables entre eux. Je pense que c’est aussi une véritable question d’avenir de rendre les services beaucoup plus interopérables et imaginer qu’on puisse utiliser des algorithmes de recommandation alternatifs sur des réseaux sociaux qui ne soient pas forcément les algorithmes de recommandation qui appartiennent à l’entreprise à laquelle appartient le réseau social.
Mathilde Saliou : Ou même, si on reprend le cadre de votre ordinateur, on peut retourner jusqu’au niveau du système d’exploitation et, quel que soit le système d’exploitation, pouvoir utiliser les services de n’importe qui sans se poser la question.
Anne Alombert : Par exemple, exactement, ce qui ne nous obligerait pas à être enfermé dans une entreprise spécifique pour pouvoir utiliser ses services.
Mathilde Saliou : Autrement dit, avec plus d’interopérabilité, les internautes pourraient peut-être se sentir un peu moins artificiellement bêtes, puisque leurs expériences numériques ne seraient pas entravées par de stupides problèmes.
Cela dit, quelque chose me plaît dans le bug d’Anne Alombert : il a peut-être suscité des échanges directs entre collègues qui n’auraient pas forcément eu lieu si tout avait parfaitement fonctionné sur son ordinateur. Rappelez-vous tout à l’heure, la philosophe évoquait le risque que les machines, notamment les intelligences artificielles nous isolent, qu’elles accentuent nos divisions en nous faisant perdre l’habitude d’écrire, de formuler notre pensée en la fabriquant nous-mêmes, donc, à terme, qu’elles menacent jusqu’à nos capacités à échanger. Dans certaines configurations, les bugs techniques permettent sûrement d’inverser cette mécanique !
Si cet épisode vous a plu, faites-le savoir à vos proches, qu’ils et elles soient technophiles ou carrément technocritiques. Comme cela, vous leur rappellerez qu’entre la chaise et le clavier, comme devant la tablette ou devant l’écran du smartphone, il y a des gens qui ont plein de bonnes idées. Ce sont vos partages et vos commentaires qui nous permettent toujours d’améliorer nos propositions. Quant à vos abonnements, ils nous sont essentiels pour déployer nos analyses des enjeux technologiques au quotidien.
Entre la chaise et le clavier est un podcast tourné et écrit par moi, Mathilde Saliou. Il a été réalisé par Clarisse Horne et est produit par Next. L’adresse de notre média c’est next.ink. À très vite !