L’IA générative et la prolétarisation de la pensée IA qu’à m’expliquer

ChatGPT fait-il de nous des abrutis ?

Voix off : IA qu’à m’expliquer

Grégoire Barbey : Mesdames et Messieurs, bonjour. Bienvenue dans IA qu’à m’expliquer, le podcast du Temps qui démystifie les intelligences artificielles.
Pour cet épisode, j’ai reçu la philosophe Anne Alombert qui a publié tout récemment un petit livre sur la bêtise artificielle [De la bêtise artificielle ]. Dans cet ouvrage, elle propose une analyse au vitriol de ce qu’elle qualifie de propagande idéologique autour de l’intelligence artificielle.
Mais d’abord, nous reviendrons sur l’actualité. Entre le lancement de Grokipedia par Elon Musk et OpenAI qui a enfin trouvé un accord avec Microsoft et lancé son navigateur Atlas, les derniers jours ont été pour le moins stimulants.
Avant de commencer, je vous rappelle que vous pouvez soutenir ce podcast en le partageant avec vos collègues, amis et famille. Si vous l’écoutez sur Apple Podcasts ou Spotifiy, vous pouvez aussi le noter et laisser un commentaire. Ces interactions sont utiles parce qu’elles envoient un signal à l’algorithme de ces plateformes qui, ensuite, est susceptible de proposer IA qu’à m’expliquer à d’autres utilisateurs.

Je suis Grégoire Barbey, journaliste au Temps. Vous écoutez le deuxième épisode de la saison 2 de IA qu’à m’expliquer.

Avant d’entrer dans le vif du sujet, je voulais vous avertir. Le prochain épisode sera un peu particulier puisqu’il va coïncider, à quelques jours près, avec les trois ans du lancement de ChatGPT. Ce sera l’occasion, pour nous, de revenir, avec des collègues du Temps, sur ces trois folles années qui ont suivi l’essor de l’intelligence artificielle générative grand public. En attendant, que je vous propose de passer à l’entretien, nous allons revenir brièvement sur l’actualité et, comme d’habitude, vous retrouverez quelques liens dans la description du podcast si vous voulez approfondir ces sujets.

Actualité

L’intelligence artificielle générative va-t-elle détruire le Web tel que nous le connaissons ? La question se pose plus que jamais avec le lancement tout récent de Grokipedia, l’encyclopédie d’Elon Musk qui doit servir à détruire Wikipédia qu’il accuse d’être militante, qu’il surnomme même la plateforme « woképédia ». Grokipedia est donc une alternative à Wikipédia, sauf que son contenu est entièrement généré à l’aide du modèle de langage Grok, conçu par la startup xAI d’Elon Musk. Les médias du monde entier se sont amusés à consulter certaines pages de Grokipedia et le résultat, c’est que Grokipedia est loin d’être neutre. Certaines entrées font l’impasse sur des faits gênants par exemple pour Musk, d’autres sont carrément du copier-coller de Wikipédia.
Je ne saurais pas vous dire si Grokipedia va vraiment concurrencer Wikipédia, ce que je sais, en revanche, c’est que Wikipédia est probablement la seule démarche collaborative et contributive à avoir résisté à la plateformisation du Web. L’encyclopédie n’est pas exempte de reproches, mais la façon dont son contenu est créé et débattu reste à ce jour une anomalie et la diversité c’est important, ça serait dommage que l’IA générative finisse par avoir raison de Wikipédia.

De son côté, OpenAI continue de lancer de nouveaux produits et services à un rythme effréné. La société dirigée par Sam Altman a récemment lancé Atlas, un navigateur web qui intègre ChatGPT. Perplexity, l’un de ses principaux concurrents, en avait fait de même en juillet, le navigateur s’appelle Comet. En fait, ça permet surtout à OpenAI de donner accès, à son modèle de langage, à tout un tas d’informations supplémentaires pour affiner ses réponses et le rendre encore plus utile, c’est du moins ce qu’affirme l’entreprise qui promet, en parallèle, que les utilisateurs conservent le contrôle sur leurs données. OpenAI explique qu’Atlas permet aussi de déléguer certaines tâches à ChatGPT, comme la réservation d’un restaurant. Étant donné que le logiciel a accès aux mots de passe et cartes de crédit, il peut valider des transactions de manière autonome. Sam Altman en est convaincu, Atlas va révolutionner la navigation sur le Web. C’est encore un peu tôt pour mesurer à quel point cette nouvelle offre, dans le domaine des navigateurs web, pourrait vraiment changer la donne. Est-ce que les utilisateurs voudront vraiment aller aussi loin dans l’intégration de ChatGPT dans leur navigation et peut-être perdre encore plus de contrôle sur le fonctionnement de leurs outils ? Je pense que la question reste ouverte. À titre personnel, je vais continuer d’utiliser Firefox [1], mais peut-être que je suis déjà dépassé !

Restons sur OpenAI qui a finalement trouvé un accord sur l’évolution du partenariat stratégique qui l’unit à Microsoft depuis 2019. C’est une étape importante pour la transformation d’OpenAI en entreprise d’intérêt public qui lui permettra d’engranger des bénéfices sans que ceux-ci soient plafonnés. Cette transformation doit être achevée d’ici la fin de l’année pour qu’OpenAI ne perde pas certaines promesses de financement effectuées lors de la dernière levée de fonds de l’éditeur de ChatGPT. Microsoft détient donc désormais 27 % de la structure commerciale d’OpenAI, soit la bagatelle de 135 milliards de dollars. Jusqu’ici, la précédente version de l’accord qui unissait les deux sociétés prévoyait que Microsoft perdrait l’accès aux technologies d’OpenAI lorsque l’éditeur de ChatGPT déclarera avoir atteint le stade de l’intelligence artificielle générale. Vous savez, c’est cette notion un peu floue qui alimente les discussions scientifiques et philosophiques. Eh bien maintenant, ce sera différent. Si OpenAI déclare avoir atteint cette étape, un comité indépendant sera chargé d’en évaluer la véracité. Par ailleurs, Microsoft conservera l’accès aux modèles concernés sous réserve de certaines garanties de sécurité.
Enfin, OpenAI s’est engagé à acquérir pour 250 milliards de dollars de services auprès d’Azure, la filiale cloud de Microsoft. De l’avis de plusieurs médias, Microsoft sort grand vainqueur de ce nouvel accord, mais Sam Altman a toujours plus d’un tour dans son sac et nous ne sommes pas à l’abri de nouveaux rebondissements.

Voilà qui conclut ce petit tour d’horizon de l’actualité de l’intelligence artificielle. Comme d’habitude, tous les liens sont en description et il est désormais temps de passer à l’entretien.

Entretien avec Anne Alombert

Grégoire Barbey : Bonjour Anne Alombert.

Anne Alombert : Bonjour.

Grégoire Barbey : Vous êtes maîtresse de conférences en philosophie française contemporaine à l’Université Paris 8. Vos travaux portent essentiellement sur le thème de la technique et vous venez d’ailleurs de publier De la bêtise artificielle aux éditions Allia.
En lisant votre livre, je suis ressorti avec le sentiment que l’intelligence artificielle est une imposture. Est-ce vraiment le cas ?

Anne Alombert : Une imposture, je ne sais pas. Ce qui est certain, c’est que c’est une notion extrêmement problématique qui masque beaucoup de questions et de dimensions importantes concernant les technologies numériques contemporaines.
D’abord, cette expression est problématique parce que ce n’est pas une expression scientifique. En 1956, lors de la conférence de Dartmouth [2], lorsque ce terme « intelligence artificielle » apparaît, c’est surtout un terme promotionnel. On aurait très bien pu parler de « traitement automatique de données », de « calculs algorithmiques sur des données », mais on parle d’intelligence artificielle pour attirer des financements. En fait, les chercheurs qui montent ce programme de recherche veulent évidemment être financés. Donc, derrière cette notion, il y a toute une mythologie selon laquelle on va parvenir à reproduire ce que l’on considère comme l’intelligence humaine dans des machines électroniques, informatiques puis numériques. Mais tout cela n’a pas de fondement scientifique, je le rappelle.
Ensuite, il faut bien comprendre que cette notion va masquer beaucoup de processus liés au fonctionnement des technologies numériques contemporaines.

Grégoire Barbey : Lesquelles ?

Anne Alombert : Par exemple, le fait que ces technologies ont un coût matériel, énergétique, considérable. En fait, il n’y a pas une espèce d’intelligence éthérée dans des circuits algorithmiques, il y a des systèmes et des réseaux techniques, donc des centres de données, des câbles, des satellites, etc., et tout cela est un petit peu effacé. Toutes les matières premières – l’eau, l’énergie, l’électricité – qui vont être nécessaires pour alimenter ce système et ce réseau technique tendent à disparaître derrière ces vocables de « machines pensantes » ou de « machines spirituelles ».
Ensuite, il y a aussi du travail humain qui est nécessaire pour faire fonctionner ces machines, à la fois l’indexation de données, mais aussi la production de contenus, puisque les IA génératives contemporaines ne génèrent rien mais extraient et, disons, calculent des données qui sont issues de toutes nos contributions sur Internet. C’est donc un fonctionnement plutôt extractiviste que génératif.
Et puis enfin, il y a aussi des algorithmes, il y a des fonctionnements disons techniques, des schèmes techniques qui sont à l’œuvre dans ces machines, qu’on ne voit pas si on leur prête des capacités humaines comme l’intelligence, la pensée, des intentions, des émotions, une volonté ou je ne sais quoi d’autre.

Grégoire Barbey : Vous pointez aussi, dans votre livre, une propagande idéologique de l’intelligence artificielle, ce sont des mots assez forts. Est-ce que vous pouvez nous les expliquer ?

Anne Alombert : En fait, je m’appuie sur les réflexions d’un philosophe qui s’appelle Georges Canguilhem [3] qui parle de machine de propagande idéologique. Il écrit dans les années 80, c’est dans un article qui s’appelle « Le cerveau et la pensée ». Il remarque déjà que toutes ces notions – intelligence artificielle, cerveau artificiel, machine consciente, etc. – sont des notions problématiques. Les gens qui ont produit ces machines se sont effectivement inspirés d’études sur le cerveau ou d’études sur la cognition pour développer ce qu’on appelle l’intelligence artificielle symbolique ou l’intelligence artificielle connexionniste [4]. Pour autant, cela n’autorise pas à croire que les machines que l’on a produites sont des modèles de ce qu’on a considéré comme le cerveau ou comme la cognition, il y a une sorte d’inversion dans la notion même de modèle. Le problème, c’est qu’une fois qu’on parle de cette manière-là, on a l’impression que les machines sont des doubles des humains, que finalement nous sommes tous des machines à calculer. Forcément, si nous sommes tous des machines à calculer, dit Canguilhem, nous allons tous accepter d’avoir des machines à calculer chez nous, d’être entourés de machines à calculer, c’est la première chose. Mais aussi, nous allons beaucoup plus facilement accepter d’être remplacés par des machines à calculer, c’est-à-dire que nous allons avoir l’impression que nous, les humains, nous sommes simplement des machines à calculer moins performantes que les ordinateurs ou que les générateurs automatiques de texte, etc. Donc nous allons forcément nous soumettre un petit peu à ces injonctions qui consistent à devoir travailler toujours plus, toujours plus vite, de manière toujours plus efficace, plus efficiente, sans quoi nous serons soi-disant remplacés par des machines. Ce qui fait notre singularité, ce qui fait notre unicité, tend à s’effacer quand on se compare en permanence à des dispositifs numériques.

Grégoire Barbey : Il y a aussi un passage, dans votre livre, où vous parlez à la fois de ceux qui sont très enthousiastes de l’intelligence artificielle, qui imaginent que, demain, il y aura la super intelligence, vous citez notamment Sam Altman, et vous parlez aussi de ceux qui sont catastrophistes, comme peuvent l’être Yoshua Bengio [5] et compagnie. Et là vous dites « en fait, ce sont des discours qui peuvent sembler opposés, mais qui se rejoignent, quelque part, parce que tous les deux montrent l’idée que l’intelligence artificielle est quelque chose d’inévitable. »

Anne Alombert : Si vous voulez, le point commun entre ces deux types de discours, c’est qu’ils croient que quelque chose comme l’intelligence artificielle existe et qu’on peut la comparer à quelque chose comme l’intelligence humaine. Or, ce qui m’intéresse, ce n’est pas tant cette question-là, c’est plutôt la question de savoir ce que ces dispositifs algorithmiques et numériques vont faire à nos esprits individuels et collectifs, c’est-à-dire à la fois à nos capacités mentales, psychiques, de réflexion, d’interprétation et de délibération, de discussion, mais aussi à nos cultures collectives, à nos milieux symboliques. Je crois que c’est comme cela qu’il faut s’interroger sur ces technologies et non pas en les comparant toujours dans une sorte de schéma de compétition entre l’humain et la machine. Il ne faut pas se demander qui est le plus intelligent de l’humain ou de la machine, mais comment ces dispositifs technologiques et algorithmiques transforment nos esprits et nos sociétés, qui les possède, qui les entraîne, qui les développe. En fait, il faut poser des questions politiques.

Grégoire Barbey : Vous forgez aussi la notion d’hypnose technique pour qualifier les efforts mis en œuvre par les fabricants de ces technologies, justement pour cacher aux utilisateurs les processus internes à la machine. Que ce soit avec ChatGPT ou un algorithme de recommandation sur une plateforme quelconque, l’utilisateur est uniquement exposé au résultat final. Est-ce que, selon vous, cela participe à empêcher l’exercice d’une forme de pensée critique à l’égard de la machine ?

Anne Alombert : Oui, tout à fait. Je reprends cette notion d’hypnose technique à un philosophe qui s’appelle Gilbert Simondon [6], qui a écrit dans les années 60, et qui s’interrogeait justement sur notre difficulté à comprendre le fonctionnement technique interne des appareils qui nous entourent, surtout quand on n’en voit que la surface, si je puis dire. Évidemment, Simondon ne pensait pas à la question des intelligences artificielles génératives, mais aujourd’hui, on voit bien que quand nous sommes face à des dispositifs comme ChatGPT, GroK ou DeepSeek, nous sommes face à une interface et nous ne voyons pas le fonctionnement. D’ailleurs, les algorithmes et l’entraînement de ces machines, les jeux de données sur lesquels les algorithmes ont été entraînés, demeurent souvent opaques, ne sont pas transparents. Donc nous ne savons pas comment les textes ou les images sont produites. Tout ce que nous voyons, finalement, c’est un résultat. En ce sens, il est très difficile de développer un esprit critique à l’égard de ce résultat, puisque nous ne savons pas comment il a été produit, nous n’avons aucune idée du processus de production.
Par ailleurs, beaucoup de leurres sont mis en place pour nous hypnotiser un petit peu. Je donne deux exemples.
Dans les usages grand public de ces dispositifs, bien souvent la machine, le logiciel va vous inciter à toujours poser une nouvelle question, va vous demander si vous n’avez pas besoin de plus d’informations, si vous n’avez pas besoin de plus de précisions.

Grégoire Barbey : Surtout avec ChatGPT, c’est très fort.

Anne Alombert : Voilà. Ce n’est pas que vous avez une intelligence fantasmatique qui s’intéresse à savoir ce que vous pensez ou si vous avez envie de continuer à dialoguer avec elle, pas du tout, il n’y a évidemment personne derrière ces dispositifs. Par contre, il y a une stratégie de marketing qui consiste à essayer de vous capter le plus longtemps possible pour que vous restiez connecté à un service.
Deuxième exemple très frappant, le fait que ces dispositifs parlent à la première personne du singulier. Ils disent « je ». Et évidemment nous humains, pauvres humains, quand nous entendons le mot « je », nous avons pour habitude de penser qu’il s’agit de quelqu’un qui est capable de faire référence à soi-même, c’est-à-dire qui est doté d’une forme de réflexivité. Donc forcément, nous anthropomorphisons la machine, nous anthropomorphisons le logiciel, nous anthropomorphisons le service ou le produit numérique au point parfois de nous attacher. Vous savez qu’il y a des phénomènes de dépendance émotionnelle à l’égard de compagnons virtuels, etc., et tout cela, évidemment, est un grand avantage pour une entreprise privée. Si vous tombez amoureux de son produit, elle va pouvoir vous manipuler d’autant plus. Je pense que ces stratégies-là sont des stratégies qui visent à leurrer les utilisateurs alors que nous devrions être en droit de comprendre comment fonctionnent ces dispositifs, en particulier si nous sommes de plus en plus nombreux à les utiliser au quotidien.

Grégoire Barbey : Cette question des résultats est aussi très intéressante, parce qu’on ne voit pas non plus la part d’incertitude qui est inhérente aux suggestions que font ces logiciels. On sait que parfois, sur un logiciel par exemple de reconnaissance d’images, ce ne sera jamais 100 %, il y a toujours une part d’incertitude et on n’a pas ces résultats. En tant qu’utilisateur final, tout ce qu’on voit c’est la suggestion la plus probable, mais on ne sait pas le taux de probabilité, on ne sait pas ce qui avait été mis en comparaison qui aurait pu être aussi comme un résultat plausible. Que peut-on faire ? Qu’est-ce qui doit être mis en place pour que ça change et qu’on ait justement accès à une meilleure visibilité de ces processus internes de la machine ? D’ailleurs, est-ce qu’on peut faire quelque chose ?

Anne Alombert : Oui, tout à fait. Par exemple, dans le cadre du règlement européen sur les services numériques [7], on a imposé la transparence des algorithmes aux algorithmes de recommandation sur les réseaux sociaux. On pourrait donc aussi exiger une forme de transparence sur les algorithmes qui nourrissent ces logiciels de génération automatique. On pourrait aussi exiger une transparence sur les jeux de données qui leur sont fournis, puisque, après tout, on ne sait même pas sur quelles données ils ont été entraînés. On pourrait aussi, par exemple, s’interroger sur la possibilité, pour ces machines, d’utiliser la première personne. Là encore, le règlement européen sur les services numériques interdit les dark patterns, ces interfaces trompeuses qui sont utilisées pour manipuler les pensées et les comportements des utilisateurs sur les réseaux sociaux et d’ailleurs sur d’autres sites. On pourrait imaginer que cet usage de la première personne du singulier soit considéré comme un leurre, comme une technique de manipulation, et on pourrait se demander si on doit l’autoriser ou non.
À mon avis, il y a donc beaucoup de choses que nous pouvons faire, du moins auxquelles nous devons réfléchir pour réguler un petit peu l’usage grand public de ces dispositifs, d’autant plus que, comme vous le disiez, ce fonctionnement probabiliste pose aussi d’autres problèmes puisqu’il renforce toujours les séquences de signes les plus probables. Comme vous le disiez, on ne voit même pas ce qui est très improbable dans les suggestions de la machine. Il y a donc des risques d’uniformisation des contenus symboliques, à la fois textuels mais aussi imagés, sonores, où ce sont toujours les choses les plus probables, les choses les plus répandues, les opinions majoritaires d’une certaine manière, qui sont renforcées. C’est un risque pour la culture collective. Vous savez que la culture évolue seulement quand il y a des singularités, quand il y a des originalités, quand il y a des écarts par rapport à la norme, c’est ce qui permet de faire évoluer l’art, la science, la philosophie. Je pense qu’il y a là un certain nombre de risques très importants qu’il faut prendre en charge et au moins commencer par se poser les bonnes questions.

Grégoire Barbey : Il y a aussi un phénomène un peu nouveau avec ces intelligences artificielles génératives : jusqu’ici, on avait fait une automatisation des savoir-faire et aujourd’hui vous dites que toute cette stratégie de manipulation permet aussi de masquer l’automatisation des savoir-penser. Qu’est-ce que cela veut dire ?

Anne Alombert : Je fais un parallèle entre la première et la seconde révolution industrielle qui ont rendu possible le machinisme industriel, c’est-à-dire l’extériorisation des savoir-faire dans des machines-outils et la division industrielle du travail manuel. Aujourd’hui, nous avons affaire à une nouvelle révolution industrielle, la révolution industrielle numérique, qui implique l’extériorisation des savoir-penser dans des machines algorithmiques et la division industrielle du travail intellectuel. Qu’est-ce que cela signifie ? Cela signifie que nous allons être tentés de déléguer nos efforts, nos capacités, nos pratiques intellectuelles dans des machines algorithmiques qui effectuent des calculs statistiques sur des quantités massives de données. Cela peut donner lieu à un processus de prolétarisation, c’est-à-dire de perte de ces capacités. Si nous n’entraînons plus nos capacités intellectuelles comme la mémoire, l’imagination, la réflexion, la synthèse, etc., eh bien nous allons tout simplement les perdre, un petit peu comme si pour vous entraîner à jouer au football, vous envoyiez sur le terrain un robot s’entraîner à votre place, vous pouvez être sûr que vous ne saurez pas jouer à la fin de l’année. On est un peu dans cette même situation.
Une étude du MIT a été pré-publiée il y a quelques mois. Elle montrait que quand nous utilisons ces dispositifs-là, certaines zones cérébrales qui ne sont plus du tout mobilisées, notamment celles qui sont liées aux activités d’intégration du sens et de production du sens. Qu’est-ce que cela veut dire ? Cela veut dire que nos activités symboliques sont en train d’être déléguées à des machines algorithmiques qui, en plus, pour celles qui dominent le marché appartiennent à une poignée d’entreprises privées. Il y a donc un risque, si vous voulez, de prolétarisation cognitive, linguistique, symbolique et de standardisation des savoir-penser.

Grégoire Barbey : Anne ALombert Je reviens sur le titre de votre livre, De la bêtise artificielle , pourquoi ce mot ? Pourquoi avoir forgé cette idée-là ? C’est juste un bon titre ou est-ce que ça va plus loin que ça ?

Anne Alombert : Non, pour moi ça va évidemment un peu plus loin que ça. L’idée c’était de dire que l’enjeu n’est pas la super intelligence des machines à venir. L’enjeu est la production industrielle de bêtise parmi les sociétés. Pourquoi ? Parce que l’usage dominant de ces dispositifs permet de produire toujours plus de contenus, mais à quoi bon ? À quelles fins ? C’est la question qu’il faudrait se poser. C’est la question du sens et de la signifiance. Nous sommes noyés par des images et des textes produits algorithmiquement à la vitesse de la lumière, mais nous avons beaucoup de mal à retrouver notre chemin dans cet océan de contenus numériques, alors que l’intelligence, si je puis dire, en tous cas le sens, émergent toujours de la sélection des bons contenus, de leur pertinence. Ce qu’il nous faut, c’est parvenir à sélectionner des contenus intéressants et pertinents, qu’ils soient générés par des humains ou par des machines, ce n’est pas la question. Le problème, c’est vraiment l’industrialisation numérique de la culture qui, à mon avis, pourrait se révéler très dangereuse.

Grégoire Barbey : Vous avez aussi publié cette même année, puisque vous êtes très prolixe, un livre qui s’appelle Penser avec Bernard Stiegler, un philosophe technocritique [8] qui a beaucoup écrit sur le sujet de la technique. Qu’a-t-il à nous apprendre peut-être vis-à-vis de l’intelligence artificielle ? Malheureusement, il est décédé peu de temps avant la sortie de ChatGPT. Comment aurait-il pu interpréter cette émergence de la machine qui automatise les savoir-penser ?

Anne Alombert : Je pense que dans son livre La Société automatique Bernard Stiegler a beaucoup anticipé ce qui nous arrive aujourd’hui. Il parlait notamment d’un court-circuit de ce qu’il appelle les protentions, c’est-à-dire la capacité à se projeter. Il soutenait que les algorithmes de recommandation court-circuitent nos protentions. En fait, au lieu de décider par nous-mêmes, nous allons nous appuyer sur les suggestions algorithmiques et nous allons leur déléguer notre faculté de décision. Je pense que ce qui se passe aujourd’hui avec les IA génératives, c’est un petit peu la même chose, mais pour les facultés d’expression. C’est-à-dire qu’au lieu d’essayer de nous exprimer par nous-mêmes, nous allons déléguer nos capacités expressives à des machines statistiques qui vont s’exprimer à notre place. Je pense que Bernard Stiegler peut vraiment nous donner les clés et les concepts pour interpréter ce qui nous arrive aujourd’hui.
Par ailleurs, je pense que les réflexions de Bernard Stiegler sont précieuses parce qu’il a beaucoup réfléchi à la manière d’adopter ces milieux numériques contemporains, c’est-à-dire qu’il ne se limitait pas à la technocritique, justement. Il proposait des perspectives pour faire en sorte que ces technologies bénéficient au plus grand nombre. Il nous enjoignait, d’une part, à envisager un revenu contributif, donc la rétribution des activités de travail, de la pratique des savoirs. C’est quelque chose qui peut nous inspirer aujourd’hui. On pourrait se demander pourquoi des mécanismes de redistribution des richesses ne sont pas envisagés, puisqu’on a quelques acteurs privés qui font de l’extractivisme sur la culture collective, puisque toutes ces données avec lesquelles les modèles sont entraînés sont des données que nous avons produites. Mais si nous ne renouvelons pas ces activités de production culturelle, eh bien ces machines elles-mêmes ne pourront plus fonctionner. À force de s’entraîner sur des données automatiquement générées, elles finissent par produire des contenus complètement non pertinents et indifférents.
L’enjeu, c’est de se demander comment redistribuer la richesse dans ce monde-là, en valorisant précisé ment les activités de savoir, de savoir-faire, de savoir-vivre, de savoir-penser qui ne sont pas automatisables. Vous pouvez les réduire à des procédures automatiques algorithmiques, mais vous ne pouvez pas automatiser un savoir puisqu’un savoir se transmet de génération en génération, ça se pratique et, surtout, ça se transforme, ça se renouvelle. Or, ces machines, précisément, ne renouvellent pas les savoirs, elles les épuisent comme elles épuisent par ailleurs les ressources naturelles.

Grégoire Barbey : Anne Alombert, pour conclure, ce que je trouve intéressant dans ce que vous venez de dire, c’est l’idée de repolitiser, quelque part, la technique. On entend beaucoup cette idée qu’il n’y aurait pas d’alternative, que l’intelligence artificielle, telle qu’elle est conçue aujourd’hui, est inévitable, que la numérisation de nos vies est inévitable, que c’est un processus, c’est comme ça et, quelque part, il faut faire avec, il faut l’accepter. Est-ce que vous êtes d’accord avec ça ? Et sinon, qu’est-ce qu’on peut faire pour lutter contre cette visée un petit peu déterministe de la technique ?

Anne Alombert : Je ne suis pas du tout d’accord avec ça, bien sûr. Quand je travaillais avec Bernard Stiegler, nous avons beaucoup travaillé sur la notion de technologie herméneutique et contributive. Qu’est-ce que cela veut dire ? Cela veut dire des technologies numériques qui sont au service des pratiques d’interprétation, de réflexion, de délibération collective. On en connaît tous une, c’est la plateforme Wikipédia qui est une encyclopédie collaborative sur laquelle chacun peut partager son savoir et surtout, j’insiste, le renouveler. C’est-à-dire qu’on va pouvoir corriger des pages, etc., les processus sont transparents, donc on peut, si vous voulez, travailler ensemble pour coconstruire du savoir tous ensemble, enfin tous, on n’est jamais tous ensemble, mais vous voyez ce que je veux dire. Ce genre d’encyclopédie collaborative, qui permet de faire participer tout un chacun sur des sujets qu’il connaît ou sur lesquels il se sent apte à apporter quelque chose, était complètement impossible du temps du livre ou du temps de la télévision. C’est la première chose.
Vous avez aussi une plateforme délibérative [9], pol.is, qui permet la délibération collective autour de propositions politiques et qui permet aux individus et aux groupes de faire des propositions eux-mêmes et de tomber d’accord sur des propositions, alors même que, au départ, ils étaient assignés, disons, à des positions complètement polarisées et qu’ils n’étaient pas du tout d’accord. C’est donc une plateforme qui permet la délibération et la construction collective de consensus.
Ces types de plateforme sont des plateformes qui ont des usages et des fonctions tout à fait différentes de nos réseaux sociaux actuels, qui sont fondés sur le modèle de la publicité ciblée, ou des IA génératives qui visent à remplacer la production symbolique.
J’insiste aussi sur la nécessité de transformer ces réseaux sociaux puisque, comme vous le savez, les réseaux sociaux sont aujourd’hui devenus une menace pour nos démocraties. Or, là encore, il y a des solutions. L’association Tournesol [10] travaille à un algorithme de recommandation collaborative qui permet de faire des recommandations sur la base des jugements et des évaluations humaines, et non pas sur la base des agendas politiques ou financiers des entreprises de la Silicon Valley. Nous avons beaucoup insisté, au Conseil national du numérique [11], sur la notion de pluralisme algorithmique, sur la nécessité de pluraliser les algorithmes sur les réseaux sociaux pour mettre en place une nouvelle circulation démocratique de l’information.
Il y a donc beaucoup de solutions. Je les explique dans le détail dans la dernière partie du livre De la bêtise artificielle, et je pense que nous devons absolument travailler à ces solutions aujourd’hui, sinon, effectivement, ce sentiment de fatalité va se répandre très vite.

Grégoire Barbey : En un point, très rapidement, parce que j’ai quand même envie de vous relancer sur ce point : quand on vous écoute, on se demande si c’est possible, dans le système actuel capitaliste d’aujourd’hui, avec cette propension à mettre la propriété privée au-dessus de tout, d’arriver à cette gestion collective, parce que c’est ça que vous proposez finalement. Avoir une gestion collective des technologies, est-ce que c’est possible, aujourd’hui, dans un système comme le nôtre ?

Anne Alombert : Il faut transformer ce système, c’est justement tout l’enjeu. Nous en avons beaucoup parlé, avec Gaël Giraud, dans un précédent ouvrage qui s’intitulait Le capital que je ne suis pas !. Nous avons essayé de montrer pourquoi ce capitalisme numérique est en fait insoutenable, il est auto-destructeur, il faut donc le transformer. Maintenant, évidemment, c’est plus facile à dire qu’à faire, mais je pense que nous devons œuvrer pour cette transformation et non pas baisser les bras de manière un petit peu lâche et désespérée.

Grégoire Barbey : Ce sera le mot de la fin. Anne Alombert, une dernière question. C’est la question rituelle : si on a envie de vous suivre sur les réseaux, où est-ce qu’on peut vous retrouver vos travaux ?

Anne Alombert : Vous pouvez retrouver mes travaux académiques sur la plateforme Hal. Vous pouvez me retrouver sur Linkedin. Et puis surtout, vous pouvez retrouver mes livres en librairie.

Grégoire Barbey : Merci beaucoup.
Voilà qui conclut cet épisode. Si vous avez aimé ce contenu, vous savez ce qu’il vous reste à faire pour nous aider à le faire connaître au plus grand nombre. En attendant, si vous avez des questions ou des remarques, vous pouvez nous écrire à cyber chez letemps.ch, je vous lis toujours avec grand plaisir. Je vous donne rendez-vous dans deux semaines. D’ici là, vous pouvez continuer de nous suivre sur le site du Temps. Vous pouvez aussi découvrir nos autres podcasts sous la coupole des brise-glace.