Découvrir la pièce de théâtre Qui a hacké Garoutzia ?

Diverses voix off : Parlez-moi d’IA.
Mesdames et Messieurs, bonjour. Je suis un superordinateur analytique de recherche et de liaison.
C’est une machine qui rend fou les choses.
On nous raconte n’importe quoi sur l’IA.
Qu’est-ce que tu en dis ?
Moi je n’en dis n’en dit rien du tout.
La créativité, elle reste du côté humain.

Jean-Philippe Clément : Bonjour à toutes et à tous. Je suis Jean-Philippe Clément. Bienvenue sur Parlez-moi d’IA sur Cause Commune la radio pour transmettre et comprendre. Transmettre et comprendre, c’est aussi l’objectif que se fixe cette émission sur le sujet spécifique des data, des algorithmes et des intelligences artificielles. Nous avons 30 minutes pour essayer de mieux comprendre ces nouveaux outils.
Cause Commune, que vous pouvez retrouver sur le Web, cause-commune.fm, et sur la bande FM, à Paris, sur le 93.1 et, bien sûr, le DAB+. On se retrouve également en podcast sur votre plateforme préférée. N’hésitez pas à partager cette émission autour de vous, à lui donner plein de likes et d’étoiles si vous l’appréciez, c’est notre seule récompense.

Il est de retour et son absence m’a fait réaliser à quel point il était essentiel pour cette émission et pour moi, avant, pendant, après, merci Jérôme Sorrel de réaliser cette émission. Merci aussi à Olivier Grieco, notre directeur d’antenne, pour nous donner cette opportunité de parler de data et d’IA. Merci à vous chères auditrices et chers auditeurs de tester pour la première fois ou de revenir nous écouter, c’est sympa.

Cette semaine, c’est assez marrant. Plusieurs sources, articles, vidéos ou podcasts, bien entendu consacrés à l’IA, on ne se refait pas, sortent au même moment et se sont replongés au même moment dans une vieille histoire de l’IA. Il s’agit de l’histoire du chatbot ELIZA [1] créé en 1964 et 66 par Joseph Weizenbaum. Ce professeur du MIT a conçu un bot assez original qui simule un psychothérapeute rogérien [2]. Celui-ci ne fait qu’une seule chose : il reformule les affirmations du patient, c’est sa seule fonction, et, avec ce simple comportement, le chercheur a constaté que les utilisateurs pensaient qu’ELIZA était doté d’intelligence et de sensibilité émotionnelle. On a d’ailleurs appelé effet ELIZA cette capacité que les humains ont à donner aux machines une compréhension et une empathie qu’elles n’ont pas.
Dans le même registre, dernièrement Replika, la société qui propose des compagnons virtuels, a décidé de protéger ses clients : ses avatars d’IA de compagnie ne peuvent pas être reconfigurés comme étant des boyfriends et des girlfriends. Elle a reçu des messages désespérés et déprimés de ses clients qui avaient perdu leurs interactions amoureuses avec leur compagnon virtuel.

Tout ceci nous réinterroge sur nos liens à la machine, sur la tendance humaine à l’anthropomorphisme sur tout ce qui nous entoure, la nature, les animaux, et désormais les machines qui simulent de mieux en mieux leur humanité. C’est une vaste question. C’est notre question du jour, car plusieurs grands spécialistes de l’IA ont voulu innover pour nous parler de ces sujets et nous faire réfléchir. Ils ont abandonné, quelques instants, leurs conférences, leurs master class, leurs cours en amphi, pour écrire une pièce de théâtre. Elle s’intitule Qui a hacké Garoutzia ? et elle se joue bientôt à Paris et dans toute la France.
Nous avons le plaisir, aujourd’hui, de recevoir la metteuse en scène et comédienne Lisa Bretzner et l’un des auteurs, Serge Abiteboul.
Bonjour et bienvenue à tous les deux.

Lisa Bretzner : Bonjour. Merci.

Serge Abiteboul : Bonjour.

Jean-Philippe Clément : Merci d’être avec nous dans ce studio pour nous parler de cette pièce de théâtre où le personnage principal est une IA, alors parlez-moi d’IA. Serge Abiteboul qui êtes-vous, qui sont vos deux coauteurs et pourquoi une pièce de théâtre sur l’IA ?

Serge Abiteboul : Je suis chercheur en informatique, j’ai fait de la recherche informatique toute ma vie, enseignant, chercheur, et c’est la même chose pour Gilles Dowek et pour Laurence Devillers. Nous sommes trois amis et puis, un jour, on s’est dit qu’on avait envie de parler de l’IA autrement. On a l’habitude de raconter un peu ce qu’on fait, notre recherche ; on essaye aussi de raconter ça à des gens qui ne sont pas des spécialistes. On s’est dit que le faire de façon plus légère, avec une pièce de théâtre, c’était peut-être plus agréable pour nous, ça nous sortait de nos sentiers battus, ça nous amusait, d’une certaine façon, et on a cherché à amuser, on n’a pas essayé de faire un truc prise de tête.

Jean-Philippe Clément : Je confirme. On s’amuse beaucoup, j’ai lu la pièce.
Lisa, est-ce que vous pouvez essayer nous pitcher cette pièce pour nous expliquer le contexte, la manière de l’aborder ?

Lisa Bretzner : Bien sûr. La pièce commence chez une vieille dame, très célèbre, une riche autrice à succès qui a un chatbot de compagnie, un chatbot très efficace, très adapté, très personnalisé, qui lui apprend, un jour, qu’elle a Alzheimer. On la voit progressivement perdre un petit peu la tête, se raccrocher à ce chatbot et lui demander de conserver sa mémoire. Seulement ce chatbot, Garou, de son nom à ce moment-là, ne peut pas conserver la mémoire d’une humaine après être passé à un autre humain, c’est interdit par les lois de la robotique imaginées dans cette pièce ; ça pose des problèmes éthiques, bien sûr, après la mort, la question du deuil, tout ça. Donc il lui dit : « Non, je ne peux pas, mais, peut-être que si Garou est hacké, il pourra conserver cette mémoire » et on se rend compte, effectivement, que quand Garou va passer à d’autres propriétaires, il aura peut-être été hacké pour pouvoir garder cette mémoire spécifique, ce qui va la rendre un petit peu particulière, lui construire une identité spécifique.

Jean-Philippe Clément : Et, au milieu de tout ça, il y a un meurtre et on mène l’enquête avec les protagonistes.

Lisa Bretzner : Effectivement, puisque le propriétaire suivant de Garou sera tué. Tout cela amène donc une commissaire sur l’enquête et puis on va vite se rendre compte que le chatbot est un peu particulier par rapport aux autres chatbots, que peut-être il ne respecte pas toutes les lois de la robotique, qu’il a quelques capacités un peu particulières.

Jean-Philippe Clément : Cette pièce, encore une fois je l’ai lue, je ne l’ai pas vue, elle est très drôle. C’est aussi une bonne occasion pour réviser sa culture geek.
Serge, on pourrait peut-être faire le point sur les deux trois notions qu’il faut avoir en tête pour voir la pièce et pour se libérer de ces éléments geeks. J’ai noté, vous venez de l’évoquer, les lois de la robotique ; on parlera du reste après. Quelles sont les lois de la robotique Serge Abiteboul ?

Serge Abiteboul : Les lois de la robotique [3], c’est quelque chose d’encore assez imprécis, ça vient d’Asimov, un écrivain de science-fiction. C’était l’idée qu’à partir du moment où vous mettez, dans l’espace public, ces êtres extrêmement puissants, qui peuvent avoir un impact dans la vie quotidienne et sur des choses importantes, il va leur falloir des règles éthiques, il va leur falloir des règles pour se comporter en société. Donc, Asimov avait inventé des lois de la robotique qui seraient un peu des obligations pour ces robots.
Nous, par exemple, on rajoute une loi un peu baroque, possible : si son propriétaire veut un whisky même si le médecin l’a interdit, il faut quand mème qu’il apporte un whisky. Ce genre de question se pose aujourd’hui : qu’est-ce que vous voulez autoriser ou interdire à ces machines ? Si vous regardez, il y a beaucoup de réflexion en Europe, aux États-Unis, en Angleterre sur ce qu’on va mettre comme règles à l’intelligence artificielle.

Jean-Philippe Clément : Asimov, c’était essentiellement des règles de précautions vis-à-vis de l’intégrité de l’humain qui côtoie la machine, si ma mémoire est bonne ?

Serge Abiteboul : Si ma mémoire est bonne, les règles étaient : il ne devait pas faire quelque chose qui nuise à la société ; ensuite, il ne devait pas faire quelque chose qui nuise à son humain ; ensuite il ne devait pas faire quelque chose qui lui nuise à lui-même. C’était une espèce de hiérarchie : d’abord la société, puis la personne, puis le robot.

Lisa Bretzner : Avec, parfois, des contradictions entre les règles. J’ai l’impression que ce qu’explore Asimov, c’est justement toutes les zones limites où, finalement, ça fait buguer les machines que d’avoir ces lois et, parfois, elles rentrent en contradiction les unes avec les autres.

Serge Abiteboul : C’est une question absolument fondamentale pour la société actuelle : qu’est-ce qu’on va mettre comme règles à ces machines ?

Jean-Philippe Clément : On le voit, notamment quand on parle de voiture autonome : à quel moment la voiture doit freiner, ne doit pas freiner dans des situations d’urgence ou de crise ? C’est une règle de gestion qu’on va donner à la machine. La pièce évoque ces éléments-là. D’ailleurs, j’aimerais bien savoir qui, des auteurs, a fait ce coup pendable à madame Devillers, à propos de la septième loi de madame Devillers qui est celle de simuler des émotions : tu ne pourras pas, sauf si l’humain avec lequel tu es le consent.

Serge Abiteboul : Nous nous sommes beaucoup amusés à écrire cette pièce.

Jean-Philippe Clément : Ça se sent !

Serge Abiteboul : C’était au moment du confinement, on avait envie de se lâcher et on pouvait se friter sur des choses absolument pas possibles, qui ne sont pas restées dans la pièce. Par exemple, on a eu des discussions homériques pour savoir s’il devait manger des penne all’arrabbiata ou du couscous et c’est vachement important pour la pièce !

Jean-Philippe Clément : C’est essentiel ! On pourra le voir.
Lisa, on se disait aussi que la pièce va être jouée sur Paris, mais, en fait, c’est déjà complet sur Paris.

Lisa Bretzner : Oui, effectivement.

Jean-Philippe Clément : Et également dans toute la France. Comment fait-on pour retrouver la pièce dans toute la France ?

Lisa Bretzner : La prochaine date c’est à Agen le 11 novembre, ensuite on jouera à Nice les 7 et 8 décembre, on va jouer ensuite à Cannes en février, à Poitiers en juin et d’autres dates à venir, tout cela se retrouve sur notre site internet, atroposcompagnie [4], sur nos réseaux sociaux aussi de la compagnie Atropos ou des réseaux de Qui a hacké Garoutzia sur Instagram. Vous pourrez retrouver tous les liens de réservation au même endroit pour venir nous voir.

Jean-Philippe Clément : On pourra, du coup, vous revoir quand même à Paris à un moment donné ?

Lisa Bretzner : Oui, bien sûr, c’est en cours.

Jean-Philippe Clément : D’accord. Très bien. Donc à suivre sur votre site.
On revient aux notions un peu geeks de la pièce, qu’il faut avoir. Vous jouez beaucoup avec le fameux 42. Est-ce que vous pouvez nous expliquer, encore une fois, ce qu’est 42 dans la culture geek et comment c’est utilisé dans la pièce ?

Serge Abiteboul : Au départ, le 42 c’est dans un roman [5], c’est la réponse à toutes les questions. Dans la pièce, quand le robot ne veut pas répondre, il y a quand même, en gros, une espèce de discussion dans laquelle le propriétaire lui dit : « Ordre non négociable », donc tu n’as pas le droit de discuter, etc., et le robot répond « 42 », parce qu’il y a une loi qui lui interdit de répondre. Il y a quand même cet équilibre entre « le propriétaire peut tout, puisque c’était son robot » et, en même temps, il y a des lois au-dessus du propriétaire, au-dessus du robot, qui interdisent au robot de répondre.

Jean-Philippe Clément : C’est donc un robot qui choisit un peu, in fine ?

Serge Abiteboul : Ce sont les lois qu’on a données au robot. La pièce insiste beaucoup, je tiens à le dire ici aussi, sur le fait que les bots actuels n’ont pas du tout les capacités de Garoutzia dans la pièce ; Garoutzia, c’est de la science-fiction. Aujourd’hui, les bots que vous trouvez dans le commerce, même dans les labos de recherche, sont très loin de Garoutzia.
On a voulu aussi dire, en parlant de science-fiction, que quand vous entendez ou quand vous lisez qu’il est impossible que les machines fassent un jour ça ou qu’il n’est pas possible que les machines aient telle ou telle propriété, dans la pièce on insiste bien sur le fait que, pour nous, ce n’est pas vrai. Un jour – nous ne sommes pas futurologues, on ne va pas vous dire dans 20 ans, dans 50 ans – il y aura, à notre avis, des bots, encore une fois on n’est pas sûrs, mais on pense qu’il y aura des bots qui sauront raisonner, qui sauront interagir avec les humains comme le fait Garoutzia dans la pièce et qu’il faut se préparer à cette interaction. C’est un peu la leçon, très modeste, de la pièce : arrêtez de dire que les robots ne sont pas capables de faire ça, ils seront capables de le faire un jour, ils ne le sont pas aujourd’hui – aujourd’hui ils sont un peu cons il faut être honnête ! Mais, d’un autre côté, ils sont quand même très bluffants, ils sont très impressionnants, par exemple dans leur façon de parler.

Jean-Philippe Clément : Effectivement, depuis l’émergence de ChatGPT, on voit bien qu’il y a quelque chose ! En tout cas, le grand public peut constater que c’est absolument bluffant.

Serge Abiteboul : D’un autre côté, ils ne raisonnent pas, ils n’ont pas ce qu’on appelle l’intelligence générale, ils se contentent d’imiter ce que des humains disent. Les prochaines générations de robots vont dépasser ce stade.

Jean-Philippe Clément : Vous évoquez l’intelligence générale, c’est justement cette capacité à raisonner tout seul, c’est ça ?

Serge Abiteboul : C’est ça.

Jean-Philippe Clément : D’accord.
Et sur la pièce, du coup, quand on aborde ces sujets-là en tant que metteuse en scène. Vous n’êtes peut-être pas aussi spécialiste, ça serait difficile, que ces trois auteurs.

Lisa Bretzner : En effet !

Jean-Philippe Clément : On laissera les éditeurs aller voir les cursus de chacun d’entre vous, c’est impressionnant en termes d’expertise.
On sait que la pièce s’appuie sur des choses, et vous venez de le rappeler, sur les potentiels. Quand on met en scène ce type de pièce, comment on aborde-ton ce sujet-là ? Il y a un bot au milieu de la scène. Comment avez-vous abordé cette mise en scène ?

Lisa Bretzner : Je pense que la première question à se poser c’est celle de la technologie sur scène. Aujourd’hui on peut créer des pièces de théâtre avec de la technologie, avec des effets vidéos, en fait le bot pourrait être plein de choses : ça pourrait être une voix, ça pourrait être une image sur un écran, un hologramme. On aurait pu tester des choses différentes et on est parti plus sur l’humain. Ce qui nous intéressait c’était vraiment de mettre l’accent sur les rapports et d’avoir une comédienne qui fait cette performance d’être sur scène tout du long et de jouer ce bot, mais aussi ce bot qui évolue parce que ce sont, en fait, trois personnages de bots bien distincts : le premier est un personnage de bot mâle, les deux autres sont des bots femelles et ce ne sont pas les mêmes personnages. En même temps elle s’enrichit, elle devient de plus en plus réaliste.
Pour nous, c’était intéressant de travailler sur le corps et la présence physique de ce bot qui, normalement, n’a pas vraiment une présence physique. En fait, elle est dans une cage qui suggère un petit peu l’espace dans lequel elle est diffusée, mais elle ne peut pas en sortir, elle ne peut pas avoir d’interactions physiques avec les autres comédiens.

Jean-Philippe Clément : On a bien campé le système théâtral. On a bien mis en place la mise en scène.
Je propose de faire une petite pause. On va rester dans la team Atropos. On fait une petite pause avec Youenn Lerb qui a composé la bande son de la pièce. On ne va pas écouter la bande-son de la pièce, on va écouter une bande-son qu’il a créée à l’occasion d’un superbe documentaire de vulgarisation scientifique intitulé CELL WORLDS, le morceau Anomalies ; c’est sur le monde cellulaire avec des images au microscope électronique qui sont hallucinantes. On écoute Youenn Lerb, en plus c’est un peu planant, donc on va se détendre.

Pause musicale : Anomalies de Youenn Lerb.

Jean-Philippe Clément : Merci Youenn Lerb. On est tout planant. On va aller voir le documentaire en ligne, ce documentaire est en ligne.
Vous êtes toujours sur Cause Commune en FM 93.1 à Paris, toujours Parlez-moi d’IA, toujours l’épisode qui donne envie d’aller voir Qui a hacké Garoutzia ?, une pièce de théâtre qui se joue bientôt, qui se rejouera bientôt à Paris et dans toute la France, avec Lisa Bretzner et Serge Abiteboul.
On a un peu campé les grandes notions de la pièce, sa mise en scène. Maintenant on peut aborder un peu les grandes questions que le la pièce aborde.
J’y ai vu, quand même, un questionnement aussi autour de la mort et, du coup, une compréhension de ce que peut être la mort d’une IA et la mort de l’humain. Comment avez-vous abordé, vous pour le texte et vous pour la mise en scène, justement ces différents temps de vie et cette notion de mort ? Serge, peut-être, en premier.

Serge Abiteboul : C’est sûr que c’est quand même un thème qui est très important dans la pièce puisque la première propriétaire va mourir d’Alzheimer, il va y avoir une euthanasie, et le deuxième va se faire assassiner.
Ce qui nous intéressait dans la mort, c’était le rapport entre le bot et les humains, mais c’était aussi la mémoire, le fait que quand on meurt, sa mémoire disparaît. On a essayé de faire un peu un parallèle entre la mémoire des humains qu’on veut maintenir, qu’on veut préserver, donc le bot, qui va vivre très longtemps, pourrait préserver cette mémoire. D’une certaine façon Internet préserve la mémoire des humains. C’était cette idée-là : le numérique permet de préserver la mémoire.
Il y avait aussi l’idée de la mémoire du bot lui-même, c’est-à-dire qu’un bot fait tout son apprentissage, il apprend plein de choses et ensuite il va vivre et, pendant cette vie, il va à continuer à apprendre, c’est-à-dire qu’il y a un apprentissage en continu. La question : à un moment donné, est-ce qu’on fait une remise à zéro de cette mémoire ? Et si on fait cette remise à zéro de la mémoire, d’une certaine façon, on perd toute la richesse qui est accumulée, on perd toute l’expérience. Mais, d’un autre côté si on continue à garder cette mémoire, à l’empiler, etc., qu’est-ce que devient ce bot ?
Il y a aussi une question sur le lien qu’il peut y avoir entre la mémoire et la liberté : votre liberté, vos choix, vos décisions, votre autonomie viennent de toute votre histoire, de votre vécu et c’est aussi un questionnement dans la pièce.
En fait, ces machines nous exposent en permanence à notre propre humanité. Chaque fois qu’on pose une question sur un bot, ça pose la question sur comment nous-mêmes nous réagissons à cela.

Lisa Bretzner : Tout à fait. La lecture que j’ai de l’identité de Garoutzia, ce qui va créer son identité spéciale de bot, c’est un petit peu la même chose que ce qui crée l’identité chez l’humain, finalement c’est la mémoire, c’est la somme de tout ce qu’on a vécu, ces différentes étapes, ce qu’elle accumule et qu’elle peut garder. Elle a sa spécificité : elle peut garder en elle tous ses anciens propriétaires qui l’habitent.
Du coup, c’est vrai que dans la mise en scène on a essayé de traduire ça, cette idée qu’elle conserve la mémoire des personnages avec, finalement, un fond de scène qui évoque cette accumulation avec des objets des anciens propriétaires qui restent. En fait la bot est centrale sur scène : devant il y a l’espace des humains et, derrière, il y a l’espace de la mémoire, des zones de flash-back, si vous voulez, et des zones d’accumulation des objets des anciens propriétaires. Comme la cage est transparente on voit à travers elle un petit peu les éléments de sa vie passée.

Jean-Philippe Clément : On sent aussi quand même, à un moment donné, certaines pointes de tentation de supériorité de la machine par rapport à l’homme. J’ai un peu l’impression, de temps en temps, soit en aparté soit directement avec ses interactions, que la bot, enfin l’IA, fait sentir à son interlocuteur qu’elle en a sous le sous le pied, qu’elle est bien mieux dotée en intelligence que la personne à laquelle elle s’adresse. Cette volonté de challenger un peu l’humain était voulue ?

Serge Abiteboul : Oui. C’était un peu ironique, parce que, en même temps, on n’arrête pas de l’attaquer. Par exemple, ce n’est pas la bot qui fait la résolution de l’énigme, c’est la commissaire de police, une vraie humaine et elle fait remarquer que ce n’est pas la bot qui a trouvé la solution. Il y a quand même une l’ironie sur la bot qui peut avoir tellement et qui peut se croire tellement supérieure, tellement intelligente.
Par contre, la bot répond : « Vous, les humains, vous vous croyez aussi très intelligents, vous vous croyez au centre du monde, pourtant vous avez bousillé la planète ! » Il y a quand même un peu un genre de match de ping-pong entre les deux.

Jean-Philippe Clément : Ce sentiment de supériorité, finalement, ne vient-il pas plus de l’homme qui a codé la machine que de la machine elle-même ? Non ?

Serge Abiteboul : Non, c’est juste un jeu entre l’humain et la machine. On se moque un peu de cette question : est-ce que la machine est plus intelligente ou pas ?, c’est une question un peu sotte et on se moque.

Jean-Philippe Clément : En tant que comédienne, cette pièce vous a plongée dans l’univers de l’IA. Vous avez découvert toutes ses possibilités. Vous avez sûrement suivi en tant qu’artiste, en tant que comédienne, aussi, potentiellement, en tant qu’auteur, ce qui s’est passé aux USA avec la grève des scénaristes. Ça questionne quand même ! Comment abordez-vous cette question des éléments artistiques et de l’apport ou du vol de l’IA par rapport à ça ?

Lisa Bretzner : On se pose beaucoup de questions dans le monde du théâtre aujourd’hui par rapport à l’IA, notamment dans le doublage où on a un peu peur. Les scénaristes aussi, même s’ils ont obtenu des avancées importantes, ça montre qu’on peut faire des choses. Je pense qu’il faut légiférer, il faut encadrer.
À titre personnel, j’ai fait quelques essais avec ChatGPT parce que j’écrivais un roman et je lui ai demandé son avis sur des extraits. Il m’a sorti un avis très construit, vraiment quelque chose qui ressemble à des choses qu’on peut me dire, qu’un humain aurait pu me dire, qui sont assez classiques, des défauts de ce que je peux faire.

Jean-Philippe Clément : On peut remplacer un éditeur, en fait ?

Lisa Bretzner : J’ai fait un second test et je lui ai demandé d’écrire la suite. Là, j’ai lu quelque chose d’extrêmement attendu, qui était dans l’ordre de l’imitation, comme disait Serge, de ce qu’on peut trouver. Une espèce de machine à synthèse de toutes les choses les plus attendues qu’on peut trouver sur ce sujet-là et je me suis dit qu’on n’était pas encore dans l’apport, la création, l’originalité.
C’est vrai que la manière dont on a monté la pièce est 100 % bio, elle est sans machine, sans technique, sans IA. On a essayé de montrer l’affrontement de ces deux mondes avec, finalement, le plateau de théâtre qui est quand même le milieu le plus bio, naturel, qu’on puisse trouver, avec cette présence physique, le rapport au réel, tout ça.
C’est vrai que ça nous pose des questions et qu’il faudra peut-être s’en servir comme d’outils, tout en connaissant leurs limites.
Je pense que, aujourd’hui, les artistes ont peur, à juste titre, parce qu’il faudra légiférer, il faudra encadrer, mais je pense qu’on continuera à privilégier le rapport à l’humain vrai.

Jean-Philippe Clément : Si je vous propose une IA à qui est capable d’analyser un texte de théâtre pour vous, pour lequel on vous demande de créer une mise en scène et qui a plein de solutions scéniques à vous proposer, est-ce que vous l’essayez ou pas ?

Lisa Bretzner : Bonne question. Ça peut être un outil. Honnêtement, je pense que ça peut faire gagner du temps. Il faut le voir comme un outil, ce n’est pas la réponse à tout, c’est-à-dire que ça peut ouvrir des portes, mais ça ne va pas, pour autant, nous donner la solution.

Jean-Philippe Clément : Très bien. Du coup, on peut considérer que le spectacle vivant est encore à l’abri de l’IA pendant un petit moment ?

Lisa Bretzner : On espère. On va tout faire pour.

Jean-Philippe Clément : C’est donc de l’espérance !
Autre notion, Serge, qui est abordée dans cette dans cette pièce, c’est la fameuse notion de la conscience. À un moment donné la machine doit-elle, peut-elle avoir conscience d’elle-même ? Comment abordez-vous cette question-là dans la pièce ? Comment y avez-vous réfléchi à trois ?

Serge Abiteboul : Là, on touche aux questions qu’on pose dans la pièce et on ne donne pas de réponses. On propose des pistes, d’ailleurs on n’a pas, tous les trois, forcément les mêmes points de vue, il faut se dégager de ça. On n’était pas d’accord sur tout.
Je vais vous présenter plutôt mon point de vue. En fait, on ne sait pas très bien ce qu’est la conscience, on ne sait pas très bien l’expliquer, de la même façon qu’on ne sait pas expliquer l’intelligence, même si c’est plus simple ; on ne sait pas non plus expliquer ce qu’est le ressenti ou ce genre de chose, donc ces machines simulent. Elles simulent qu’elles ressentent le froid, par exemple, mais est-ce qu’il y a une très grosse différence entre la machine simulant qu’elle ressent le froid et vous disant « je ressens le froid » ? Je n’en sais rien, je ne sais pas. Une machine a plein de stimuli et puis elle réfléchit sur les règles qu’on lui a données suivant son expérience, suivant sa mémoire. Est-ce très différent d’un humain ? Pour moi, pas tant que ça. Mais, encore une fois, on ne sait pas trop. Rien ne vous empêche de penser que c’est fondamentalement différent. Moi je pense que, finalement, c’est un peu la même chose.
Je pense surtout que ce qui est intéressant c’est moins de répondre à ces questions-là que de se projeter sur les questions que ça nous pose. Quand on regarde une machine et qu’on se demande « est-ce qu’elle est intelligente ? », d’une certaine façon on se pose la question : qu’est-ce que ça veut dire notre intelligence ? Qu’est-ce que ça veut dire notre conscience ? Qu’est-ce que ça veut dire nos sentiments, notre empathie ? Ça pose ces questions de façon fondamentale et, parfois, les réponses sont un peu troublantes. Quand on voit ChatGPT aujourd’hui, et je finirai là-dessus, avec la qualité de texte on se dit que peut-être quand nous parlons, que peut-être quand nous écrivons, nous ne réfléchissons pas tant que ça, on dit n’importe quoi, on imite ce qu’on a entendu.

Jean-Philippe Clément : Du coup, on peut se remettre soi-même en question par rapport à la machine et à la manière dont la machine interagit.
Encore une fois, je le redis, je n’ai fait que lire la pièce pour le moment, je n’ai pas vu la mise en scène, mais je trouve que c’est très drôle. J’invite nos auditrices et nos auditeurs à aller voir cette pièce de boulevard, moderne pour le coup, avec un sujet moderne, qui est très drôle, qui nous fait suivre une enquête policière sur plusieurs actes.

C’est fini. On est arrivé au bout de l’émission.
Merci beaucoup pour le partage de cette pièce de théâtre. Encore une fois, elle va bientôt revenir sur Paris, on va guetter le retour de la pièce sur Paris.

Lisa Bretzner : On peut la lire. Elle est aussi éditée.

Jean-Philippe Clément : On pourra également trouver le texte sur votre site, Atropos ?

Lisa Bretzner : Oui bien sûr.

Serge Abiteboul : Tout à fait.

Jean-Philippe Clément : D’accord, très bien.
C’était Parlez-moi d’IA, la découverte de la pièce de théâtre Qui a hacké Garoutzia ? Courez-y. Ça arrive bientôt sur Paris et dans toute la France dans les prochains mois.
Merci pour ce partage, de nous avoir fait découvrir cette pièce originale et de nous avoir questionnés sur les rapports à l’IA et aux bots.
Merci beaucoup Lisa Bretzner et Serge Abitboul. Bonne route à cette pièce sur l’IA.

Lisa Bretzner : Merci beaucoup.

Serge Abiteboul : Merci à vous.

Références

[1ELIZA

Média d’origine

Titre :

Découvrir la pièce de théâtre Qui a hacké Garoutzia ?

Personne⋅s :
- Jean-Philippe Clément - Lisa Bretzner - Serge Abiteboul
Source :

Podcast

Lieu :

Émission Parlez-moi d’IA - Radio Cause Commune

Date :
Durée :

29 min 36

Autres liens :

Page de présentation de l’émission

Licence :
Verbatim
Crédits des visuels :

Page de couverture de l’ouvrage par Nicolas Taffin pour C&F éditions - Utilisée avec l’aimable autorisation de Hervé Le Crosnier

Avertissement : Transcription réalisée par nos soins, fidèle aux propos des intervenant⋅e⋅s mais rendant le discours fluide. Les positions exprimées sont celles des personnes qui interviennent et ne rejoignent pas nécessairement celles de l'April, qui ne sera en aucun cas tenue responsable de leurs propos.