Clara Degiovanni : Merci de vous être levés tôt, un jour férié, d’être venus pour assister à cet échange. Aujourd’hui je suis avec Gilles Dowek.
Gilles Dowek : Bonjour.
Clara Degiovanni : Gilles, vous êtes informaticien, logicien, chercheur à l’Inria [Institut national de recherche en informatique et en automatique] et professeur attaché à l’ENS Paris-Saclay. Vous avez écrit sur plein de choses, notamment sur la logique, sur l’histoire des mathématiques, sur les algorithmes et vous avez aussi réalisé une pièce de théâtre qu’on aura la chance de voir ce soir, à 21 heures, au théâtre Ducourneau. La pièce s’appelle Qui a hacké Garoutzia ?, une comédie policière, en quatre actes, autour des vies successives du personnage principal, Garoutzia, qui est une chatbot du futur. Ce soir, après la pièce, vous pourrez échanger et demander des signatures à Gilles Dowek.
Aujourd’hui on a aussi la chance d’accueillir des collégiens, Shérine, Rose et Léo, qui vont nous faire une petite pièce de théâtre autour de Michel Serres et de leur rapport au téléphone portable.
[Applaudissements]
Shérine : Bonjour. Je me présente. Je m’appelle Shérine, je suis scolarisée au collège Joseph Chaumié, en quatrième, et, avec mes deux camarades, nous vous présentons une petite scène sur Petite Poucette.
En octobre, une professeure de philosophie est venue, en cours de latin, nous présenter ce qu’est la philosophie, qui était Michel Serres, quelle fut son œuvre et particulièrement Petite Poucette. Selon cet Agenais, il y a eu trois révolutions dans l’histoire de l’humanité : l’invention de l’écriture, de l’imprimerie et enfin du numérique. Avant le livre, on apprenait par cœur, avant l’imprimerie, on allait à la bibliothèque. Aujourd’hui, la bibliothèque vient à nous. La connaissance est entre nos mains, sa forme est devenue digitalisée, même si c’est désormais sous forme numérique.
Léo : Elle est parfaite. Je connais très bien Shérine et s’il y a une « petite poucette » dans cette salle, c’est bien elle !
Shérine : C’est vrai, je peux l’avouer, je passe en moyenne 17 heures par jour sur mon téléphone, mais bon ! Toi tu parles beaucoup, parle-nous.
Léo : C’est vrai qu’en sixième, j’étais beaucoup dessus, mais maintenant j’ai beaucoup réduit.
Shérine : Ah oui ! Pourquoi ?
Léo : J’ai des passions, maintenant. Je chante, je joue du saxophone, tout.
Shérine : Mais justement, moi aussi j’ai des passions, j’aime écrire. J’écris des romans d’amour que je partage ensuite sur différentes applications, sur par exemple WhatsApp.
Léo : C’est beau l’amour !
Shérine : Comme les chansons ! Bref, moi j’en ai marre ! Marre des adultes qui nous rabâchent à long de journée que nous sommes une génération scotchée sur son téléphone, comme quoi vous, à votre époque, vous jouiez avec trois bouts de ficelle et trois bouts de bois. J’ai une question : qui nous a offert le téléphone ?
Shérine et Léo ensemble : C’est vous !
Léo : Tu as parfaitement raison. Même mon père, sur son téléphone, il joue au scrabble !
Shérine : Ça ne m’étonne même pas ! Qui a envie de jouer avec leurs fameux trois bouts de bois ?
Rose : C’est très bien les bouts de bois !
Shérine : Pardon ! Tu es sérieuse !
Rose : Je prends des bouts de bois, je me balade avec et je leur montre des photos.
Shérine : OK.
Rose : Comme ça, je ne passe pas tout mon temps sur mon téléphone.
Shérine : Tu es sûre ? Tu veux qu’on demande à ta mère ? On va y aller.
[Applaudissements]
Rose : Bonjour. Je me présente, je m’appelle Rose. Je vous propose ma réécriture d’un célèbre poème de Victor Hugo que vous reconnaîtrez sans peine :
À l’aube
Avant que j’ouvre mes paupières
Avant que ne m’atteigne ta lumière
Je pense à toi. Je sais que tu es là.
Je te sens près de moi.
Tu t’éveilles, ta lumière me ranime
Mes parents n’aiment pas te trouver près de moi, ils t’exilent.
Ils se mettent entre nous quelquefois. Je ne puis m’y résoudre.
Mais quand enfin je te prends par la main, muet, tu refuses de m’illuminer, À ta nuit me voici condamnée,
Alors je te mets à charger.
[Applaudissements]
Clara Degiovanni : Bravo. Merci beaucoup.
Gilles Dowek : Tout est dit vous pouvez partir !
Clara Degiovanni : Gilles, je vous en prie, si vous voulez rebondir sur cette petite saynète, si vous voulez nous en parler, est-ce que vous, vous sentez Petite Poucette ?
Gilles Dowek : Hélas non. J’aurais bien aimé avoir un portable quand je suis entrée en sixième, mais j’ai eu un seul bout de ficelle et même pas de morceaux de bois. Ça a été mon cadeau d’entrée en sixième.
Ce qui m’a frappé, c’est qu’on pose toujours cette question du rapport au portable comme une question de générations, comme un conflit de générations. On pourrait un peu inverser ce conflit de générations : les vieux, les parents qui sont tout le temps sur leur téléphone au lieu de s’occuper de leurs enfants, c’est un vrai drame. Je pense qu’en retirant un peu cette question d’âge et cette question temporelle, on peut arriver aux vraies questions que cette espèce de cliché ou de préjugé masque.
Clara Degiovanni : En parlant de vraies questions, on a parfois l’impression que les technologies, notre portable, tout ce monde qui nous entoure, créent des besoins artificiels, des besoins qu’on n’avait pas. Peut-être qu’avant d’avoir un téléphone, je n’avais pas besoin de regarder 100 fois, 200 fois par jour mon écran pour vérifier que tout va bien. Avez-vous l’impression que les technologies créent des besoins artificiels qui deviennent bizarrement, après coup, impérieux ?
Gilles Dowek : C’est une question très difficile et très importante. On peut se poser la même question pour la pomme de terre. Vous savez, par exemple, qu’il n’y avait pas de pommes de terre au Moyen Âge, même en Pologne, même en Irlande. La pomme de terre est un végétal qu’on a découvert en même temps que les Amériques, on l’a découverte aux Amériques et on n’a pas vraiment cultivé de pommes de terre, en Europe, avant le 18e siècle. On peut se demander si Parmentier a créé un besoin artificiel de pommes de terre ou s’il y avait un besoin de pommes de terre avant, un besoin que Parmentier serait venu combler.
Pour répondre à cette question, on peut faire deux choses. On peut regarder les textes du Moyen Âge et il n’y a pas de texte du Moyen Âge qui dise « ce serait bien qu’on ait des pommes de terre mais malheureusement on n’en a pas ! ». Une des difficultés c’est que quand on n’a pas de pommes de terre, on n’a pas non plus le mot « pomme de terre », donc on ne peut pas regretter l’absence d’un objet auquel on n’a même pas encore pensé. En revanche, on sait qu’au Moyen Âge des gens écrivent qu’on crève de faim et puis, à partir du 18e, il y en a moins qui écrivent ça, en particulier parce qu’ils mangent des pommes de terre, donc ils sont mieux nourris. On peut donc dire que la pomme de terre était un besoin même si les personnes qui vivaient au Moyen Âge n’avaient pas la faculté d’exprimer ce besoin.
Si on en vient maintenant aux outils numériques, on peut se poser la même question. Bien sûr, à l’époque où il n’y avait pas de téléphone portable, personne ne disait « c’est dommage, on n’a pas de téléphone portable », contrairement à ce qui arrivera dans 50 ans, encore que ! Une fois je m’étais perdu, je devais aller chez des amis et je cherchais, en fait je n’avais pas la bonne adresse, j’errais donc comme une âme en peine dans la ville en cherchant un truc, peut-être que certains d’entre vous n’en ont jamais vu, mais, au 20e siècle, il y avait des objets qui s’appelaient des cabines téléphoniques. J’ai donc cherché une cabine téléphonique pour pouvoir appeler le téléphone fixe de mes amis et leur demander quelle était leur adresse exacte. Là je me suis dit, et j’aurais dû déposer le brevet, que ce serait bien qu’on ait une boîte de chaussures avec laquelle on puisse se balader, puis, en ouvrant la boîte de chaussures, on trouverait à l’intérieur un téléphone, j’imaginais ça comme un téléphone fixe dans une boîte de chaussures, et on pourrait, comme cela, téléphoner. J’ai inventé le téléphone portable. Perdu comme une âme en peine dans cette ville, j’avais un besoin de téléphone portable, même si je ne connaissais pas le mot « téléphone portable ». Je me disais que ça serait bien d’avoir un téléphone qui serait portable, mais je ne savais pas que ça s’appelait un téléphone portable.
Ce n’est pas parce qu’on n’a pas exprimé avant le téléphone ou avant l’ordinateur le souhait ou le désir d’avoir un tel objet que ce désir n’existait pas, que ce besoin n’existait pas.
Une manière de répondre à cette question, c’est d’essayer de se replacer dans l’histoire un peu longue et d’essayer de voir si ces objets, d’abord, appartiennent à une famille d’objets, à une transformation plus profonde qu’il serait peut-être plus facile d’analyser. Il n’y a pas que le téléphone portable. Avant le téléphone portable, il y avait le téléphone fixe, avant le téléphone fixe, il y avait le télégraphe. Si on a inventé successivement le télégraphe, le téléphone fixe, le téléphone portable, etc., si on a persévéré dans cette entreprise peut-être maléfique, en tout cas on a persévéré pendant des dizaines d’années, on a peut-être le signe qu’il y avait ce besoin.
Le télégraphe a été inventé par Samuel Morse. Samuel Morse a été traumatisé, c’est une histoire pas très drôle, par le fait qu’il n’a pas pu être prévenu que sa femme était mourante. Il est revenu de voyage, il a appris que sa femme était morte pendant qu’il était en voyage. Ce n’était pas du tout un ingénieur, c’était un peintre et, à ce moment-là, il s’est dit que ça serait pas mal qu’il y ait un truc qui puisse prévenir les gens à distance dans ce type de situation.
Première question : est-ce que le téléphone fait partie d’un mouvement de fond ou est-ce que c’est une invention isolée ? En l’occurrence, c’est un mouvement de fond, on peut donc interroger ce mouvement de fond plutôt qu’interroger juste l’événement.
Il y a une deuxième manière d’essayer de répondre à cette question, là je vais vous citer Michel Serres qui disait qu’il y a trois révolutions dans l’histoire de la communication : l’invention de l’écriture, l’invention de l’imprimerie et puis l’invention de l’ordinateur et du réseau. J’ai toujours essayé toujours de le convaincre qu’il y avait quatre évolutions, qu’entre l’écriture et l’imprimerie il y avait l’invention de l’alphabet, qui était une invention tout aussi capitale. Il me disait toujours « oui, oui », donc je me disais « ça y est, j’ai convaincu Michel Serres de quelque chose » et puis, la fois suivante, il disait « il y a trois révolutions, etc. ». J’ai donc laissé l’affaire ! Il y a trois ou quatre révolutions, comme vous voulez !
Une manière d’essayer de comprendre s’il y avait un besoin pour les technologies numériques, pour les technologies informatiques, pour les techniques informatiques – Michel Serres nous rappelait tout le temps qu’il ne faut pas utiliser le mot « technologie », il faut utiliser le mot « technique » –, c’est de se demander si, dans la révolution précédente, il y a quelque chose d’inabouti. D’un certain point de vue, si on a eu besoin de faire une révolution en 1830, c’est parce que celle de 1789 n’était pas totalement aboutie, il y avait des choses, après la révolution de 89, qui ne fonctionnaient toujours pas, on a donc dû faire une deuxième révolution en 1830 puis une troisième en 1848. On peut se poser la question : qu’est-ce qui n’a pas marché dans la révolution de l’imprimerie ? En quoi la révolution de l’imprimerie nous a-t-elle mené dans un monde qui était invivable ? En quoi l’invention de l’imprimerie a-t-elle posé un certain nombre de problèmes ? On a eu besoin de résoudre ces problèmes et, pour les résoudre, on a inventé l’ordinateur, le téléphone, Internet et ChatGPT, etc.
Une chose est frappante. Une fois j’ai entendu un écrivain qui exprimait un sentiment que j’ai moi-même ressenti très souvent. Les libraires comptent la taille des livres en mètres. Quand vous écrivez un livre, il fait en général un centimètre, si vous êtes très prolixe, votre livre fait deux centimètres. Dans une librairie, les libraires ont des rayonnages qui se comptent en mètres. Dans les grandes bibliothèques, comme la Bibliothèque nationale de France, ils comptent la taille des livres en kilomètres. Quand vous avez une bibliothèque comme la Bibliothèque nationale de France qui a 14 millions de volumes, que chaque volume fait un centimètre, je vous laisse en exercice le calcul du nombre de kilomètres que ça fait de mettre ces 14 millions de volumes mis bout à bout. Écrire un livre c’est long, ça prend plusieurs mois, plus d’une année, on passe par des moments de découragement, on passe par des moments d’enthousiasme, mais finalement si, par hasard, on fait l’erreur d’entrer dans une librairie au milieu de l’écriture de son livre, on se dit « il y a déjà des centaines de mètres de livres, quelle importance que j’ajoute un centimètre de plus ou non ! ».
L’imprimerie nous a permis ce que l’écriture ne nous permettait pas de faire, l’imprimerie nous a permis d’avoir 14 millions de volumes à la Bibliothèque de France !
Ça pose donc un problème de savoir si c’est nécessaire d’écrire un livre de plus. Oui, bien sûr, parce que le centimètre que je vais ajouter, ça sera un livre formidable et vous allez toutes et tous le lire.
L’autre question qui se pose : quand vous arrivez à la bibliothèque, vous cherchez une information, par exemple « quelle est la date du couronnement de Charlemagne », il y a 14 millions de volumes et il faut regarder dans les 14 millions de volumes si jamais il y a la date du couronnement de Charlemagne, si vous pouvez trouver l’info et c’est assez difficile. Heureusement, il y a des classifications : par exemple, il vaut mieux regarder dans les livres d’histoire que dans les livres de recettes de cuisine, vous avez plus de chance de trouver la date du couronnement de Charlemagne. Mais même, il y a beaucoup de livres d’histoire ! Alors vous pouvez plutôt regarder dans les livres d’histoire médiévale si vous voulez vraiment trouver la date du couronnement de Charlemagne.
Il y a donc cette question qui est que l’imprimerie a créé une avalanche d’informations que nous ne sommes pas capables de traiter avec notre petit cerveau et nos deux petits yeux, donc, forcément, il fallait qu’il y ait des outils qui viennent pour traiter cette masse d’informations exprimées en langue naturelle.
Clara Degiovanni : J’aime bien votre manière d’expliquer tout ça parce que vous historicisez, du coup ça permet de démythifier un peu les choses, d’avoir l’impression que les nouvelles techniques ne sont pas tombées du ciel. En quoi est-ce important, pour, vous d’ancrer les choses, de les resituer dans une histoire, un peu à l’instar de Michel Serres d’ailleurs ? Est-ce que ça fait moins peur quand on sait d’où ça vient et pourquoi on l’a fait comme ça, de cette manière précise ?
Gilles Dowek : En cherchant ainsi à historiciser, à replacer simplement les événements dans une chronologie, éventuellement dans une chronologie longue, là je ne peux que reconnaître ma dette à l’égard de Michel Serres, c’est vraiment lui qui m’a appris que quand on se pose des questions sur la 5G, il faut commencer par se demander comment l’Iliade et l’Odyssée nous ont été transmises et que, tant qu’on n’a pas compris comment l’Iliade et l’Odyssée nous ont été transmises, ce n’est pas la peine de se poser des questions sur les apports relatifs de la 4G et de la 5G. Il faut donc se mettre dans cette perspective longue. Je ne cherche pas spécialement à vous rassurer, je ne cherche pas spécialement à vous éviter des angoisses, je ne cherche pas spécialement à vous dire que vous vivez dans un monde merveilleux. J’essaye juste de comprendre le monde dans lequel nous vivons et je crois qu’il n’est pas possible de comprendre le monde dans lequel nous vivons si la première question que vous vous posez c’est : est-ce que c’est bien ou est-ce que c’est mal ? Cette question va bien sûr venir à un moment, mais la première question ça doit être : qu’est-ce que c’est ? Comment ça marche ? D’où ça vient ? Et c’est seulement dans un second temps qu’on peut se poser la question de savoir si c’est bien ou si c’est mal.
Il y a quelques années, j’avais écrit un livre avec Serge Abiteboul. J’ai coécrit la pièce de théâtre que vous allez voir ce soir avec Serge Abiteboul et Laurence Devillers qui est là, il faut aussi les citer. J’avais écrit un autre livre, avec Serge Abiteboul, qui s’appelait Le temps des algorithmes et, quand vous écrivez un livre, même s’il fait un centimètre, vous espérez que les gens vont le lire, donc, pour cela, il faut faire de la promotion, c’est-à-dire qu’il faut répondre à des journalistes qui vous posent des questions. D’ailleurs, je ne sais pas si Philomag avait fait un article sur notre texte, je ne crois pas, ce n’est pas grave, mais d’autres en avaient fait. Nous avions un rendez-vous téléphonique avec un journaliste. Serge et moi étions face à face et il y avait le téléphone au centre de la table. Le téléphone sonne, on décroche comme on dit, on appuie sur le petit téléphone vert, ça s’appelle décrocher pour des raisons historiques, et le journaliste nous dit : « Les algorithmes, c’est épouvantable ! ». On lui a dit : « On va peut-être commencer par dire bonjour, ensuite on va essayer de définir la signification du mot « algorithme » et, dans un troisième temps, une fois qu’on aura dit bonjour et qu’on aura expliqué ce qu’est un algorithme, on va essayer de répondre à la question : est-ce que c’est épouvantable ou est-ce que c’est merveilleux ? Ou plutôt, dans quel cas est-ce épouvantable, dans quel cas est-ce merveilleux, et comment le merveilleux et l’épouvantable se mêlent ? Mais non, il fallait tout de suite ! Je pense que son espoir était qu’on dise « oui, c’est épouvantable ! », pour dire « merci, j’ai mon interview, on peut raccrocher. »
Si on commence comme ça, je pense qu’on masque les vrais enjeux, on masque les vraies questions et on se place dans un cadre qui est malheureusement très commun en Europe, qui est de dire qu’une situation commence à être intéressante quand elle est conflictuelle. Vous entrez dans la pièce, on vous dit : « Il faut choisir ton camp. Si tu es pour les algorithmes, si tu es pour ChatGPT, si tu es pour les ordinateurs, tu t’assieds là. Si tu es contre, tu t’assieds là. » D’ailleurs, je crois que vous êtes beaucoup plus nombreux ici que là ! C’est le principe du « choisis ton camp camarade : ou bien tu es avec nous ou bien tu es contre nous ! ». C’est une manière complètement absurde de voir le monde. La chose à faire c’est d’essayer de partir à la découverte du monde et, bien entendu, il y a des questions éthiques qui se posent et on ne peut pas évacuer la question du bien et du mal.
Sur les objets et techniques, c’est vrai qu’il y a un biais dans leur analyse qui consiste à les considérer un peu comme des objets naturels. À l’époque où on n’avait pas encore de téléphone portable il arrivait qu’on fasse des randonnées. C’est épouvantable, les randonnées, c’est vraiment quelque chose que je vous déconseille : vous partez en pleine forme, vous revenez épuisé ! Vous partez, vous sentez bon, vous revenez couvert de sueur. Je vous déconseille vraiment de faire ce genre d’activité, il vaut beaucoup mieux passer du temps sur son téléphone ! Mais si vous partez en randonnée, si vous marchez sur un chemin de randonnée, il se peut que vous trouviez un caillou sur le bord du chemin et vous pouvez vous dire « tiens, qu’est-ce que je pourrais faire avec ce caillou ? ». Par exemple, vous pouvez l’utiliser pour allumer du feu, vous pouvez l’utiliser pour taper sur la tête d’une personne avec qui vous faites la randonnée, etc. Vous trouvez un objet, vous vous posez la question : qu’est-ce que je peux en faire ?
Quand vous avez un objet technique, vous ne pouvez pas du tout dire « je marchais sur le bord de la route, j’ai trouvé ChatGPT, j’ai trouvé un téléphone portable connecté au Net et je me suis demandé ce que j’allais en faire. » Ce n’est pas la bonne question. Si cet objet technique existe, c’est parce que quelqu’un l’a fabriqué et si quelqu’un l’a fabriqué, il faut d’abord se demander quelle était l’intention de cette personne. Pourquoi cette personne a-t-elle fabriqué cet objet ? Cela nous amène à la question par laquelle on a commencé, c’est-à-dire quel était le manque, quel était le besoin, quelle était l’utilité absente de cet objet qui a amené la personne à concevoir cet objet ?
Bien entendu, une fois que les objets existent, ils ne sont pas utilisés uniquement dans le but initial. Il y a à la fois des utilisations dévoyées et il y a aussi ce qu’on appelle la sérendipité [1] c’est-à-dire des utilités auxquelles on n’avait pas pensé en concevant l’objet qui sont ensuite apparues. Tout un tas d’objets ont été inventés pour des raisons complètement anecdotiques, dont on a fait beaucoup d’autres choses après. Un exemple de cela c’est l’ordinateur.
Un certain Watson, je crois qu’il s’appelait James, était président d’IBM, ce n’était donc pas n’importe qui, c’était le type qui dirigeait la grosse entreprise qui fabriquait des ordinateurs dans l’immédiat après-guerre, dans les années 40 et 50. James Watson est connu pour avoir laissé une citation qui montrait sa vision du futur. IBM avait fabriqué trois ordinateurs à l’époque et IBM venait de prendre la décision d’en fabriquer un quatrième. Watson a fait un grand discours pour expliquer à tous les employés d’IBM qu’on allait fabriquer un quatrième ordinateur et il a dit : « Ça a été une décision difficile. On a décidé de faire un quatrième ordinateur. On s’est posé la question : est-ce que le monde a besoin de quatre ordinateurs ? On est arrivé à la réponse que oui, mais on est certain qu’il n’aura pas besoin d’un cinquième ordinateur, c’est donc le dernier ordinateur qu’IBM va fabriquer. » Pour Watson, les ordinateurs avaient des usages très particuliers, qui pouvaient intéresser un petit nombre de personnes dans le monde, et Watson n’a pas du tout vu qu’à un moment chacun aurait un ordinateur chez soi ou cinq ! Voilà donc un exemple de sérendipité. On a inventé l’ordinateur essentiellement pour décoder des codes secrets qui étaient utilisés par nos ennemis pendant la guerre et puis on s’est rendu compte que l’ordinateur pouvait servir à beaucoup d’autres choses. Il ne faut donc pas se limiter à cette intention, mais il y a une question : pourquoi les gens ont-ils inventé ça ? Et tant qu’on ne comprend pas, tant qu’on n’arrive pas à se mettre à leur place, ce qui est une forme d’empathie cognitive, c’est-à-dire d’essayer de se mettre à leur place et se demander « pourquoi ont-ils fait ça, pourquoi ont-ils inventé ça ? », on ne peut pas vraiment comprendre la nature de ces objets.
Si vous vous demandez comment ChatGPT a transformé le monde, mais que vous ne vous posez pas la question : pourquoi des gens ont-ils inventé ChatGPT, vous risquez de ne pas trouver la réponse à la première question. Il faut vraiment se poser les deux questions à la fois.
Clara Degiovanni : Maintenant, on se sert de ChatGPT pour à peu près tout et n’importe quoi, notamment pour obtenir des informations. Est-ce que l’intelligence artificielle est conçue pour dire la vérité ?
Gilles Dowek : Il faudrait d’abord se poser la question : qu’est-ce que la vérité ? Vous avez quatre heures ! On emploie un proverbe : Si vous pensez que ChatGPT dit la vérité, si vous vous étonnez du fait que ChatGPT ne dit pas la vérité, c’est que vous n’avez pas commencé à comprendre ce qu’est ChatGPT. ChatGPT n’a rigoureusement rien à voir avec la notion de vérité. Quand ChatGPT énonce une proposition, vous dit « le ciel est bleu », en l’occurrence c’est plus ou moins vrai, mais en aucun cas ChatGPT n’a été conçu, n’a été prévu, n’a été construit pour dire des choses qui sont vraies pour un critère de vérité quelconque, que ce soit un critère de vérité analytique, c’est-à-dire un critère de vérité qui nous dit qu’un énoncé est vrai en vertu de la signification des mots qui s’y trouvent, que ce soit un énoncé synthétique, c’est-à-dire un énoncé qui nous dit quelque chose sur le monde réel. En aucun cas ChatGPT n’est prévu pour aller mesurer la fréquence de la lumière qui nous vient du ciel ou la couleur de la lumière qui vient du ciel – fréquence et couleur sont des mots synonymes ici.
ChatGPT est conçu, est prévu, comme d’ailleurs tous les grands modèles de langage, les LLM, pour dire des choses qui sont statistiquement cohérentes avec un corpus. Vous avez un corpus, un ensemble de textes qui ont été utilisés pour construire, on dit pour entraîner le grand modèle de langage. La manière dont ChatGPT est construit c’est : vous avez un début de phrase qui est « le ciel est », ce n’est pas une phrase complète, c’est juste le début d’une phrase, ce qu’on appelle un prompt, peut-être y a-t-il une traduction du mot prompt, une invite, donc vous avez une invite qui est « le ciel est ». La question que vous cherchez à résoudre c’est : dans mon corpus de phrases, dans tous les textes que j’ai utilisés, quel est le mot qui est le plus probable après cette invite, après ce prompt ? En l’occurrence, il s’avère que le mot le plus probable est « bleu », parce que bizarrement dans le corpus, dans l’ensemble de textes dont vous êtes parti pour entraîner votre modèle de langage, il y avait beaucoup de phrases vraies, beaucoup de phrases qui disaient « le ciel est bleu ». Donc statistiquement, le mot qui revient le plus souvent après « le ciel est », c’est le mot « bleu ». C’est pour cela que si vous donnez une invite à ChatGPT en lui disant « le ciel est », il va vous répondre « le ciel est bleu ».
Dans cette manière de construire des textes, qui consiste juste à se dire j’ai une invite, par exemple « le ciel est bleu », maintenant qu’est-ce que je vais dire ? Je vais dire « mais ». Maintenant j’ai une invite qui est « le ciel est bleu mais », je vais peut-être dire « mais les ». Maintenant j’ai une invite qui est « le ciel est bleu mais les », je vais peut-être dire « nuages », je n’en sais rien, ça dépend de la base de textes que vous avez utilisée. Si tout d’un coup ChatGPT vous dit « le ciel est bleu, mais les nuages sont roses », c’est juste parce que statistiquement après « le ciel est bleu mais les nuages sont », pour une raison que j’ignore, dans le corpus il y avait souvent le mot « roses ».
Si votre corpus est fait de phrases vraies, statistiquement ChatGPT va vous dire des choses qui sont plutôt vraies parce qu’elles sont cohérentes avec le corpus que vous lui avez donné. Mais si vous donnez à un tel modèle des phrases essentiellement fausses, la statistique fait que la probabilité, le mot le plus statistiquement probable après une invite va construire des phrases fausses.
En aucun cas ces objets sont construits pour dire des choses vraies. Ils sont construits pour dire des choses vraisemblables, pour dire des choses qui vraisemblablement pourraient être dites. Mais les choses qui vraisemblablement pourraient être dites, ça n’a rien à voir avec la vérité. Beaucoup de mensonges sont très vraisemblable et qui sont très vraisemblablement dits. La langue ne sert pas qu’à dire des choses vraies, elle sert aussi à mentir. Donc fatalement, à force de dire des mensonges et d’entraîner des intelligences artificielles avec des mensonges, ces intelligences artificielles répètent des mensonges, on les a conçues pour ça, on les a conçues pour qu’elles répondent des mensonges puisqu’elles doivent répondre quelque chose qui est cohérent avec la base d’apprentissage. En aucun cas il faut chercher de la vérité là-dedans. Quand vous cherchez de la vérité, c’est que vous n’avez toujours pas compris de quoi vous parlez.
Clara Degiovanni : Une fois, j’ai cherché un poème de Baudelaire et ChatGPT m’a inventé un poème que Baudelaire n’avait jamais écrit. J’ai pu facilement me rendre compte que ce n’était pas Baudelaire, c’était vérifiable. Peut-on imaginer qu’à un moment donné l’intelligence artificielle va se mettre à produire des informations qu’on ne pourra pas vérifier, donc nous donner des directives importantes qu’on ne sera pas capable de vérifier, d’attester que cette information est juste ?
Gilles Dowek : D’abord, on n’est pas absolument sûr que Baudelaire n’a pas écrit ce poème ! La maison de Baudelaire a brûlé, c’est une autre infox, que 90 % de la production de Baudelaire a disparu, donc on ne sait pas ce que Baudelaire a écrit ou n’a pas écrit. Dans ce cas-là, je crois que c’est un poème qu’il avait écrit, dont il n’était pas très content donc il l’a mis à la poubelle, beaucoup de poètes font ça !
Je ne veux pas jouer les death bots, faire parler les morts, mais je pense que Michel Serres nous aurait répondu « faites attention, la question que vous posez n’a aucune nouveauté », c’est-à-dire qu’il y a des mensonges proférés par les intelligences artificielles et il y a des mensonges proférés par les intelligences naturelles, celles que vous portez dans votre petit crâne, que je porte dans mon petit crâne également, où il y a quelques neurones qui essayent de faire aussi bien que ChatGPT mais qui n’y arrivent pas, puisque j’ai beaucoup moins de mémoire qu’un ordinateur et ma mémoire est pleine de trous, donc c’est beaucoup plus difficile, pour moi, d’essayer de dire des choses vraisemblables.
La question de la propagande, c’est-à-dire le fait de dire des choses vraies ou des choses fausses, mais surtout des choses invérifiables, fait partie de notre humanité. On ne peut pas espérer, d’ailleurs je ne sais pas si ça serait souhaitable, que nous devenions des animaux à tout le temps dire la vérité et que nous ne puissions jamais faire de désinformation, faire de propagande, etc. Dans ces histoires horribles de la période communiste, je ne sais plus exactement quel pays avait fusionné le bureau des statistiques et le bureau de la propagande. C’est effectivement une bonne idée de fusionner ces deux bureaux, ça serait embêtant que le bureau de la propagande dise quelque chose et que le bureau des statistiques dise le contraire, ça serait embêtant pour la propagande, ça serait bien pour la vérité, mais ça serait embêtant pour la propagande, il valait donc mieux mettre les statistiques sous la coupe de la propagande.
On a toujours dit des choses fausses, on a toujours dit des choses qui étaient invérifiables. Pendant la Première Guerre mondiale, l’essentiel du combat c’était de faire croire à l’ennemi qu’il avait déjà perdu la guerre en donnant des informations fausses de manière à ce que les soldats n’aient plus le cœur de venir combattre en disant « de toute façon c’est foutu, foutu pour foutu autant essayer de sauver sa peau. » Bien avant les objets d’intelligence artificielle c’était déjà un enjeu énorme de mentir, en particulier un enjeu politique et un enjeu militaire.
Maintenant une question se pose. On a longtemps pensé que ce qu’on entendait était susceptible d’être faux. Si je vous dis « j’ai vu le pape avec une doudoune blanche », vous pouvez me dire « quoi ? Le pape avec une doudoune blanche, qu’est-ce que tu racontes ! ». En revanche, si je vous montre une photo du pape avec une doudoune blanche, là vous le voyez, donc vous le croyez. Il y avait une différence de modalité entre la parole et l’image, la parole étant, on le sait, sujette au mensonge alors que l’image beaucoup moins. Ça c’était bien au 20e siècle, mais il faut arrêter de penser comme ça puisque, aujourd’hui, les images peuvent tout autant que les paroles véhiculer des mensonges. Pourquoi les paroles véhiculaient-elles plus de mensonges que les images ? Parce que dire quelque chose de faux ça coûte peu, n’importe quel imbécile comme moi ou comme vous peut prendre un sujet, un verbe, un complément et faire une phrase qui est fausse, ça ne coûte rien, ça ne coûte pas beaucoup d’énergie, ça ne coûte pas beaucoup d’argent. En revanche, faire une image fausse, ça demandait un peu de technique ; truquer des images, manipuler des images, ça demandait au minimum un labo photo, une paire de ciseaux, c’était compliqué. Aujourd’hui, avec la démocratisation de l’accès au savoir, faire des images fausses est devenu à la portée de tout le monde. Là où il y avait beaucoup de désinformation verbale mais peu de désinformation visuelle, maintenant il y a autant de désinformation visuelle que de désinformation verbale.
Alors se pose une question : si la photo, si l’image n’est plus la confirmation de la langue, qu’est-ce qui peut devenir la confirmation ? Comment peut-on savoir si le pape a, ou non, une doudoune blanche ? On peut d’abord se poser la question : est-ce que c’est vraiment important de savoir si le pape a une doudoune blanche ? Peut-être peut-on lui laisser le choix de la couleur de sa doudoune et ça n’a pas grande importance pour nous.
Il faut donc se demander quels sont les points sur lesquels la vérité est importante et quels sont les points sur lesquels on peut raconter des histoires.
Moi aussi je vais jouer les Cassandre. Les téléphones portables ont tué quelque chose qui était merveilleux, qui était le droit à la mauvaise foi et le droit à l’exagération. Maintenant, dans un dîner, si vous voulez dire « j’ai traversé un hiver épouvantable, il faisait moins 30 », il y a toujours quelqu’un pour dire « ce n’était pas tout à fait moins 30, c’était moins 27. » Avant les téléphones, cela n’arrivait pas, on pouvait donc exagérer, on pouvait dire moins 30, mais moins 30 pour les jours où ça allait, parce que d’habitude c’était moins 40 ! Maintenant vous ne pouvez plus. Cette possibilité d’exagération est devenue difficile à assumer, maintenant il faut faire attention à ce qu’on dit. Avec les étudiants, par exemple, on avait tout le temps l’habitude de mentir. J’écrivais des trucs au tableau, je les effaçais et après les étudiants venaient me dire : « Tu as écrit ça au tableau. – Non, non, pas du tout, c’est faux. Je sais que c’est faux, je n’aurais jamais écrit un truc pareil ! ». Maintenant ils disent : « Si, j’ai la photo, j’ai pris la photo du tableau, j’ai la preuve que tu as écrit ça ! – Non, la photo est un fake ! »
Avant de se demander si les choses sont vraies ou fausses, il faut d’abord se demander si c’est important pour nous. Dans quel cas est-ce important et dans quel cas ce n’est pas important ? Et si vraiment la couleur de la doudoune du pape vous importe, dans ce cas-là il y a une solution, c’est demander au pape. Vous appelez le pape et vous lui demandez « quelle était la couleur de ta doudoune ? ». S’il vous dit « j’avais une doudoune rouge », vous dites « la photo sur laquelle il avait une doudoune blanche est fausse. »
On a une nouvelle manière de faire qui n’existait pas par le passé, là c’est donc une espèce de progrès, c’est la multiplication des sources. Quelqu’un est parti en vacances, en voyage ou en pèlerinage avec le pape et il vous dit « il avait une doudoune blanche », eh bien vous pouvez avoir une deuxième source, une troisième source, une quatrième source, le pape n’est pas parti en pèlerinage tout seul, donc vous pouvez multiplier vos sources, vous pouvez demander à un grand nombre de personnes ce qu’elles en pensent. Ce n’est pas une méthode infaillible puisque vous pouvez être l’objet d’un complot, peut-être que plusieurs personnes savent que le pape n’avait pas une doudoune blanche, mais elles ont décidé de vous dire, d’une voix commune, que le pape avait une doudoune blanche. Mais vous avez cette possibilité qui est la multiplication des sources et c’est quelque chose qui est important. Par exemple au 20e siècle, quand je préparais un exposé pour l’école, je regardais dans un truc un peu comme Wikipédia qui s’appelait l’encyclopédie ce qui était dit et je regardais dans UNE encyclopédie. Je regardais dans l’Encyclopædia Universalis, je faisais confiance à l’Encyclopædia Universalis. Maintenant, quand je regarde dans Wikipédia, je cherche s’il y a d’autres sources, si Wikipédia, par exemple, cite ses sources, que ses sources sont, par exemple, des articles de recherche, je vais essayer de télécharger les articles de recherche pour vérifier ce que dit Wikipédia.
Il y a une nouvelle hygiène du rapport à la vérité, qu’il est important de développer, et il y a au moins deux éléments.
Le premier élément c’est que les images n’ont pas plus de crédibilité que les mots, il faut vivre avec ça, c’est bizarre et c’est nouveau, même Saint-Thomas croyait que ce qu’il entendait n’était pas fiable mais que ce qu’il voyait était fiable, eh bien non, c’est la fin du thomisme.
L’autre élément d’hygiène de la vérité, c’est la multiplication des sources. Vous ne pouvez pas croire une seule personne, vous ne pouvez pas croire une seule source, et même quand vous avez plusieurs sources, il faut vous poser la question de la collusion possible entre ces sources.
Clara Degiovanni : Je vais poser une dernière question, après je laisserai la salle s’exprimer.
Pour revenir sur la doudoune du pape, pour vérifier que le pape portait cette doudoune ou pas, il faut faire un travail de fact-checking en journalisme et cette hygiène de vérification demande beaucoup de travail. N’a-t-on pas créé un outil qui, finalement, va nous demander à côté une masse de travail inattendue, beaucoup plus inattendue que ce qu’on aurait pu imaginer ? Finalement, ne s’est-on pas créé du travail contrairement à ce qu’on pourrait penser avec cette idée de remplacement ?
Gilles Dowek : C’est une question paradoxale, j’attends toujours la question : c’est épouvantable, l’intelligence artificielle supprime des emplois ! Nous voyons, au contraire, que l’intelligence artificielle crée des emplois et moi qui suis plutôt paresseux je ne m’en réjouis pas. Je trouve que c’est mieux de ne pas travailler que de travailler, c’est surtout mieux d’arriver au même résultat par la paresse que par le travail.
Mais oui, tout à fait. Nous avons peut-être perdu un rapport naïf, un rapport gratuit à la vérité et nous devons être sur un mode, une modalité : beaucoup plus de méfiance, beaucoup plus de vérification. Et oui, la vérification demande un travail et c’est pour cela que je disais qu’on ne pourra pas faire tout le temps ce travail, il faut donc vraiment se demander ce que nous voulons vérifier. Je pense que vous avez à peu près compris que la couleur de la doudoune du pape m’importe peu, je ne vais donc pas passer une journée entière à essayer de vérifier cette information, finalement tant pis si c’est faux et puis tant pis pour le pape s’il a une doudoune d’une autre couleur.
En revanche, quand une information m’est vraiment essentielle, que j’essaye de fabriquer un avion et que je pense que je vais ensuite voler dans l’avion, ça m’intéresse de savoir si les outils mathématiques que j’utilise pour calculer mon avion sont corrects ou non, puisque, s’ils ne le sont pas, l’avion va s’écraser et si je suis dans l’avion ça m’embête un peu. Donc dans ce cas-là oui, il faut passer du temps, il faut donner de sa personne et donner de l’énergie pour vérifier les informations.
Je pense, et c’est une manière de rendre hommage à Michel Serres aujourd’hui, qu’il faut aussi se départir de l’idée que c’était mieux avant et de l’idée que, avant, la vérification était très facile. Avant que vous ayez le 06 du pape dans votre carnet de téléphone, c’était très compliqué de vérifier aussi mais pour une autre raison. Ce n’était pas compliqué de vérifier les informations parce qu’on était dans un mode de défiance, comme on l’est aujourd’hui, mais c’était compliqué de vérifier les informations parce que l’accès à l’information était beaucoup plus difficile.
J’ai vécu l’époque où, à la Bibliothèque nationale, c’est peut-être toujours le cas mais tout le monde s’en fout, on avait des cartes de couleurs différentes selon qu’on était en licence, en master, en maîtrise comme on disait à l’époque, en doctorat ou déjà docteur et on avait accès à des morceaux différents de la bibliothèque. J’imagine qu’il y avait des livres qui étaient plus haut sur les étagères, ça demandait un plus grand travail aux bibliothécaires d’aller les chercher, donc on ne les réservait qu’à des cas des lecteurs qui le méritaient.
Pour vous raconter une anecdote, une fois j’avais mis une citation de Picasso dans un livre, puis je me suis dit « c’est embêtant parce que, cette citation de Picasso, je l’ai juste trouvée sur le Net, il faudrait quand même que je vérifie que c’est la bonne citation de Picasso. » J’avais pourtant trouvé 40 occurrences de cette citation sur le Net et j’étais relativement confiant parce qu’un professeur agrégé de français, je n’ai rien contre les agrégés français, avait écrit un dictionnaire des citations dans lequel il y avait cette citation de Picasso donc je me suis dit que lui avait dû quand même vérifié. Mais je n’étais pas complètement en confiance, donc je me suis dit « je vais vérifier par moi-même. » Un truc m’avait mis la puce à l’oreille : cette citation était souvent citée sans aucune source ; on dit « Picasso a dit ça », mais on ne sait pas où il l’a dit, quand il l’a dit, à quelle occasion. J’ai trouvé une source qui référençait une interview que Picasso avait donnée à un critique d’art dans une espèce de fanzine des années 30 qui n’était pas si facile à trouver. J’ai trouvé qu’en France il y avait deux exemplaires de ce fanzine, un à la Bibliothèque nationale et l’autre à la bibliothèque Sainte-Geneviève. Je suis allé à la bibliothèque Sainte-Geneviève et on m’a dit : « Vous n’avez pas accès à ce document. – Pourquoi ? – Parce que vous n’avez pas de doctorat. – Ça tombe mal, j’ai un doctorat. – Il faut venir avec la preuve de votre doctorat. – C’est très bien, pour une fois, vous, vous ne croyez pas les fake news, j’aurais pu vous raconter que j’avais un doctorat alors que je n’en avais pas ! ». J’ai dû aller chez moi faire une photocopie de mon doctorat et je suis revenu avec mon doctorat. On m’a dit : « Un doctorat en informatique, on n’est pas sûr que c’est un doctorat ! ». J’ai dit « je veux parler au manager » et finalement j’ai réussi à retrouver ma citation et elle était fausse !
[Applaudissements]
Clara Degiovanni : Merci beaucoup. Maintenant on va laisser place aux questions sachant que juste en face il y a l’agora qui est un endroit où vous pourrez, après, continuer les échanges avec Gilles Dowek.
Le micro va circuler.
Public : Bonjour. Merci beaucoup. Je rebondis sur la fin de votre exposé, notamment sur le rapport à la vérité. Dans ce que vous décrivez, avec un souci de la rigueur, de la vérification, on sort de la technique, notamment de ChatGPT : « il ne faut pas croire ce que dit ChatGPT parce que ChatGPT n’est pas fait pour retranscrire la vérité, donc je sors de cette technique-là, je vais à la bibliothèque Sainte-Geneviève pour vérifier. » Mais aujourd’hui, on est un peu au début de ChatGPT, même si ceux qui s’y intéressent peuvent y passer un certain temps, ce n’est pas encore une technique qui a envahi totalement nos façons de produire, nos façons de penser, de nous informer. Mais demain, l’émergence de cette intelligence artificielle ne va-t-elle pas produire une sorte d’envahissement, en quelque sorte, de contenus, de façons de produire une forme de réel, de bain environnemental dans lequel on sera plongé, qui fait que cette alternative-là, c’est-à-dire, à un moment donné, passer la porte de la bibliothèque Sainte-Geneviève, trouver des journalistes qui vont avoir des contacts et qui vont vérifier auprès de personnes réelles ce qui s’est passé – par exemple est-ce que le pape avait telle ou telle doudoune. Est-ce que ça ne va pas modifier l’environnement qui permet, aujourd’hui, d’aller vérifier, c’est-à-dire de sortir de cette technique pour la mettre un peu en contradiction avec le réel, finalement ? N’y a-t-il pas un risque que ça modifie totalement notre capacité à aller chercher la vérité en dehors de cette intelligence artificielle ? Et si tel est le cas, est-ce qu’il y a des parades techniques, ou pas techniques d’ailleurs, qui peuvent être apportées ? Merci.
Gilles Dowek : Merci. À chaque fois qu’on me pose la question : à quoi ressemblera le monde de demain ?, j’ai eu une réponse facile qui est de dire que je n’en sais rien. Ce n’est pas juste que je n’en sais rien parce que le monde pourra être blanc ou noir ou vert ou rose, et que je ne sais pas, c’est que, par essence, le futur est indéterminé, parce que le futur sera ce que nous en ferons.
Est-ce que demain nous allons avoir une unique source de connaissances, avec tous les risques que vous mentionnez, ou est-ce que nous garderons cette idée de pluralité de sources avec la nécessité de les confronter et de faire émerger une forme de vérité de cette confrontation ? Je ne peux pas vous répondre. Ce n’est pas juste que je l’ignore, c’est que la décision dépend de nous.
Si nous décidons que nous pouvons nous contenter d’une seule source, nous vivrons en enfer, dans l’enfer que nous aurons nous-mêmes construit.
Si nous décidons, au contraire, qu’à côté de ChatGPT qui, de toute façon, n’est pas une source de vérité, nous avons besoin d’autres sources qui, elles, peuvent être des sources de vérité, nous vivrons dans un monde paradisiaque et ça sera grâce à nous puisque c’est nous qui aurons construit ce monde.
Donc oui, je crois qu’il faut garder cette pluralité de sources et je crois que c’est surtout notre responsabilité de la garder, c’est plus une question éthique qu’une question de prophétie.
Cependant, je vais quand même essayer de ne pas uniquement me défiler derrière cette forme rhétorique qui consiste à vous renvoyer la question et à dire que tout dépend de vous. Si on regarde ce qu’on apprend par exemple aujourd’hui aux élèves, j’ai l’impression qu’on leur apprend beaucoup plus qu’au 20e siècle à se méfier de ce qu’on entend, à contrôler ce qu’on entend, à le vérifier et à confronter plusieurs sources. Je vous disais que quand je préparais un exposé, quand j’étais moi-même au collège, je me contentais d’une seule source qui était l’Encyclopædia Universalis parce que je considérais que c’était relativement bien vérifié. J’ai cru ça jusqu’à moi-même écrire dans une autre encyclopédie et là je me suis dit « mais c’est dingue, je pourrais dire n’importe quoi, tout le monde va me croire », c’était un sentiment enivrant. À ce moment-là je me suis dit « maintenant il faut que je fasse attention quand je lis moi-même les encyclopédies parce que ça a été écrit par des gens aussi faillibles que moi, peut-être un peu moins mais quand même faillibles, il faut donc vraiment que je me méfie. » Aujourd’hui, je crois que c’est vraiment un apprentissage de base à l’école et au collège. Pire : je croyais que tout ce que disait mon prof était vrai, c’est encore pire que l’encyclopédie. Aujourd’hui, à chaque fois que je fais un cours, tout le temps mes étudiants viennent me voir : « On a regardé dans Wikipédia, ce n’est pas exactement ce que vous avez dit. » Je leur dis « bravo, c’est bien, il faut multiplier les sources. » Ma deuxième partie de travail c’est de leur montrer que ce que dit Wikipédia ou bien part d’hypothèses différentes ou, finalement, dit la même chose que ce que j’avais dit dans un autre vocabulaire ou parlait d’autre chose et ce sont eux qui ont fait la confusion. Ça fait partie de mon travail et c’est un travail salutaire parce que ça serait criminel de ma part de leur dire « c’est sorti de ma bouche, donc c’est vrai. » Un prof qui dirait ça aujourd’hui serait la risée de ses étudiants et de ses élèves et tant mieux. J’ai l’impression, sur le passé récent, qu’on va plutôt vers plus de vérification, vers plus de scepticisme, vers plus de multiplication des sources et ça me fait penser que ce n’était pas nécessairement mieux avant, c’est peut-être mieux maintenant.
Maintenant, ce que ça sera dans le futur proche, comme je vous l’ai dit je n’en sais rien puisque ça sera ce que nous en ferons.
Public : J’ai l’impression que ChatGPT est le premier d’une lignée et je crois avoir lu ou entendu qu’il commençait à y avoir des concurrents. Si on pose la même question à ChatGPT et à son concurrent, est-ce qu’on aura la même réponse ? Et si on a des réponses différentes, quelle clé d’analyse pourrait nous servir pour savoir laquelle choisir ? J’imagine que c’est lié aux sources.
Gilles Dowek : Vous raisonnez encore comme si ChatGPT disait la vérité, attention !
Quand on rencontre un objet comme ChatGPT, ce n’est pas comme quand on rencontre une pierre sur le bord du chemin, il y a des gens qui l’ont fait et ces gens sont eux-mêmes inscrits dans une histoire. ChatGPT n’est pas arrivé tout d’un coup, il n’y a pas eu un moment où il n’y avait pas ChatGPT et quelqu’un a dit « on va faire ChatGPT. »
Depuis les années 60, des chercheurs écrivent des logiciels, conçoivent des logiciels qui manipulent la langue naturelle. C’est un très vieux domaine de recherche dans lequel la construction des LLM s’inscrit. Dans les années 60, il y avait déjà un logiciel qui s’appelait ELIZA [2], qui avait créé une polémique. ELIZA, c’était vraiment le logiciel le plus bêbête que vous puissiez imaginer, c’était un logiciel conversationnel, comme ChatGPT, mais il y avait à peu près dix réponses standards, 20 peut-être, 100 ? C’était déjà un modèle statistique. OK. Disons que c’était très peu sophistiqué comparé à ChatGPT. Ça simulait une psychanalyse et quand le logiciel ne savait pas quoi dire, il disait « je vois » et, à ce moment-là, l’analysant reprenait. C’étaient des choses assez rudimentaires à l’époque, mais des gens avaient déjà eu le sentiment d’être face à un véritable analyste et les psychanalystes s’étaient révoltés en disant « on va nous voler notre travail, etc. »
L’important c’est de comprendre que ces objets ne sont pas apparus de rien, ils ont une histoire et s’ils ont une histoire, cette histoire est forcément ramifiée, donc, si elle est ramifiée, ça veut dire que les recherches qui ont abouti à ChatGPT ont aussi abouti à BLOOM [3] ont aussi abouti à d’autres systèmes concurrents.
Bien entendu, ces systèmes n’ont aucune raison, quand vous leur posez une question, de donner la même réponse. Ce n’est pas tant la différence des algorithmes, en fait les algorithmes jouent un tout petit rôle dans ces systèmes, c’est pour cela que toujours dire intelligence artificielle et algorithme, c’est plutôt contradictoire. L’intelligence artificielle c’est plutôt un recul des algorithmes au profit des données. Donc, si ces deux logiciels sont alimentés, sont entraînés avec des données différentes, fatalement ils vont donner des réponses différentes.
La question que vous vous posez c’est de savoir comment choisir. Je ne vais pas vous dire « c’est BLOOM qui a raison, c’est ChatGPT qui a tort », je ne vais pas vous dire ça.
Vous avez deux réponses différentes. C’est le bon moment pour avoir la puce à l’oreille, qu’il y a un problème et vous devriez peut-être chercher ou bien une troisième intelligence artificielle à laquelle reposer la même question, auquel cas vous risquez d’avoir une troisième réponse, mais surtout chercher des documents.
Dans l’histoire que je vous ai racontée, qui était très 20>sup>e siècle, je suis allé à la bibliothèque Sainte-Geneviève, mais vous n’êtes pas obligé d’aller à bibliothèque Sainte-Geneviève, vous pouvez aller sur bibliothèque-sainte-geneviève.fr - j’invente leur adresse, je suis comme ChatGPT, j’invente juste des trucs crédibles, bibliothèque–sainte-geneviève.fr, ça a l’air assez crédible, ce n’est peut-être pas la bonne adresse –, et là je vais accéder à des documents qui sont certifiés par la bibliothèque. À ce moment-là, vous pourrez donc vérifier l’information.
Ce ne sont pas nécessairement les ordinateurs qui disent n’importe quoi et la bibliothèque avec des livres en papier où il faut aller pour vérifier, on peut vérifier en utilisant aussi des bibliothèques en ligne, par exemple. Oui, les bibliothèques en ligne peuvent être fausses, dans les bibliothèques aussi il peut y avoir des faux, etc., une part de doute restera toujours, mais, à nouveau, on avait déjà cette part de doute par le passé. Vous savez que toutes les histoires de Newton et de sa pomme sont fausses, vous savez sans doute aussi que les histoires de Galilée et de la tour de Pise sont fausses aussi. On a enseigné, j’ai enseigné Galilée et la tour de Pise et après j’ai dit « c’est faux », tant pis.
Il restera toujours une part d’erreur, il restera toujours une part de mensonge, ce n’est pas forcément invivable, il faut le savoir, il faut chercher à la limiter, pas forcément numériquement, mais la limiter aux endroits où ce n’est pas grave, et être très rigoureux, très exigeant là où c’est important pour vous, là où c’est grave.
Public : J’imagine qu’on se pose plein de questions dans la salle et partout dans le monde, on sait bien qu’il y a plus de questions que de réponses en général. J’avais envie de poser la question des limites de l’IA à répondre à toutes ces questions que nous avons tous, associée à la matérialité, c’est-à-dire que c’est quand même de la matière, des métaux, et on n’est pas loin des limites planétaires sur un certain nombre de matières.
Gilles Dowek : À toutes les personnes qui n’ont pas pu poser leurs questions, on va se retrouver à l’agora après si vous le souhaitez, mais vous pouvez aussi chercher les réponses par vous-même. Je ne suis pas la vérité incarnée, j’ai essayé de vous expliquer que la vérité incarnée n’existait pas, peut-être pouvez-vous trouver de meilleures réponses que celles que je vous aurais données. Continuez à réfléchir par vous-même.
Pour les limites de l’IA, il faut prendre la question dans deux sens.
Il y a une question qui est : est-ce que les IA actuelles ou les IA futures ou même des IA qui utiliseraient d’autres techniques, par exemple des IA qui seraient centrées autour de la vérité, qui seraient centrées autour de la logique et pas autour de la répétition ou de l’imitation, est-ce que ces IA, ces logiciels, ces applications auront des problèmes qu’elles ne sauront jamais résoudre ? On pense que oui. Il faut tout à fait sortir de cette mythologie de l’IA toute puissante qui saura répondre à toutes les questions, etc. Les journalistes – ce n’est pas pour dire du mal des journalistes, mais c’est la fin, je peux donc le faire un tout petit peu – utilisent souvent un adjectif un peu bébête qui est « bluffant » ; ils disent « ChatGPT, c’est vraiment bluffant ! ». Il ne faut pas oublier que derrière bluffant il y a bluff, donc c’est bluffant dans tous les sens du terme.
Oui, bien entendu, cette mythologie, cette idée d’une intelligence surpuissante qui aura réponse à toutes les questions, il faut s’en départir, ce n’est pas du tout ça et vous voyez bien que même sur cette image j’ai l’impression que c’est assez compliqué de faire une main, je n’arrive pas à comprendre dans quel ordre sont les doigts. Vous savez que dans toutes les images qui sont générées par des IA aujourd’hui, en général les mains sont assez ratées, apparemment c’est plus difficile de dessiner une main que de dessiner une tête, je n’en sais rien, en tout cas pour ces techniques, il y a donc un moment où on voit les limites et c’est important de savoir que ces limites existent.
Après, il y a la question de la consommation énergétique de ces logiciels et de ces bases de données. On sait qu’on peut continuer comme ça, mais on ne peut pas continuer à augmenter comme ça.
Là on sort du cadre stricto sensu des IA. Il est important, dans cette critique énergétique du développement de l’informatique, de voir où sont les dissipations d’énergie, c’est-à-dire qu’est-ce qui consomme de l’énergie. Je n’emploie jamais le verbe « consommer » pour de l’énergie puisque l’énergie ça se conserve et ça ne consomme pas, mais ça se dissipe. En fait, il y a des secteurs de l’informatique qui dissipent beaucoup plus d’énergie que d’autres. Il y a tout à tout un tas d’infox sur le fait qu’envoyer des mails ça détruit la planète, qu’il faut envoyer des mails mais surtout sans pièce attachée, etc., ce sont des bêtises, c’est de l’infox.
Aujourd’hui, l’essentiel de la consommation d’électricité est faite un, par les cryptomonnaies, les bitcoins, etc. Tout ce qui tourne autour de la blockchain, de la chaîne de blocs, dépense énormément d’électricité. On ne va pas faire une conférence entière sur la blockchain [4], mais la blockchain est conçue pour dépenser l’électricité puisque c’est par votre faculté à dépenser de l’électricité qu’on mesure votre crédibilité. Ce n’est pas une très bonne idée et on pense que demain il y aura des chaînes de blocs qui fonctionneront selon d’autres systèmes qui seront beaucoup moins coûteux en électricité. Il y a à la fois une question pour aujourd’hui qui est de dire « méfiez-vous des cryptomonnaies, ça dissipe beaucoup d’énergie », mais la solution est aussi une solution d’ingénieur, c’est aussi changer de méthode, changer de technique pour faire ça.
Il y a le deuxième secteur qui est la vidéo. Les échanges de vidéos sur le Net sont très coûteux en électricité et le reste peu.
Les grandes bases de données demandent aussi des gros datacenters, etc., mais tout cela est négligeable devant la vidéo.
Donc, si vous voulez contribuer à sauver la planète, ce qui n’est pas nécessaire, vous pouvez décider de ne pas sauver la planète, c’est aussi un choix éthique possible, arrêtez de regarder des vidéos et arrêtez d’envoyer des vidéos, tout le monde se fout des premiers pas de vos enfants, de vos petits-enfants, etc., ce n’est pas la peine de saturer les réseaux avec ça ou alors en basse résolution.
Clara Degiovanni : Merci beaucoup. Rendez-vous à l’agora.
[Applaudissements]