Des IA et des Idées Trench Tech All Star

Al Pacino, voix off : En fait, je ne sais pas quoi vous dire. Trois minutes avant le plus grand combat de nos vies professionnelles et tout se résume à aujourd’hui. Aujourd’hui, soit nous guérissons, en tant qu’équipe, soit on s’effondre.

Voix off : Trench Tech. Esprits Critiques pour Tech Éthique.

Mick Levy : Hop, hop, hop ! Ce n’est pas du hip-hop et pourtant, je vous la chante quand même, c’est la Trench Tech All Star.

Cyrille Chaudoit : Oh non, il s’enflamme !

Mick Levy : Je l’avais promis à ceux qui me suivent sur Linkedin, c’est donc maintenant fait, promesse tenue, je l’ai chanté.
Bonjour à tous, c’est Mick au micro, bien sûr, avec Cyrille, bien sûr, avec Thibaut. Salut les gars.

Cyrille Chaudoit : Hello, hello.

Thibaut le Masne : Salut.

Mick Levy : Nous voilà partis pour un épisode et un live exceptionnels à plus d’un titre, d’abord pour fêter l’anniversaire de Trench Tech.

Cyrille Chaudoit : Un petit peu en retard quand même.

Mick Levy : J’avoue, on est en retard, mais avec tout notre joyeux collectif et avec vous, cher public, d’ailleurs on veut vous entendre, vous êtes bien là ?

[Cris du public]

Mick Levy : Nous voilà donc en live depuis les magnifiques locaux de Cap Digital qu’on remercie de nous accueillir. On peut les applaudir.

[Applaudissements]

Mick Levy : Exceptionnels, je vous le disais à plus d’un titre, aussi parce qu’un All Star c’est avec des stars et aujourd’hui, vous allez être servis avec Françoise Soulié-Fogelman, avec Gilles Babinet et avec Laurence Devillers. Vous en doutez, si vous les connaissez, si vous nous écoutez, avec eux, on va parler d’IA, bien sûr, mais là, on a quand même du niveau, alors on a suivi les conseils de Al Pacino qu’on a entendu en intro : pas le choix. Avec l’IA soit on réussit tous en tant qu’équipe, soit on s’effondre. Mais là, ça se joue au niveau mondial, alors on va leur donner trois minutes, trois minutes à Françoise, à Gilles et à Laurence, trois minutes pour pitcher leur grande idée pour une IA plus éthique.
Après ces grands pitchs, on passera en mode débat et on suivra notre débat sur deux thématiques : l’IA qui nous veut du bien, où on se demandera ce que serait une IA au service de l’humanité, ce que serait le monde avec une IA de confiance. Puis, comment mettre cette IA au service de l’humanité : on discutera des conditions, des actions à entreprendre pour que l’IA soit véritablement positive pour l’humanité.
Pour le public dans la salle, préparez vos questions, vous pourrez les poser en direct à nos trois invités.
Et puis vous les attendez, je le sais, on retrouvera, bien sûr, nos chroniqueurs d’amour qui nous ont concocté une chronique très spéciale, je ne vous en dis pas plus, on vous garde la surprise.
Alors, hop, hop, hop, je vous le disais, ce n’est toujours pas du hip-hop, mais je crois que maintenant tout le monde est prêt pour les grands pitchs.

Cyrille Chaudoit : En fait, pas tout à fait, Mick. Coucou cher auditeur, sur les cinq micros un n’a pas fonctionné, alors écoute bien ce son et tente de retrouver dans l’épisode quand on a dû réenregistrer nos questions.

Voix off : Trench Tech. Esprits Critiques pour Tech Éthique.

Ce serait quoi le monde avec des IA de confiance ?

Cyrille Chaudoit : C’est parti pour le grand pitch. Le principe est simple, mes amis, chacun de nos invités a trois minutes, top chrono, pour partager sa grande idée pour une IA plus éthique. Pour une parfaite équité on a fait simple, l’ordre de passage suit l’ordre alphabétique de leurs prénoms. Une petite règle entre nous, public, on ne les interrompt pas, trois minutes ça passe très vite, aucune question, on garde tout ça pour la suite lors du grand débat. Alors « f », « g », « l », eh bien c’est Françoise qui va ouvrir le bal. Mais déjà là, en fait Françoise n’était pas tout à fait d’accord.

Françoise Soulié-Fogelman : Je n’ai qu’une chose à dire, ce principe est complètement déloyal, je propose...

Mick Levy : On n’a pas commencé qu’elle débat déjà sur le format, ça va être compliqué !

Pitch de Françoise Soulié-Fogelman

Cyrille Chaudoit : Françoise, on peut dire quand même que tu es une véritable pionnière de l’intelligence artificielle. Tu as écrit plus de 150 publications académiques et édité 13 ouvrages scientifiques. Tu fais partie du conseil d’administration du Hub France IA [1] et tu étais membre d’un collège d’experts sur l’intelligence artificielle pour la Commission européenne. Françoise c’est bon ? Tu es prête ?

Françoise Soulié-Fogelman : Je n’ai rien préparé, mais on va y arriver quand même !

Cyrille Chaudoit : C’est parti pour trois minutes.

Françoise Soulié-Fogelman : Le sujet c’est l’éthique et j’ai envie de dire que ça me gonfle, je pense que l’éthique n’est pas le sujet, n’est pas le problème. Le problème c’est que, en fait, si on veut de l’IA, on veut de l’IA dans laquelle les gens aient confiance. Vous voyez Terminator, vous avez peur. Vous voyez le dernier film Mission impossible numéro 47, on a peur. Il nous faut donc quelque chose où, tout d’un coup, les gens aient confiance dans l’IA et pensent que l’IA ça peut être bon pour eux. Le sujet c’est ça.
Maintenant, je vous pose la question : vous avez un bébé, vous voulez lui payer un nounours, vous allez chercher le nounours, qu’est-ce que vous voulez ? Vous voulez que votre bébé ne s’étouffe pas en avalant les oreilles du nounours, en lui arrachant les yeux et en les mangeant. Ce que vous voulez c’est avoir confiance dans le nounours. Comment faites-vous ? Vous regardez un petit truc, une petite étiquette où il y a écrit « CE ¢ et là vous vous dites « je veux ce nounours, j’ai confiance dans ce nounours ».
Comment je fais pour qu’on ait confiance dans l’IA et pour avoir confiance dans l’IA, il y a des outils, c’est comme quand vous voulez faire rentrer un clou. Pour faire rentrer un clou, vous avez besoin d’un marteau. OK, le marteau ça sert à ça. Eh bien, pour l’IA de confiance, pour moi c’est la même chose. Il y a un certain nombre d’outils – je pense que Laurence en parlera – pour moi l’éthique c’est un des outils en question, mais c’est loin d’être le seul. Il y a aussi la régulation qui est basée sur toutes ces choses-là. En fait, il va nous falloir avoir plein d’outils dans notre petite poche pour réussir à avoir une IA de confiance, parce que, sinon, l’IA ne servira à rien, les gens n’en voudront pas. Ils verront les films de monsieur Tom Cruise et voilà !

Comment fait-on pour, ensuite, mettre en œuvre tous ces outils ? Il nous faut je ne dirais pas une grande idée, il nous faut tout un tas de moyens concrets et pratiques. Je dis « il ne faut pas une grande idée, il en faut plein de petites », c’est beaucoup plus facile déjà, mais, surtout, elles sont implémentables.
De quoi a-t-on besoin aujourd’hui ? On a besoin de moyens pratico-pratiques, pour faire en sorte que l’IA se déploie, se déploie de façon à ce que les gens en soient contents, aient confiance et tirent les bénéfices sans tirer les risques avec.
Aujourd’hui, comment je fais quand je suis une start-up pour développer mon produit avec une IA de confiance, bien sûr, de façon à ce qu’elle soit régulée et qu’elle obtienne le petit tampon CE de la Commission qui est une norme, comme chacun sait ; ma petite camarade, là-bas au bout, va nous en parler. C’est le premier sujet.
Un deuxième sujet que tout le monde aborde quand il est dans une entreprise : comment je fais pour tirer les bénéfices de l’IA générative sans me brûler les doigts ?
Plein de petits trucs faciles.

[Applaudissements]

Mick Levy : Et avec un respect parfait du timing.

Cyrille Chaudoit : Merci Françoise. Pour quelqu’un qui n’avait pas préparé, franchement ! En tout cas on précise qu’on te retrouve tout bientôt dans un épisode de Trench Tech qui te sera dédié. Restez bien connectés aux réseaux sociaux pour savoir quand ça sort.

Pitch de Gilles Babinet

Cyrille Chaudoit : On enchaîne. C’est maintenant au tour de Gilles. Gilles, tu es coprésident du Conseil national du numérique [2] et notre digital champion pour la France auprès de la Commission européenne. Tu enseignes également à HEC et tu as écrit quatre ouvrages dont le dernier Comment les hippies, Dieu et la science ont inventé internet, un titre un peu cryptique. Pour avoir les réponses il faudra le lire et c’est aux éditions Odile Jacob.Gilles, are you ready to go ?.

Gilles Babinet : Oui.

Cyrille Chaudoit : C’est parti, trois minutes.

Gilles Babinet : Il y a un peu plus de trois ans, je me suis retrouvé à faire des débats sur la 5G dans les territoires et c’était assez brutal, je ne sais pas si vous souvenez, c’était il y a quatre ans, les gens m’insultaient dans les débats, c’était vraiment très particulier. Je me souviens d’une conversation avec une femme – j’avais sorti tout un tas d’arguments sur les intérêts de la 5G – qui a conclu en disant : « J’ai bien entendu vos arguments, je ne suis pas contre, je suis juste contre parce qu’on nous l’impose ». Ça m’a beaucoup frappé et, à partir de là, j’ai développé, on a développé une idée au sein du Conseil national numérique qui s’appelle « Café IA », qui part du principe qu’il faut ouvrir un débat sur les sujets d’IA avec dix millions de Français. Pourquoi ? Encore cet été j’étais en vacances dans le Vaucluse, j’ai eu l’occasion de discuter soit avec ma famille soit avec des amis de ces sujets-là. Les gens ont beaucoup de fantasmes, ils ont peur que les IA deviennent conscientes, qu’elles leur piquent leur job, qu’elles leur mentent, qu’elles dévoient la démocratie, etc., des risques avérés. Et puis des gens se demandent « comment je mets ça dans ma TPE, comment j’en fais potentiellement mon métier quand j’ai 12 ou 14 ans et que je me demande quoi faire dans la vie ? »
On s’est dit que c’est très bien de faire des grands plans d’IA, de mettre 1,5 milliard d’argent public dedans, de créer PRAIRIE [PaRis AI Research InstitutE] [3] de donner à Polytechnique et à Normale Sup’, et je le dis sincèrement, je pense que c’est très bien, mais c’est loin d’être suffisant.
L’IA touche tellement tout : ça touche la façon dont on vit, la façon dont on produit, la façon dont on échange, la façon dont notre intimité, potentiellement, converse avec ces machines, que ça ne peut pas rester un truc de spécialistes. Ça doit être un truc commun et on doit créer une culture commune de l’IA.
Donc aujourd’hui, le Conseil national du numérique a dit au gouvernement : notre projet, ce qui nous semble important pour la suite, c’est de créer un dispositif qui soit très léger, qui s’appuie sur le milieu associatif, sur les acteurs qui préexistent, et qui identifie juste les meilleurs parcours, ceux qui attirent le plus de monde, ceux qui font en sorte qu’il y a le plus de débats, mais vraiment qu’on arrête de faire du colbertisme où tout se décide à Paris, dans des bureaux du 7e arrondissement, et qu’on fasse quelque chose qu’on aurait dû faire, d’ailleurs, pour bien d’autres sujets dans ce pays, qu’on ouvre un vrai débat.

Je finirai en disant que la raison pour laquelle on pense que l’IA est un bon sujet, c’est que c’est vraiment le sujet le plus transformatif, qui va toucher absolument toutes les dimensions, c’est donc pour cela qu’il faut qu’on le fasse. Je pense vraiment que ça se résume à refaire de la vraie politique, c’est-à-dire parler des vrais sujets avec les gens.

Cyrille Chaudoit : Sur le fil, bravo !

[Applaudissements]

Cyrille Chaudoit : Quel sens du timing. Merci Gilles. On rappelle ton épisode « Tech & Environnement : le grand bullshit ? » [4]. Là aussi, pour avoir la réponse, il faudra écouter Trench Tech sur trench-tech.fr et sur toutes les plateformes de podcast qui se respectent.

Pitch de Laurence Devillers

Cyrille Chaudoit : Pour finir cette battle de pitchs, c’est désormais ton tour, Laurence. Laurence, tu es professeure à l’Université Paris-Sorbonne et directrice de recherche sur les interactions affectives humain/machine au CNRS. Tes travaux portent, entre autres, sur les sujets des normes en IA. Tu as aussi publié trois livres dont Les robots « émotionnels ». Santé, surveillance, sexualité... : et l’éthique dans tout ça ? aux Éditions de L’Observatoire. Es-tu prête, Laurence ? C’est parti pour trois minutes.

Laurence Devillers : Merci.
L’importance de démystifier l’IA, c’est éduquer avant tout, je ne fais pas du tout que des normes, je travaille en recherche, je forme des élèves, j’ai cinq thésards, je publie des articles et je suis aussi présidente de la Fondation Blaise Pascal pour faire de la médiation culturelle en mathématiques et en informatique partout en France. Je suis aussi impliquée à l’Europe sur les normes, effectivement, qui sont des sujets extrêmement importants.

Qu’est-ce que veut dire démystifier l’IA ?
Déjà, qu’est-ce que c’est que l’intelligence ? Vous savez répondre ? Peut-être oui, peut-être non ? L’intelligence a différentes formes : on a l’intelligence du langage, du corps, l’intelligence émotionnelle, interpersonnelle, intra-personnelle, l’intelligence spatiale, ce que la machine n’a pas du tout, et cette intelligence émotionnelle, j’en ai parlé, fait référence aux travaux d’António Damásio [5] qui est un neuroscientifique connu qu’il est important de rappeler.
Notre intelligence humaine, c’est donc un ensemble de compétences, innées ou acquises, indissociables des intuitions et des sensations qui dirigent nos décisions et actions et qui nous permettent souvent de les expliquer, pas toujours, mais on peut les expliquer verbalement, et distinguer ce qui est bien, mal, agréable, désagréable.

Les pièges de l’expression « intelligence artificielle », quels sont-ils ? C’est de masquer les vrais enjeux. Le but, en fait, de l’invention d’un objet IA, c’est d’imiter une capacité humaine si c’est trop dangereux pour nous ou trop pénible, ou de pallier une incapacité humaine : par exemple, on a un cerveau incapable d’aller regarder toutes les informations liées à un contexte pour améliorer des soins, pour aller chercher des informations sur l’écosystème écologique. On n’est pas capable d’agréger toutes ces informations et on n’est pas capable de réfléchir à la vitesse que peuvent avoir ces machines qui, d’ailleurs, ne réfléchissent pas, qui calculent.
C’est donc important de comprendre ça et c’est aussi important de comprendre que l’intelligence artificielle, sur laquelle tout le monde fantasme des choses qui ne sont pas avérées, soit très fortes soit en dessous, est incapable de comprendre ce qu’elle fait, elle est incapable d’expliquer. Elle sait prédire, elle sait produire des générations d’images, de textes, mais elle est incapable d’expliquer ce qu’elle fait.

Personne ne conteste aujourd’hui qu’il y a une puissance croissante des IA combinée à des gigantesques corpus de signaux du monde, ingérables pour notre cerveau, et qui permettra de résoudre des problèmes qui nous dépassent complètement et, en cela, l’IA sera plus intelligente que les humains dans de nombreux usages. Par contre, elle ne pourra pas expliquer ses prédictions. Devant des situations inconnues les humains sont beaucoup plus forts, mais il est certain qu’elle sera de plus en plus intelligente.

Que doit-on faire ? Des lois, des normes, réfléchir sur l’éthique, démystifier ces objets, trois piliers importants pour pouvoir décider face à l’incertain, comprendre les risques. Relisez Pensées de Blaise Pascal, l’inventeur de la pascaline, c’est un appel à agir avec raison dans l’incertain en évitant deux excès : exclure la raison et n’admettre que la raison.

[Applaudissements]

Cyrille Chaudoit : Grandiose. Merci Laurence. On t’a déjà reçue, toi aussi, à notre micro et ton épisode « IA & Robots : il faut voir comme ils nous parlent » [6], est disponible sur trenchtech.fr et toutes les plateformes de podcast.
Attends auditeur, une fois n’est pas coutume, Mick voulait rajouter quelqu’un.

Mick Levy : On voulait donner des challenges à nos invités en se disant qu’on avait des All Star, qu’on allait leur donner le challenge de pitcher leur grande idée en trois minutes. Le plus compliqué c’est qu’ils tiennent trois minutes. Un grand bravo parce que c’est pleinement réussi !

[Applaudissements]

Les intelligences artificielles qui nous veulent du bien, fantasme ou vrai projet ?

Cyrille Chaudoit : Avec ces trois pitchs, je crois qu’à présent on a de bonnes pistes de réflexion et on va tout de suite s’appuyer dessus pour lancer le premier débat : les intelligences artificielles qui nous veulent du bien, fantasme ou vrai projet ?

Voix off : Trench Tech. Esprits Critiques pour Tech Éthique.

Thibaut le Masne : Ah l’IA, un ami qui vous veut du bien. Toutes ces idées m’ont donné envie de rêver, alors rêvons ! Rêvons de ce monde dans lequel l’IA ou, du moins, les IA, serait véritablement au service de l’humanité plus qu’au service du portefeuille de quelques personnes. Ou prenons un peu de temps pour imaginer cette IA de demain, lancée par la question : finalement, selon vous, ce serait quoi une IA de confiance ou une IA au service du bien commun ?
Justement, Françoise, si tu veux bien commencer. La question : ça serait quoi une IA de confiance ou, du moins, une IA au service du bien commun ?

Mick Levy : Et là, finalement c’est Françoise qui récupère le micro qui, en fait, n’est pas branché. Du coup on va essayer de vous restituer au mieux ce qu’elle nous a dit, Cyrille.

Cyrille Chaudoit : C’est très simple, elle prend un exemple, celui du nounours. Tu achètes un nounours pour ton enfant, tu n’as pas envie qu’il s’étouffe en avalant l’œil ou la patte du nounours.

Mick Levy : J’ai envie que ce soit en pleine sécurité.

Cyrille Chaudoit : Effectivement, et c’est pareil pour les lunettes de soleil, pour les voitures. Tu as besoin d’avoir confiance. Elle nous dit : « C’est la confiance, ce n’est pas l’éthique, on veut des IA de confiance ».

Mick Levy : C’est important. Elle nous dit aussi que, du coup, pour amener cette confiance, on peut amener des normes et ces normes doivent être certifiées par des organismes qui vont vérifier qu’effectivement le fabricant a fait tout ce qu’il faut pour amener un maximum de confiance dans l’objet ou dans l’algorithme que tu es en train d’utiliser.

Cyrille Chaudoit : C’est la petite étiquette avec la norme CE par exemple sur la patte du nounours ou sur vos lunettes de soleil, et là elle apporte de l’eau au moulin de Laurence.

Mick Levy : Allez, on y retourne. Du coup, ça ressemblerait à quoi une IA de confiance ? Aujourd’hui, on le dit, on ne peut pas avoir confiance dans l’IA pour tout un tas de raisons, il y a eu plein de crashs de l’IA, il y a eu les problèmes d’hallucination desquels on parle, le fait que ces IA racontent des conneries, le fait aussi qu’elles aient fait du mal, écoutez tous nos épisodes, on en parle, on a plein d’exemples. Ça serait quoi, du coup, une IA dans laquelle on pourrait avoir confiance ? Qu’est -ce qu’il y aurait derrière cette étiquette ?

Laurence Devillers : D’abord ce n’est pas une étiquette, parce que c’est en continu que l’IA peut apprendre des informations et modifier, sans doute, ses comportements. Il y a une partie d’incertitude, comme je dis : on sort des probabilités de quelque chose quand on reconnaît des formes, on sort une production avec ChatGPT qui n’est pas du tout vérifiée, on ne sait pas si c’est vrai ou si c’est faux. Il est donc important de comprendre comment on va réagir à cette incertitude.
C’est très possible d’avoir un monde formidable où, demain, on utilisera les intelligences artificielles pour faire un grand nombre de choses qu’on ne sait pas faire, parce que, énormément de données nous seraient utiles, qu’on ne peut pas accéder à cet ensemble de données ni calculer à cette puissance. Pour cela, il faut être à un certain niveau de compréhension scientifique que l’on n’a pas. La société ne fait pas l’effort de doter l’éducation de suffisamment d’informations sur les sciences. On n’a pas poussé les filles à faire des maths dernièrement, on ne va pas reprendre cet épisode, mais c’est dramatique, et je pense qu’on le sous-estime totalement.

Il ne s’agit pas de faire un label confiance, je suis désolée, on ne me mène pas par le bout du nez, et le label confiance d’une étiquette d’un nounours c’est une fois. Or mon IA, quand elle sort elle est dans un certain contexte. Demain les IA vont apprendre de nous en interaction, si j’en crois monsieur Yann Le Cun [7] et d’autres. On a déjà vu Tay de Microsoft et les erreurs qu’il pouvait y avoir. On aura des filtres dessus pour éviter les cauchemars, des censures sur les suicides, etc., qui sont déjà pas mal, mais qui ne sont pas décidés de façon consensuelle par une réflexion de la société, qui sont décidés par un géant du numérique, ça c’est insupportable, ce sont des problèmes éthiques. Il faut fonder des comités d’éthique capables d’aider, justement, à la construction d’un monde possible dans lequel on devrait avoir beaucoup d’innovations positives sur l’écologie par exemple, sur l’agriculture, sur la médecine.

Thibaut le Masne : Justement, là on est déjà un petit peu dans le comment. Si on revient sur le quoi : ça ressemblerait à quoi un monde, entre guillemets, « meilleur », sans verser dans le technosolutionnisme, on peut peut-être en parler d’ailleurs, grâce à une IA ou aux IA mais dites de confiance. Depuis tout à l’heure, on se demande ce qu’est une IA de confiance, comment on peut lui faire confiance. Mais, in fine la question, derrière, c’est : en quoi les IA peuvent nous aider à faire mieux que ce que l’on fait déjà ? À quoi ressemble un monde meilleur, Gilles, grâce aux IA ?

Gilles Babinet : Je n’ai pas de réponse définitive là-dessus. Je suis de ceux qui pensent qu’il faut tester et que l’IA, dans sa diversité de réponses, est particulièrement appropriée au fait d’apprendre à tester et accepter d’avoir une proportionnalité entre risques et bénéfices, proportionnalité qui n’existe pas beaucoup dans la culture européenne.
Vous avez deux exemples assez simples. La CNIL, dans un arrêt qui date de 97, je crois, avait défini qu’à chaque fois qu’on était géolocalisé on devait opt-in, on devait valider la géolocalisation. Et puis l’iPhone est arrivé, a défini par défaut in/out pour chaque app et a ridiculisé cela. La CNIL a évidemment revu son avis, elle a d’ailleurs fait disparaître son avis qui était un peu problématique parce que c’était ringard. La force de l’UX [Expérience utilisateur], dans ce cas-là, est passée au-dessus de la réglementation ; il ne faut pas se leurrer, je ne suis pas contre la réglementation.
L’autre exemple c’est le RGPD [8]. Quand le RGPD a été préconçu, c’est-à-dire avant qu’un texte soit écrit par la Commission, il y avait eu un petit groupe de travail et on était plusieurs à dire « comme votre truc est écrit, on va passer notre temps à cliquer sur des trucs ; il faudrait qu’à côté du texte réglementaire il y ait du code », qu’on ait par exemple « réglage par défaut dans le navigateur pour dire : voilà ce que j’accepte de partager, ce que je n’accepte pas, etc. ». Évidemment ça n’a pas été le cas, on n’arrête pas de cliquer sur des trucs.
L’AI Act [9] va sans doute sortir dans le prochain trilogue, le 23, 24, je ne suis pas très à l’aise avec ces trucs-là. Je pense qu’on doit être capable d’avoir un droit plus souple, une soft law prête à s’adapter à ce genre de choses.

Mick Levy : Est-ce que vous sauriez nous citer, l’un ou l’autre, un exemple d’IA qui vous marque, utilisée pour une bonne chose, d’IA utilisée pour la bonne manière ?

Thibaut le Masne : Là, Françoise ne peut pas répondre parce qu’elle a encore le micro pourri.

Mick Levy : Du coup, je vais essayer de vous expliquer ce qu’elle a dit. Elle nous prenait un exemple : elle passe ses vacances à la campagne, elle se fait mal à la jambe, elle se casse la jambe, malheureusement il n’y a pas de médecin spécialiste. Elle arrive quand même à trouver un endroit où on peut faire la radio et puis, là, l’IA va pouvoir directement interpréter le résultat de sa radio, va pouvoir directement poser un premier diagnostic et aussi transmettre automatiquement l’ensemble des éléments au médecin spécialiste, qu’elle connaît peut-être, et qui va pouvoir récupérer non seulement la radio mais aussi tous ces éléments de diagnostic.

Cyrille Chaudoit : Elle fait aussi le parallèle avec un enjeu de société dont tout le monde a conscience : les déserts médicaux, il y a de moins en moins de médecins, notamment précisément à la campagne et, avoir une IA qui fait un premier diagnostic, en tout cas qui fait un travail assez rudimentaire, disons, d’un médecin qui n’est pas là, ça peut quand même être intéressant pour l’avenir.

Mick Levy : C’est vrai qu’on attend beaucoup l’IA dans le domaine de la santé. Mais, on nous a ensuite donné un autre exemple.

Laurence Devillers : J’ai un autre exemple sur l’agriculture. On peut faire l’agriculture traditionnelle avec des tas de capteurs qui vont aller vérifier le taux d’eau dans le sol, les problèmes de maladies d’une vigne ou je ne sais quoi, et qui vont permettre à un agriculteur de mieux gérer les jachères, le fait de planter différemment différentes plantes, de respecter le sol. Il peut aussi mutualiser les bonnes connaissances avec des communs, avec un groupe d’autres agriculteurs qui peuvent aussi partager des objets qui vont aller dans les champs vérifier un certain nombre de situations, météo, etc.
Je pense donc qu’on a tous à gagner à utiliser ces objets. La seule peur que j’ai c’est que, pour l’instant, nous sommes incapables d’être suffisamment responsables pour dire qu’il faut éduquer, qu’il faut lever le voile. Je ne comprends pas qu’on utilise, par exemple, GPT 4, alors qu’on sait maintenant qu’il y a huit LLM [Large Language Models] dedans et que personne ne nous a dit comment ça marche. Ce n’est pas normal que ce ne soit pas plus transparent. Si on veut les utiliser bien, il faut absolument qu’on éduque les enfants, qu’on éduque dans chacune des entreprises toutes les personnes qui sont là, tout le monde. Il n’est pas nécessaire d’éduquer forcément que les gens qui travaillent sur l’IA, il faut éduquer tout le monde dans la société sur la façon de la manipuler, de l’apprivoiser. Je pense qu’il est très important de faire les deux : à la fois la loi qui va, par exemple, interdire qu’on détecte les émotions des gens dans leur travail, on n’en veut pas chez nous et je pense que c’est plutôt sain. Non ? Tu préférerais qu’on sache que tu ne fais rien devant ton écran ?

Gilles Babinet : Non, mais on a des cas où ça pourrait être intéressant : si tu vois que tu as des opérateurs qui ont peur.

Laurence Devillers : Ça, c’est le prétexte qu’on nous sert à chaque fois. Mais en moyenne, si on regarde bien, il y a quand même plus de gens qui vont être surveillés que de gens... C’est vraiment la tarte à la crème. À chaque fois que je parle de cela dans une entreprise, on me dit : « C’est pour le bien-être des salariés, on va pouvoir mieux gérer leur vie privée ». Non mais attendez ! On est où là !

Mick Levy : Du coup, Laurence, l’acculturation ne suffira pas là ! C’est vraiment comment tu positionnes l’IA et les choix de société qui vont avec, si on veut l’utiliser ou pas.

Laurence Devillers : C’est de cela dont il faut discuter et cette régulation doit être faite, il faut donc des lois. Par exemple, la manipulation subliminale, on est d’accord qu’il est difficile de trouver la frontière.

Gilles Babinet : Bof !

Laurence Devillers : Toi tu es pour ? Tu es pour la manipulation subliminale ? Ce qui veut dire inciter les gens pour mieux se conduire, paternalisme américain venant d’un prix Nobel d’économie, c’est ça, excuse-moi ! Il y en a partout et c’est assez dangereux : on se fait manipuler. Il faut savoir qui est derrière, à qui ça sert, quel est le début et la finalité.

Cyrille Chaudoit : Au final, la question que j’aurais pour vous c’est : pourquoi sur des IA de type ChatGPT n’a-t-on pas un pourcentage de vérité dans ce qu’il nous dit, dans la réponse qu’il nous donne ?

Laurence Devillers : Impossible ! C’est de la ratatouille.

Thibaut le Masne : Le problème c’est qu’il arrive à nous dire des choses complètement idiotes avec le même ton que des choses complètement vraies.

Laurence Devillers : Ça n’a rien à voir, il déstructure. Il travaille sur des tokens à l’intérieur qui font quatre caractères, les linguistes sont partis chez eux ; ce n’est pas des racines ; sur quatre caractères, sur des tokens.

Thibaut le Masne : C’est une probabilité.

Laurence Devillers : Ce ne sont pas des mots.

Cyrille Chaudoit : Il faut quand même qu’on vous explique.

Mick Levy : En fait, ce qu’elles nous disent, c’est que ChatGPT ne parle pas, ce n’est pas un être humain, donc il ne manipule pas des mots, il manipule, en fait, une notion statistique qu’on appelle un token.

Cyrille Chaudoit : Donc, tout simplement, ChatGPT ne fait pas de sens. Elles disent toutes les deux la même chose, mais différemment, et Laurence ne lâche pas le morceau.

Laurence Devillers : Il compte des régularités sur quatre caractères, c’est cela qui est au cœur. Ça vient d’une théorie en linguistique. Il faudra arrêter avec ChatGPT qui est génial. Franchement, quand j’entends les gens être polis avec ce genre de truc, j’ai juste envie de hurler ! Que fait ce machin ? Il fait des statistiques.

Cyrille Chaudoit : En même temps, Mick insulte Alexa, tous les matins.

Laurence Devillers : Il ne faut pas l’insulter non plus, on s’en fiche, c’est un truc qui ne comprend rien !

Cyrille Chaudoit : On en a parlé avec Serge Tisseron dans un épisode.

Thibaut le Masne : On a eu cinq séances de thérapie pour ça.

Laurence Devillers : Le sketch de Tisseron.

Thibaut le Masne : Simplement Laurence, Gilles, Françoise, pourquoi pourrait-on croire en la volonté de certains acteurs de nous proposer des IA plus responsables demain quand on voit le business que c’est aujourd’hui, quand on voit Sam Altman et OpenAI qui a changé les valeurs de sa boîte, qui était très open, justement, au tout début ? Peut-on croire, finalement, demain en une IA plus responsable, plus durable et plus éthique, ce que tu veux, étant donné les conséquences économiques, en tout cas les enjeux économiques ?

Gilles Babinet : Je veux bien essayer de répondre, mais il faut comprendre que le contexte est assez important.
En réalité, on a différentes ères.
La raison pour laquelle on a un Internet qui est assez peu régulé découle d’une ère qui est apparue dans les années 80, ce qu’on appelle la révolution conservatrice. Thatcher et Reagan sont arrivés au pouvoir, ils ont dit : « Il faut qu’on foute la paix aux entrepreneurs et qu’on les laisse développer leur business. » C’est le moment où un peu plus tard, quelques années plus tard, ont commencé à se développer les plateformes et les plateformes sont allées voir les régulateurs à Washington en leur disant : « Vous êtes le monde d’hier, nous sommes le monde de demain, foutez-nous la paix ! », je résume, mais c’est à peu près ce qui s’est passé. Et on s’est retrouvé avec une situation qui n’aurait jamais existé dans un monde économique normal où l’économie libérale et capitaliste fonctionne s’il y a des régulateurs, s’il y a des contre-pouvoirs qui évitent les trusts et ce genre de choses.
On a abouti à faire des trusts qui sont énormes, avec un consentement assez unanime, en réalité, parce que ça allait vite, qu’on n’avait pas les outils conceptuels et réglementaires pour légiférer sur ces cas-là. Par exemple, il n’y a pas de prix dans l’économie numérique, il y a rarement de prix, Google n’a pas de prix, le prix est un facteur essentiel d’antitrust. Et puis toute la doctrine de parts de marché, etc., ça ne fonctionne pas non plus, en général.
On s’est retrouvé à avoir, finalement, des acteurs qui ont profité de ce momentum et de l’astuce de David Plouffe [10] , qui était le directeur de cabinet de Barack Obama, aujourd’hui c’est le patron des affaires publiques de Uber ; l’ancien vice-premier ministre du Royaume-Uni, Nick Clegg, c’est le patron des affaires publiques de Meta et ainsi de suite. Ça arrive beaucoup moins en France.

Thibaut le Masne : C’est la culture américaine ! Le revolving d’or.

Gilles Babinet : C’est la culture américaine, mais, même aux États-Unis, ça a fait beaucoup de bruit quand ces choses-là sont arrivées. On voyait bien que l’entregent de ces personnalités allait servir à empêcher le législateur de passer à cet égard. Mais on n’est plus dans le même moment et je crois que c’est cela qu’il est important de comprendre. On se dit « ce n’est pas bien, ils vont continuer », en réalité, on n’est plus dans le même moment. Le fait qu’on ait eu, en l’espace de sept ans, le RGPD, le DSA/DMA — DSA [11]/DMA [12], DGA [13], AI Act pour l’Europe, qu’on ait, aux États-Unis actuellement, à l’instant où on parle, Lina Khan [14] qui instruit, développe même avec le DOJ [Department of Justice], une plainte contre Google et Amazon, c’est quelque chose qui ne serait probablement pas arrivé il y a cinq ou dix ans. Et, si les Américains ne légifèrent pas, c’est parce qu’on n’arrive pas à trouver une majorité suffisante dans les deux chambres pour faire à peu près l’équivalent du RGPD et d’autres choses. Le moment n’est plus le même.

[Applaudissements]

Cyrille Chaudoit : Est-ce qu’il y a des questions dans le public ?

Public : Bonjour, Valérie. Je suis juriste et je m’intéresse beaucoup à l’éthique. J’ai une question pour Gilles, on n’a pas mal échangé. Gilles, tu parles de droit souple [15], tu penses que c’est bénéfique. Ne penses-tu pas que l’éthique ou l’éthique appliquée au numérique peut ressembler à du droit souple ?

Gilles Babinet : Le droit souple, ce sont des règles qui ne sont pas forcément législatives, mais qui sont acceptées par l’ensemble de l’industrie et qui font référence dans ce domaine. Par exemple, le fait de ne pas avoir de dark patterns, c’est-à-dire de trucs qui font qu’on ne peut plus se barrer d’un service et tout ça, c’est à peu près accepté par l’industrie : je pense qu’une grande boîte qui ferait ça serait très vite stigmatisée, on dirait que ce n’est pas possible de faire ce genre de choses. On a tout un tas de facteurs d’UX qui sont, en réalité, une forme de droit souple.
Pour cela, et je pense que je rejoins Laurence à cet égard, il faut quand même qu’en face il y ait des corps un peu constitués capables de dire « là vous vous foutez du monde, on va réagir à cet égard ». Il faut avoir une société civile forte pour que ça fonctionne bien, des juristes ou des gens, des éthiciens, qui s’intéressent à ce sujet, qui se font entendre, c’est quand même la condition.

Cyrille Chaudoit : Une deuxième question ?

Public : Bonsoir. Mickaël. J’ai une question. Ce qui m’a frappé en vous écoutant parler : de tous les noms de produits que vous avez cités je me suis dit « tiens, c’est marrant, je n’ai pas entendu de produits français ni de produits édités par des sociétés dont les capitaux sont français ». Je m’interroge simplement : est-ce que ça veut dire que nous sommes condamnés à être des observateurs, de simples utilisateurs de technologies qui sont construites ailleurs ou est-ce qu’on a encore une chance de revenir dans la course ?

Françoise Soulié-Fogelman : J’ai envie de dire que vu la façon dont ChatGPT est rentré sur le marché, quelque part c’est devenu le prototype. Quand je dis ChatGPT, c’est ChatGPT et tous les petits camarades autour.
Une des questions, évidemment fondamentale, c’est pourquoi diable utiliserait-on des produits américains ? Aujourd’hui on a des produits grand public américains et, comme d’habitude, les Américains sont très forts sur le marché B to C, comme on dit, vers le grand public. Il y a en effet, en France, des produits qui commencent à sortir, mais on en est encore au début, qui ne sont pas des produits grand public. Je pense à LightOn [16] ou à Mistral AI [17] qui vient d’arriver sur le marché, ce sont des produits pour les entreprises, ce ne sont absolument pas des produits qui peuvent concurrencer ChatGPT sur ce marché grand public. J’ai envie de dire : les Américains, comme d’habitude, le grand public, B to C, et en Europe, comme d’habitude, le marché B to B.

Laurence Devillers : Ça vaut très cher.

Cyrille Chaudoit : N’est-ce pas par le B to C qui rentre après dans le B to B ? Est-on capables d’avoir la même aura ?

Laurence Devillers : Ça vaut très cher de faire un ChatGPT et de le mettre, comme ça, dans les mains de tout le monde !

Françoise Soulié-Fogelman : Évidemment, c’est la raison pour laquelle en Europe on n’a pas ça.
Maintenant la question, quand on a un marché européen, qu’on veut développer, je pense qu’il y a une chose sur laquelle on peut s’appuyer absolument c’est le fait que les entreprises ont d’abord juste tous les jobs, ce n’est quand même pas mal d’aider les entreprises à se développer, mais, surtout, les entreprises ont plein de données. ChatGPT, aujourd’hui, ne peut pas avoir accès à ces données-là : si ChatGPT veut devenir spécialiste d’un marché bancaire, il ne peut pas parce qu’il n’a pas accès aux données de la banque.
Personnellement, je pense très profondément que les produits européens, en se positionnant sur le marché des produits pour entreprises, vont permettre à nos entreprises de développer des solutions qui vont bien pour elles. Bloomberg, par exemple, qui n’est pas une entreprise française, n’a pas développé un produit français, a développé son propre BloombergGPT en utilisant ses propres données.
Il y a donc tout un continuum de produits avec des technologies différentes, avec des cibles différentes, avec des coûts différents. On peut dire quand même que ChatGPT, dommage pour lui, ça a été le premier, il a donc dépensé 100 millions pour faire son truc.

Laurence Devillers : Merci !

Françoise Soulié-Fogelman : Alors que BloombergGPT, qui arrive six mois après, un million. C’est cela qui se passe. Il ne faut jamais être le premier parce que le premier doit tout balayer pour réussir à trouver sa solution. Il faut toujours être derrière et courir vite, ce qu’a fait Bloomberg.

Thibaut le Masne : C’était assez riche comme échanges, merci pour vos questions. Maintenant il est temps de retrouver nos chroniqueuses et chroniqueurs, car, pour ce Trench Tech All Star spécial, ils sont tous réunis contre ChatGPT.

Voix off : Trench Tech. Esprits Critiques pour Tech Éthique.

Les journalistes (et les chroniqueurs) seront-ils remplacés par ChatGPT ?

Thibaut le Masne : Effectivement, avec l’arrivée de l’IA générative, il y a eu comme un petit vent de panique chez nos chroniqueuses et chroniqueurs. Louis, tu as trouvé un papier sur les liens entre ChatGPT et les journalistes ?

Louis de Diesbach : Précisément, et le titre est très parlant Automated journalism : The effects of AI authorship and evaluative information on the perception of a science journalism article [18], un peu long comme titre ! Bref, tu imagines le truc : journalisme automatisé ! Pour être honnête, je me demande un peu ce que ça veut dire pour nous, les chroniqueurs de Trench Tech.
Ce papier est très récent, 2023, mais ça rappelle quand même qu’il n’y a pas de différence entre la confiance et la crédibilité accordées par les lecteurs aux machines d’un côté et aux journalistes bien humains de l’autre. On ne fait pas la diff. Je ne dis pas qu’on va s’indigner ou partir en grève comme les scénaristes aux US, mais il y a quand même de quoi se poser des questions, non !

Gérald Holubowicz : Oui, oui ! Si plus personne ne fait la différence entre des papiers écrits par les machines et ceux des journalistes, peut-être que l’IA sera tout autant détestée que notre profession. Aura-t-on droit aux insultes du type « bobo, gauche, IA », qu’on entend parfois dans certains cortèges ou manifestations. En tout cas, ça pose tout de même la question de la responsabilité : qui sera en première ligne en cas d’erreurs factuelles ? Plusieurs plaintes ont déjà été déposées contre OpenAI, pour diffamation, après que ChatGPT ait produit de fausses infos. Va-t-on, du coup, vers une généralisation de ce type de procédure ? Et puis autre question : est-ce qu’une IA refuserait de révéler ses sources comme le font déjà les journalistes d’investigation ? Pourrait-elle être sur le terrain et rapporter l’émotion des protagonistes d’un drame ? En effet, il y a 1000 questions qui se posent sur ce sujet.

Emmanuel Goffi : Mille et une questions, Gérald, parce que confiance, crédibilité, factualité, responsabilité, tout ça pose une question supplémentaire qui est celle de la vérité et de sa construction par des acteurs mal intentionnés utilisant les IA génératives pour produire un discours orienté. Comme l’écrivait Roger Bacon – non Mike, ça n’est pas un nouveau burger – « aucun discours ne peut donner la certitude, tout repose sur l’expérience ». Mais que se passe-t-il si mon expérience est façonnée sans considérer la vérité comme une fin, si le discours devient rhétorique juste pour influencer celui qui le reçoit, si la factualité est soumise, en fait, à l’intérêt ? Avec les LLM [Large Language Models] nous nous enfonçons dans la caverne platonicienne au lieu de nous en extraire. Nous nous laissons aller à ce vide de la pensée dans lequel, écrivait Hannah Arendt, s’inscrit le mal.
La vérité a toujours été sujette à controverse, les IA génératives ne viennent qu’ajouter de l’aporie à l’aporie. Mais, dans ce monde d’hyper-falsification qui s’annonce, comment trouver une vérité éthique qui nous permettra d’avancer sans nous faire écraser par la technologie ? Peut-être en écoutant Trench Tech et en exerçant notre esprit critique !

Laurent Guérin : Oui. J’ai une question : je me demande surtout qui va écouter les chroniques écrites par l’intelligence artificielle ? Laisse-moi t’expliquer Emmanuel. Est-ce qu’on ne pourrait pas faire écouter ces chroniques, que nous appellerons des « chrainiques », avec « ai » dedans, par des oreilles artificielles. Les oreilles artificielles pourraient nous résumer ces « chrainiques » en 15 secondes ou nous balancer la meilleure vanne qu’elles contiennent. Pourquoi ? Laisse-moi te faire un parallèle avec la musique, Mike.
Actuellement, les humains produisent 100 000 nouveaux morceaux par jour, 100 000 Cyrille ! Il te faudrait 208 jours non-stop pour écouter tous les morceaux uploadés sur Spotify hier. Imagine maintenant que l’intelligence artificielle se mette à produire des chansons, elle le fait déjà, on appellerait ça des « chainsons ». La capacité de production devient illimitée et l’on peut donc uploader sur les plateformes de streaming un million ou 100 millions ou 100 milliards de nouvelles chansons par jour et l’on arrive, très rapidement, à un goulet d’étranglement où l’abondance des contenus produits automatiquement n’atteindra jamais les oreilles des humains, produits manuellement, si vous voyez ce que je veux dire, « les humains produits manuellement ». Que peut-on en conclure ? Que les chroniqueurs seront remplacés par l’intelligence artificielle quand les humains seront remplacés par des humains artificiels. À défaut, l’être humain fait de chair et d’os se tournera naturellement vers des chroniques faites de plume et d’encre, question de survie, Louis.

Fabienne Billat : Attends Laurent ! La théorie, Louis, c’est fini ! Laisse-moi te donner des éléments concrets, car il y en a : l’utilisation de l’intelligence artificielle en journalisme se développe, et ce, depuis plusieurs années. Aux États-Unis, par exemple, des algorithmes génèrent du contenu automatisé ou présélectionnent les sujets à mettre en avant. Cela fait partie des pratiques du New York Times et du Washington Post qui va supprimer 240 emplois dans l’ensemble de l’organisation.
L’intelligence artificielle gagne du terrain, certes, mais, en utilisant certaines applis, les journalistes améliorent aussi leurs performances. Par exemple, sur le plan des fake news, l’intelligence artificielle est un outil capable d’en générer des tonnes, mais elle est aussi douée pour les détecter et lutter contre la désinformation, de manière automatisée, grâce à ses capacités d’analyse. Avec les chatbots et la gestion automatisée des commentaires par l’outil de Google, Perspectives, utilisé par les journaux Le Monde et The New York Times, l’intelligence artificielle permet une plus grande interactivité entre les médias et les lecteurs. L’intérêt est de pouvoir servir l’info sous un format conversationnel en laissant les robots répondre directement aux questions des utilisateurs sur l’actualité.
Et aussi, à travers des algorithmes de recommandation, les médias sont maintenant capables de proposer du contenu personnalisé à chacun des utilisateurs. C’est pourquoi, depuis juin 2018, The New York Times propose à ses lecteurs une newsletter personnalisée, votre édition hebdomadaire, via une curation algorithmique et humaine.
Et, quand on enregistre nos chroniques, on joue, on impulse, on hausse le ton et on module nos ardeurs, n’est-ce pas ! On est tellement showned, on mouille nos chemises, ça donne soif et avouez-le, tout cela se sent, ça transpire à travers le micro, et ça, ça n’a pas de prix !

Voix off : Trench Tech. Esprits Critiques pour Tech Éthique.

Cyrille Chaudoit : Merci à tous nos chroniqueurs, nos chroniqueuses. On peut les applaudir, on va leur demander de venir. Venez. Par ordre d’apparition dans le podcast Trench Tech, la toute première à nous avoir fait confiance, c’est Fabienne Billat et son « Patch Tech », ensuite Emmanuel Goffi et sa « Philo Tech », Laurent Guérin et son « Moment d’égarement », Gérald Holubowicz « Et on refait la tech », Louis de Diesbach « La tech entre les lignes ». Il y aura de nouvelles voix sur cette deuxième année de Trech Tech. Trech Tech c’est un collectif, ce n’est pas nous trois, c’est tout ça avec, en plus, les gens qui nous aident derrière, qui prennent des photos par exemple. On a la chance d’avoir Thierry Pires qui fabrique notre site web. Viens Thierry. Il est là aussi. Merci beaucoup.

[Applaudissements]

Comment mettre l’IA au service de l’humanité ? La régulation est-elle la seule issue ?

Cyrille Chaudoit : Revenons-en maintenant à nos moutons. D’ailleurs, les intelligences artificielles rêvent de moutons électriques, petit clin d’œil à Kadic et aussi à un ancien invité, Irénée Régnauld du Mouton numérique [19]. Irénée, si tu nous écoutes, c’est pour toi.
Après avoir imaginé pourquoi notre monde pourrait être plus désirable avec les IA de confiance, il nous faut voir sous quelles conditions maintenant, bref, comment y parvenir. On a déjà un petit peu défloré le sujet en vrai. Laurence, comment fait-on pour fixer un cadre, si possible le bon, si ça existe ?

Laurence Devillers : Je travaille sur la normalisation de ces IA au sein du CEN-CENELEC [European Committee for Standardization - Comité Européen de Normalisation Électrotechnique], qui a été désigné par l’Europe pour produire des normes. L’ISO s’intéresse beaucoup à ces normes, c’est très bien, le nudge, par exemple sera une norme qui sera faite par l’ISO. Ce sont des choses qu’on a commencé à élaborer et qu’on donne. C’est l’idée de se questionner sur les mesures : quelle infrastructure faut-il mettre en place pour pouvoir auditer les systèmes, pour pouvoir pousser les industriels à designer les objets en faisant attention à des risques éthiques dans le choix des données, dans l’annotation, dans la finalité qu’on veut en faire, il y a plein de niveaux différents qui sont plutôt utiles.
J’ai beaucoup travaillé avec Thales [20] sur l’IA de confiance. On a proposé tout un protocole avec un philosophe, on l’a testé sur des cas d’usage directs : la voiture autonome qui se gare toute seule, quels sont les problèmes éthiques qu’il pourrait y avoir ? On en a fait un autre sur l’opinion mining, l’analyse d’opinion sur des voitures aussi, ne me demandez pas, mais les grands constructeurs sont intéressés par cela.
On a donc un cadre, comme cela, qui permet de formaliser, qui permet aux designers de se rendre compte des points : on a fait une cartographie morale de ces systèmes complexes, multi-agents humain et machine, et on regarde là où il y a des points de tension, c’est-à-dire des endroits où ça pourrait devenir critique. Cet outil, par exemple, peut être développé et on le prend en main, donc il y a des humains qui jugent. Mais la prise de conscience des ingénieurs, en regardant cela, c’était vraiment génial : venez nous aider, parce que là on nous parle d’éthique, on ne sait pas ce que c’est.

Mick Levy : Intéressant ce que nous dit Laurence, elle nous dit qu’il ne faut pas considérer l’IA comme un tout, il faut la regarder usage par usage, finalement dans sa verticalité.

Laurence Devillers : C’est vertical, oui, en horizontal on n’aura pas énormément de choses. Il faut plutôt faire des choses sur les usages en vertical. La reconnaissance faciale peut être très utile dans certains cas, on ne va pas l’interdire, il ne faut pas l’interdire globalement ! Les gens qui interdisent globalement, c’est parce qu’ils ne connaissent pas la techno, ils ne voient pas à quoi ça peut servir. Il faut donc faire attention à cela.

Françoise Soulié-Fogelman : Interdit d’interdire !

Cyrille Chaudoit : Françoise ne veut pas interdire, mais elle est pour la régulation, par contre.

Mick Levy : Justement, ça m’a amené une autre question : l’AI Act, la grande loi sur l’IA européenne qui est en préparation, elle n’est quand même pas si verticalisée que ça, à mon sens ! Du coup, je demande à Laurence si ce n’est pas un petit peu hors-sol.

Cyrille Chaudoit : C’est la question qui tue !

Laurence Devillers : Non, je déteste que l’on dise cela sur le texte. Il a une certaine maturité, les gens réfléchissent dessus, il n’est pas optimal, il n’est pas que global. Pour l’avoir lu en profondeur, il y a des choses extrêmement utiles sur les émotions : on ne veut pas que ce soit utiliser pour les enfants, on ne veut pas que ce soit dans le milieu du travail. C’est très pointu. Après ils disent ça sur le travail des mecs qui sont en train de faire des voitures ou des mecs qui sont en train de faire autre chose, mais là on n’en a pas besoin.
Il y a aussi des problèmes éthiques qui sont très spécifiques à la santé, qui sont très spécifiques à différents métiers. Je pense, au contraire, que ce qui se passe n’est plutôt pas mal.

Mick Levy : Là, du coup, j’ai tenté de poser une autre question à Laurence, de rebondir, de la couper, je n’y suis pas arrivé, et finalement non, c’est elle qui continue.

Laurence Devillers : Pour terminer, quand on s’occupe des normes, qu’est-ce que ça veut dire ? Ça veut dire qu’autour de la table, tous les acteurs européens de tous les pays d’Europe doivent être d’accord, en tout cas pas contre, à l’idée qui est écrite dans une normalisation, c’est-à-dire une façon d’écrire les choses qui se réfère à des tas de normes ISO. C’est extrêmement complexe, c’est plutôt comme le juridique, très précis et on arrive, grâce à ça, à définir clairement l’objectif et à pouvoir y répondre. Je pense que c’est extrêmement utile de passer par les normes, pas sur des technologies, mais sur des usages de certaines technologies.

Françoise Soulié-Fogelman : C’est clair que, aujourd’hui, l’AI Act tel qui va être voté à la fin de l’année, dit « je veux réguler un produit particulier et je veux le réguler en fonction de son usage. » Un produit peut être bon pour faire de la reconnaissance faciale dans certains cas, dans un certain type d’usage, et dans d’autres usages il ne l’est pas. Je crois que la première chose, qui est importante, c’est de réguler les produits dans ce qu’ils sont réellement, dans ce qu’ils peuvent réellement faire et c’est à cela que la Commission, que toute la communauté européenne s’est engagée, c’est un énorme travail, il y a énormément de gens qui y ont passé. Si vous avez regardé les documents, des milliers d’amendements ont été produits pour discuter de ça. Souvent, quand je discute avec des Chinois par exemple, les Chinois me disent « mais qu’est-ce que vous passez comme temps ! » Les Chinois ont accouché de leur régulation en quelques mois. Nous, pas de bol, nous sommes une démocratie, c’est dommage, ça coûte cher la démocratie. La démocratie ça coûte toutes ces discussions !
Il y a actuellement, aux États-Unis, un mouvement extrêmement dangereux qui dit, par exemple, « nous allons réguler l’IA dite générale », cette fameuse utopie d’une IA complètement incroyable qui serait, en fait, super intelligente, qui serait aussi intelligente que nous et qui pourrait tout faire. Intelligence qui n’existe tout simplement pas et, de l’avis à peu près généralisé, soit elle n’existera jamais, soit elle existera dans 30 ou 40 ans.
Donc tout ce petit club de gens, sympathiques, qui disent « il faut absolument réguler l’IA générale » disent « ce n’est pas la peine de s’occuper du reste ». Donc, en résumé, « régulons les trucs qui n’arriveront pas pour ne pas réguler les vraies choses qui arrivent tous les jours. » Il faut donc absolument se concentrer sur les vraies choses, les choses qui existent, les choses qui sont en train d’arriver dans nos vies, et c’est là qu’il faut construire la confiance et c’est, je pense, à cela que s’attache le texte de la Commission, qui a ses défauts, c’est clair, qui a ses difficultés. Je pense que la chose importante c’est que ça existe, c’est là.

Cyrille Chaudoit : Là, ça mérite de faire une pause. Ce que nous raconte Françoise c’est hyper-important. Elle nous parle d’une forme de régulation que je pourrais qualifier de pickpocket. Le pickpocket agite la main d’un côté pour pouvoir mieux te prendre par en dessous. Eh bien, les faiseurs d’IA génératives attirent l’attention des politiques sur une régulation d’une pseudo-IA générale qui a peu de chances d’aboutir, tout le monde s’en accorde, pour pouvoir mieux faire passer, en douce, les IA génératives qui ne mériteraient pas toute notre attention en matière de régulation. Du coup, il ne faut pas se faire avoir avec l’AI Act.

Gilles Babinet : Je ne l’ai pas caché, je reste assez réservé sur l’AI Act, je pense que ce texte arrive trop tôt, il faudrait un texte de ce type-là, mais on n’a pas d’expérience. Quand on a fait le RGPD, on avait 30 ans d’expérience des entreprises qui manipulaient de la donnée et le texte est vraiment très imparfait. Il coûte quand même 100 milliards d’euros par an aux TPE, il faut avoir ça à l’esprit, à toutes les boîtes, pour comprendre un peu comment ça fonctionne. La Cour des comptes européenne a fait un rapport qui observe ces choses-là. Je trouve que ça mériterait quand même qu’on fasse un amendement au texte et, malheureusement, on n’est pas parti pour.
Le texte dont on parle est d’une complexité qui n’a rien à voir, en réalité. Je m’inquiète d’abord de ce qui va retomber du prochain trilogue, parce qu’il y a des choses qui sont, je crois, inacceptables d’un point de vue des entrepreneurs. La crainte qu’on peut avoir, c’est que les gens prennent l’Eurostar pour aller s’installer à Londres. Je ne crois pas qu’il faille le vivre comme, entre guillemets, « une forme de chantage », mais quand même ! Le fait qu’OpenAI se soit installé à Londres c’est un signal important. Est-ce qu’ils veulent adresser le marché européen ?

Françoise Soulié-Fogelman : Ils se sont toujours installés à Londres !

Gilles Babinet : Ils se sont toujours installés à Londres quand l’Europe incluait le Royaume-Uni, mais beaucoup d’entreprises, notamment des entreprises digitales, ont migré depuis pour différentes raisons. Mais là elles disent « OK, on veut être près du régulateur européen, on s’installe à Londres », on a un problème quoi !

Laurence Devillers : Ils sont anglo-saxons.

Gilles Babinet : Ils pourraient même aller en Irlande en tant qu’Anglo-saxons.

Laurence Devillers : Je pense qu’ils ont hésité.

Gilles Babinet : Pas à ma connaissance.

Mick Levy : Là, on touche à une question qui me fascine : comment va-t-on pouvoir faire pour avoir une IA de confiance, mais sans forcément obliger, réguler, légiférer et mettre tout le paquet qu’on sait côté européen ?

Gilles Babinet : Je pense que c’est un mix entre du soft law et du droit dur sur les points sur lesquels on pense qu’il faut absolument réglementer. Je pense que les Européens, et particulièrement les Français, ont perdu toute proportionnalité. Dans le domaine de la santé, vous êtes un chercheur dans la santé, vous voulez accéder à des données de santé, vous allez voir le SNDS [Système National des Données de Santé], vous en avez déjà pour 12 mois. Une fois que le SNDS a circonscrit les données au minimum nécessaires, les a pseudonymisées, a introduit volontairement des biais dans les données qui réduisent considérablement la qualité de votre recherche potentielle, séquentiellement vous passez à la CNIL et vous en avez encore pour six mois. Au total vous ne faites rien parce que vous êtes un post-doc, vous n’avez pas envie de passer votre temps à vous occuper de tout cela et vous allez faire ça ailleurs

Laurence Devillers : Mais c’est vrai ça ? Dans mon labo, ils ont accès à ces données.

Gilles Babinet : Un gars vient de faire un rapport d’audit, mandaté par quatre ministères, je dévoie un peu ça puisque le rapport n’est pas encore sorti, il était atterré. Il est venu me voir, il m’a dit : « Ce que je découvre est absolument abominable ! »

Laurence Devillers : Sur le HDH, le Health Data Hub auquel je participe, c’est ça, il n’y a pas d’accès. Je travaille sur l’éthique de l’IA et tout le monde se plaint qu’on n’a pas accès suffisamment aux données. Il y avait quand même accès à certaines.

Gilles Babinet : Les données du Health Data Hub viennent en partie du SNDS, mais le SNDS ne lui donne pas ces données.

Cyrille Chaudoit : Hou là, là ! As-tu sorti le dictionnaire des acronymes ?

Mick Levy : Petit point acronymes. J’en fais un, tu en fais un. HDH, c’est le Health Data Hub, c’est le grand réservoir des données de santé des Français qui doit servir pour les chercheurs.

Cyrille Chaudoit : Le SNDS, c’est le Système national des données de santé, ça regroupe les principales bases de données de santé publique, ça a été créé par la loi de modernisation de notre système de santé.

Mick Levy : Fantastique. Là on est au point !
Je voulais ouvrir un autre sujet, un sujet de vocabulaire, sur lequel j’échange très souvent avec l’ami Emmanuel Goffi, notre éthicien en chef. Côté européen, on a choisi de parler d’IA de confiance. Quelle est la différence, finalement, et quel bon mot utiliser entre une « IA éthique », une « IA de confiance », une « IA responsable » ? Je suis perdu !

Françoise Soulié-Fogelman : Quand on a travaillé pour le premier travail qui a accouché du rapport de la Commission européenne sur l’IA, soi-disant éthique, on a discuté de cela pendant très longtemps, ça s’appelait le High-Level Expert Group on Artificial Intelligence de la Commission européenne, dont je faisais partie, avec 51 autres petits camarades. On a discuté longtemps de cela et la conclusion qu’on a eue a été : on va parler de trustworthy IA, ce qu’on traduit en français par « IA de confiance ou IA responsable » et pas justement « IA éthique » pour les raisons que j’ai indiquées : l’éthique est un des moyens pour obtenir cette IA responsable. Pour moi c’est d’une autre nature, en fait, un outil pour obtenir un but ; le but c’est l’IA responsable ou IA de confiance, c’est trustworthy IA. On a mis très très longtemps à accoucher de ça et après nous nous sommes battu, mot par mot, pour produire le rapport que vous connaissez tous. Sachez que chaque mot est trempé dans le sang !

Laurence Devillers : C’est vrai que ce qu’on entend aux États-Unis, qui est dévoilé comme étant de l’éthique, qui n’en est pas, qui est juste une vitrine, une façon de se positionner en chevalier blanc dans la société, fait penser qu’il serait mieux d’utiliser un autre terme. Après, j’aime bien le côté responsable. Par contre, ce n’est pas l’IA qui est responsable, c’est ça qui me gêne ! Je ne peux pas dire « une IA responsable », c’est bidon ! L’IA n’est pas responsable !

Françoise Soulié-Fogelman : L’IA n’est pas non plus éthique !

Laurence Devillers : Elle n’est pas non plus éthique, tu as tout à fait raison, mais je n’ai pas dit non plus IA éthique, j’ai dit qu’on parle d’enjeu d’éthique.

Thibaut le Masne : Finalement, la confiance ne devrait-elle pas être dans le produit là où l’éthique est dans les producteurs du produit ?

Laurence Devillers : La conscience ?

Thibaut le Masne : Non, la confiance.

Mick Levy : Comme quoi, on voit que ce n’est déjà pas si facile de s’entendre entre êtres humains, alors avec des IA ce n’est pas gagné.
Au final, cette histoire de ChatGPT me faisait penser un peu à notre druide Panoramix qui faisait de la potion magique pour les Gaulois, pour donner des super pouvoirs, un peu comme ChatGPT finalement, mais faisait vraiment gaffe aux usages qui en étaient faits, il contrôlait tout ça. Avec ChatGPT, je me demande si ce n’est pas un peu comme si OpenAI avait fait une grande potion magique et puis l’avait laissée au milieu du village en se barrant en vacances. Je voulais poser la question à nos invités : est-ce que OpenIA a bien fait d’ouvrir comme ça, au grand public, ChatGPT, ou pas ?

Laurence Devillers : Ce n’est pas de la potion magique ! C’est une ratatouille, c’est vraiment un truc qui a perdu toutes ses sources. Tu es incapable de reconstruire d’où ça vient, par construction, donc c’est soit une ratatouille soit un puzzle. Ils ont été irresponsables !

Gilles BabiNet : Mais non, c’est super !

Françoise Soulié-Fogelman : Complètement irresponsables !

Gilles BabiNet : Je ne suis pas d’accord.

Françoise Soulié-Fogelman : Si ! J’ai posé la question commerciale parce que je pense que la sortie de ChatGPT est motivée uniquement, exclusivement, et rien que pour des raisons commerciales.

Laurence Devillers : Et politiques !

Françoise Soulié-Fogelman : Je suis en train de me battre sur un marché qui est le marché des moteurs de recherche et de la publicité. J’en ai 3 %, Google en a 80 % et quelques broutilles. Je veux ce marché, donc je sors le premier, c’est tout !

Laurence Devillers : C’est vraiment un hold-up ! Gilles, tu aimes bien les brigands ?

Gilles BabiNet : Je crois beaucoup au marché, je suis profondément libéral et je pense qu’après il faut réguler. Ça choque tout le monde quand je dis ça, mais quand le régulateur arrive et dit « ton design va être comme ça et puis ça va se passer comme ça », on ne va nulle part ! Ce truc-là nous a fait toute la planète et toute la planète a pu réagir et dire « c’est bien, c’est mal, il faut modifier ci, il faut faire ça, etc. ». Tout un tas de concurrents sont en train d’arriver, c’est génial, c’est le marché, ce sont les forces du marché qui s’expriment. Quand je dis ça en France, je sais que je suis catalogué nazi de l’économie, mais ce sont mes convictions.

Thibaut le Masne : Et là ça m’a rappelé un truc, je leur en ai parlé. On avait reçu Joëlle Toledano [21] qui nous disait : « On avance quand on régule. La régulation ce n’est pas tant de réguler un usage ou de réguler une techno, c’est plutôt de réguler les business modèles de tous ces géants de la tech pour laisser de la place aux petits nouveaux qui peuvent vraiment arriver.

Laurence Devillers : Qui veut réguler ? Ce sont les Chinois et les Américains !

Mick Levy : Et là on en arrive au moment qu’on adore : on a un public devant nous, on se dit donc qu’on va prendre des questions du public, mais on ne le sait pas, le micro qu’on tend aux personnes qui veulent poser des questions dans le public est, en fait, toujours notre micro qui ne fonctionne pas !

Thibaut le Masne : Et là, en plus, on tend le micro à un journaliste ! Tu te rends compte ! Notre ami journaliste pose la question : est-ce que les IA génératives vont faire qu’il fera son travail un peu différemment, est-ce que ce sera plus compliqué ou est-ce que, au contraire, il va gagner en productivité ?

Laurence Devillers : C’est évident, tout cela, Monsieur !

Thibaut le Masne : Et, peut-être même, en créativité.

Françoise Soulié-Fogelman : Si je te débarrasse de tout le boulot qui consiste à aller avaler 45 000 documents pour comprendre la situation, d’en faire une synthèse de façon à ce que toi tu puisses imaginer ton article et produire ta valeur ajoutée, ça te va ?

Laurence Devillers : C’est évident ! Par contre, les enfants qui n’ont jamais été éduqués autour de ça, eux le prennent pour argent comptant, en fait, ils vont faire confiance à ces systèmes. Dire que pour soi c’est bien – moi aussi je peux l’utiliser, je sais l’utiliser –, mais je pense que beaucoup dans la société – monsieur mon voisin – ne sont pas à même de comprendre quand est-ce que c’est une vérité, ou pas. Du coup, je pense que c’est assez dangereux si on veut éviter ce clivage fort avec la personnification qu’on fait des machines maintenant. On va avoir des identités politiques particulières, on va voir ces bulles d’information et on ne sait pas gérer. Soit il faut plus éduquer les gens, soit il faut prendre des mesures contre ça. Je suis désolée, ce n’est pas responsable de laisser ça comme ça ! Le grand déballage de cow-boys qui font du profit, j’ai l’impression que c’est très irresponsable. Après, le profit est très grand !

Françoise Soulié-Fogelman : Une question sur ce grand déballage en question : ce qui me gêne très profondément, toujours, c’est le problème du marché. Ce marché-là a une caractéristique qui est malsaine, c’est winner takes all, il y en a un et il ramasse tout ! C’est toujours un petit peu comme ça : c’est Google qui a 80 % du marché de la publicité, c’est, en l’occurrence, ChatGPT, puisqu’on ne parle que de lui, et les autres derrière, ils sont quand même beaucoup. Demandons-nous si LightOn ou Mistral AI ont un marché comparable, la réponse est non. Microsoft va sortir, est en train de sortir un produit qui s’appelle Microsoft 365 Copilot dans lequel ils vont pulvériser tous les autres produits, winner takes all, il n’y a rien qui remplace.

Mick Levy : Et là, deuxième question du public, on l’ignore toujours, c’est toujours avec le micro qui ne fonctionne pas.

Cyrille Chaudoit : Et c’est bien dommage parce que la question est vraiment de bon sens : au final, de quoi a-t-on peur ou de quoi devrait-on avoir peur avec les IA ?

Laurence Devillers : Mais on n’a pas peur ! Nous n’avons pas peur !

Françoise Soulié-Fogelman : Même pas peur !

Mick Levy : OK. Effectivement Françoise, Laurence, Gilles n’ont pas peur, mais le grand public, quand même, se pose la question, on voit partout ses peurs dans les médias. Alors Gilles, aide-nous à les clarifier.

Gilles Babinet : Il me semble qu’il y a deux grandes peurs qui apparaissent assez souvent, c’est le risque de conscience des machines. Le Conseil national numérique a organisé pratiquement 100 débats, dans les territoires, de tout type, avec des scolaires, avec des retraités, avec tout ce que vous voulez, j’en ai encore fait un lundi et, à chaque fois, on essaye de démystifier un certain nombre de choses dont, évidemment aujourd’hui, les sujets d’intelligence artificielle. La peur de la conscience revient dans tous les débats. L’autre grande peur est liée au travail : est-ce que la productivité des machines va être absolue et va faire disparaître le travail ?

Françoise Soulié-Fogelman : Ça va me piquer mon job !

Gilles Babinet : Ce sont les deux grandes peurs les plus communément rencontrées. Je ne pense pas que ce soit, en revanche, les risques qui ont le plus grand potentiel de se manifester à court et moyen terme.

Laurence Devillers : Le risque d’être viré existe quand même ! On voit des sociétés qui commencent à remplacer la moitié des gens par des IA du côté des médias.

Françoise Soulié-Fogelman : Qui profitent de l’IA pour faire un plan de licenciement. C’est un prétexte.

Gilles Babinet : En économie, il n’y a aucune certitude là-dessus et, à chaque fois qu’on a eu des technologies systémiques, des emplois ont disparu en masse et d’autres sont apparus.

Cyrille Chaudoit : OK. Alors là, Laurence, Françoise, Gilles, je vous invite à écouter l’épisode avec Laëtitia Vitaud [22], dont on a déjà discuté : les progrès supposés de la révolution digitale n’étaient pas du tout avérés, en tout cas pas dans les proportions qu’on imaginait. Alors pourquoi en serait-il autrement avec les IA ?

Françoise Soulié-Fogelman : Juste pour info, tous les gens autour de nous qui sont raisonnables disent : « Aux alentours de 10 % de productivité en plus », mais ce n’est déjà pas mal !

Cyrille Chaudoit : Et, comme nous sommes des gros gourmands chez Trench Tech, on a pris une troisième et dernière question et là, la question tombe : finalement on parle beaucoup d’IA génératives mais où sont les vraies priorités en matière d’investissement ? Est-ce que les IA génératives ne seraient pas en train de phagocyter les autres IA ?

Gilles Babinet : On peut répondre de façon assez simple. Je ne sais plus quelle banque a fait un rapport, qui est sorti il n’y a pas très longtemps, sur les investissements aux États-Unis. En gros, depuis le début de l’année, 60 % des investissements vont sur des systèmes génératifs ou des modèles larges, donc ça répond.

Françoise Soulié-Fogelman : Des investissements supplémentaires ?

Gilles Babinet : Siri AI.

Françoise Soulié-Fogelman : D’accord. C’est autre chose.

Laurence Devillers : Sur la recherche, je peux dire la même chose. Beaucoup d’IA qui étaient utilisées ne sont plus utilisées et tout le monde est sur IA générative.
Je peux vous dire aussi que dans les meilleures conférences, j’étais dans une conférence qui est le top sur le machine learnig et le traitement automatique du langage, donc ChatGPT, il y avait 650 papiers, plus de la moitié étaient chinois, beaucoup moins d’américains, donc les Américains ont perdu le lead sur l’inventivité qu’ils pouvaient avoir dans les papiers de très haut niveau, c’est récent, et en Europe on devait avoir 95 papiers dont 15 papiers français. Si je regarde ce qui s’est passé à cette conférence, de haut niveau, il y avait plein d’industriels, il y avait un débarquement d’industriels chinois, un débarquement d’industriels américains qu’on connaît bien, et il y avait deux industriels européens : Orange et un Anglais et basta. Je pense que tous les étudiants que nous sommes en train de former ont tous été chassés ! Ils n’ont pas fini leurs tests qu’ils sont déjà chassés par les grands groupes.

Cyrille Chaudoit : Merci à tous les trois.

[Applaudissements]

Mick Levy : Non ! Ce premier Trench Tech All Star est déjà fini !

Cyrille Chaudoit : Oui, mais nous avons eu du rab en studio, Mick !

Mick Levy : C’était un peu spécial quand même !
Merci à Cap Digital de nous avoir accueillis et à vous, cher public, d’être venu sous cette magnifique verrière. Par contre, on ne remercie pas le micro qui ne fonctionnait pas !
De l’autre côté des casques on espère que cet épisode spécial vous a, une nouvelle fois, permis d’exercer votre esprit critique pour une tech éthique. Si c’est le cas, il vous reste une seule chose à faire : poster un avis cinq étoiles sur Apple Podcast ou Spotify, lever un pouce sur YouTube et partager cet épisode autour de vous. Car, comme le disait Romain Gary : « Il faut toujours connaître les limites du possible, pas pour s’arrêter, mais pour entreprendre l’impossible dans les meilleures conditions ».

[Applaudissements]