IA & Robots : il faut voir comme ils nous parlent - Laurence Devillers Trench Tech

D’Internet à nos cuisines, les robots émotionnels sont omniprésents dans notre quotidien. Boostés à l’intelligence artificielle, ils posent de multiples questions éthiques. Au fil de nos échanges avec Laurence, nous explorons ces questions :

  • intelligence artificielle, robots émotionnels : de quoi parle-t-on exactement ? ;
  • éthique : quelle prise de conscience du grand public et des politiques ? ;
  • réglementation, normes : quelles solutions ? ;

Voix off, dialogue du film Ex Machina d’Alex Garland : — Tu l’a programmée pour qu’elle flirte avec moi ?

— Si c’était le cas, ce serait de la triche ?

— Est-ce que tu l’as programmée pour que je lui plaise, oui ou non ?

— Je l’ai programmée pour être hétérosexuelle ainsi que tu as été programmé pour être hétérosexuel.

— Personne ne m’a programmé pour être hétéro.

— C’est un choix délibéré ! Je t’en prie. Bien sûr que tu as été programmé, par nature ou culture ou bien les deux, et, pour être franc, tu commences à m’énerver, parce que là, c’est ton insécurité que j’entends, ce n’est pas ton appel.

Voix off : Trench Tech, Esprits critiques pour Tech éthique.

Thibaut le Masne : Bienvenue dans ce nouvel épisode de Trench Tech. Vous voulez exercer votre esprit critique pour une tech éthique ?,vous êtes au bon endroit. Trench Tech c’est le talk-show qui décortique les impacts de la tech sur notre société.

Dans Ex Machina, film d’Alex Garland, en 2014, Nathan, patron de Blue Book, sorte d’hybride entre Zuckerberg et Sergey Brin, est le génial créateur d’Ava, une IA prenant les traits d’un robot féminin aussi séduisant qu’inquiétant. C’est lui qui tient ces propos quand son employé, Caleb, lui demande s’il a programmé Ava pour le séduire. Serait-ce de la triche ? Au fond, si nous sommes nous-mêmes, en tant qu’humains, déterminés par un certain nombre de paramètres issus de notre éducation, de notre culture, de nos expériences, etc., alors en quoi les modéliser afin de mieux nous comprendre et, in fine, nous offrir le bon produit ou la bonne expérience utilisateur serait de la triche ?

Hier, quand j’utilisais un mixeur pour me préparer un jus, j’avais conscience de faire appel à une machine dont la seule vocation était de me servir, un simple objet capable d’automatiser une tâche physique, pénible, quoi. Bref !, j’avais conscience de faire appel à un outil. Mais prochainement, avec les robots dits émotionnels, aurai-je encore conscience de ne faire appel qu’à une machine ? Oserons-nous encore parler de machines, d’ailleurs ? Aurai-je encore conscience de ce qui nous différencie, ou aurai-je l’impression que cet autre, fait de silicium et de silicone, possède sa propre conscience, comme certains chercheurs et patrons de Big Tech le voudraient ?

Demain, quand mon mixeur sentira, à mon humeur matinale, qu’il faut me servir un jus plus réconfortant qu’hier et rajoutera un peu de persil parce que ma smartwatch lui aura cafté que je manque de fer en ce moment, lui serai-je reconnaissant, comme envers une barista prévenante et douée d’empathie ? Et si, en plus, mon mixeur ressemble à Ava, il y a de quoi nager dans le bonheur !

Dit autrement, notre rapport à la machine est-il en train de changer ? Jusqu’où et avec quelles conséquences sur notre psychologie et nos rapports aux autres humains ? Car, lorsque je préférerai mon robot mixeur émotionnel à ma barista du coin, cela en dira long sur nos relations interpersonnelles.

Cyrille Chaudoit : Mouais !, tout ça, c’est du pipeau !

Thibaut le Masne : En êtes-vous bien sûr ? Demander son chemin, la météo ou le casting d’Ex Machina à un assistant vocal, aussi naturellement qu’on le demanderait à un copain, qui l’aurait imaginé crédible au début de ce siècle ?

Cyrille Chaudoit : Enfin, c’est un panneau marketing qui puise ses références dans la science-fiction.

Thibaut le Masne : C’est vrai que les Big Tech ont l’art et la manière de nous faire prendre des vessies pour des lanternes connectées, à grand renfort de storytelling, de nudge et autres techniques d’influence. Mais, là où autrefois les auteurs s’inspiraient des travaux de recherche en cours, auxquels peu de personnes avaient accès, aujourd’hui ce sont les chercheurs qui s’inspirent de la science-fiction. « Pourquoi as-tu créé Ava ? » demande Caleb à Nathan, qui lui répond du tac au tac : « C’est une question étrange. Tu ne le ferais pas toi, si tu le pouvais ? »

Et voilà la grande question éthique : pouvons-nous, au sens moral, faire quelque chose parce que nous pouvons le faire au sens technique, que l’on en ait la compétence, les moyens ou simplement l’occasion ? C’est ce que nous allons explorer dans cet épisode. Mais avant de lancer la grande interview avec Laurence Devillers, c’est l’heure du warm up avec Mike, Thibaut et moi-même, pour vous servir.

Warm up

Cyrille Chaudoit : Salut Mick, salut Cyrille, c’est cool de se retrouver pour ce nouvel épisode.

Mick Levy : Salut.

Thibaut le Masne : Bonjour à tous, comment ça va ?

Mick Levy : J’ai été un peu malade sur toute la semaine, mais aujourd’hui ça va beaucoup mieux, je tenais à vous en parler puisqu’on est sur le point santé de la journée.

Thibaut le Masne : On est aussi sur les inventions, ça tombe bien.

Mick Levy : Exactement. Mais là c’est la grande forme. Je suis ravi qu’on reçoive Laurence Devillers qui me passionne, je suis de longue date ses travaux. C’est donc un vrai plaisir d’avoir l’occasion d’échanger avec elle aujourd’hui. On va parler, en plus, d’un domaine passionnant qui est celui de la robotique, de l’IA et globalement des robots émotionnels.

Thibaut le Masne : C’est un sujet qui est très vaste. On voit qu’il est largement repris dans la culture populaire et cinématographique. Ça fait longtemps qu’on en parle, ça fait longtemps qu’on a des choses autour de tout ça. On ne parle plus des séries type Westworld, on ne parle plus non plus du nombre de films dont A.I. Intelligence Artificielle, j’en passe et des meilleurs, qui nous parlent de tout ça et de la façon dont l’émotion joue un rôle très important dans notre rapport à la machine.

Cyrille Chaudoit : C’est d’autant plus un vieux sujet que l’intelligence artificielle ne date pas d’hier, ça a débuté il y a très longtemps. Chacun sait maintenant que la machine de Turing [1] était un peu les prémices des premiers algorithmes. Le fameux test de Turing, on en reparlera peut-être tout à l’heure, puisque certains disent qu’il est passé déjà depuis très longtemps finalement.

Il y a eu l’hiver de l’IA où, finalement, il n’y avait pas suffisamment de data, pas suffisamment de puissance de calcul. Il y a quand même des gens qui ont lutté dans cet hiver, je pense notamment au français Yann Le Cun [2], bien connu et qui, finalement, est devenu un des big boss de l’intelligence artificielle à travers le monde. D’ailleurs, ça serait intéressant d’interroger Laurence parce que, en gros, chaque fois qu’on voit qu’il y a un big boss chez un Big Tech de l’IA, c’est un Français. On pourrait s’interroger : pourquoi tous nos cerveaux fuitent-ils comme ça ? C’est effectivement un vieux sujet.

Mick Levy : Pas tous quand même, mais tu as raison, il y a un sujet. Ce que je trouve chouette — j’ai fait un peu de recherche sur tous ces domaines là —, finalement, avec les robots émotionnels, on va mixer deux domaines qui sont au départ assez différents : la robotique, c’est vraiment le monde de la mécanique, et puis tout le domaine de l’IA. Effectivement, ça ne remonte pas à hier. Le terme robot — je sais pas si vous le savez — est apparu dans les années 20, dans une pièce de théâtre tchèque [R.U. R. - Rossum’s Universal Robots de Karel Čapek, NdT], c’est totalement inattendu. Je pensais mème que c’était un terme en fait encore plus ancien, mais il date de 1920, pour être précis. Et en 2020, on se retrouve avec neuf millions de robots sur terre. On se retrouvait, puisqu’en 2022, il y en a certainement encore plus.

Thibaut le Masne : Neuf millions, ça commence à faire beaucoup !

Cyrille Chaudoit : Si on veut continuer dans les pages historiques, finalement les premiers objets animés, même les êtres animés façon marionnettes, c’était un Français aussi, c’était Vaucanson [3]. Tout ça va chercher très loin : le mythe du Golem dans la culture hébraïque, qui a donné après le mythe de Frankenstein et qu’on retrouve, finalement, dans tous les films qu’on a cités, c’est-à-dire l’homme démiurge qui crée un objet, qui a sa créature qui finit par le dépasser ! Tout ça vient convoquer une culture populaire qui fait que, encore aujourd’hui, quand on parle d’IA, quand on parle de robots, en tout cas dans notre culture occidentale, on en a peur, là où, dans d’autres cultures, on le verra peut-être tout à l’heure d’ailleurs, on n’a pas du tout le même rapport.

Thibaut le Masne : Avec cette quête de vouloir avoir un autre soi robotisé au lieu d’avoir l’individu, est-ce qu’on devient — on va sortir les grands clichés — de plus en plus égoïste qu’on a besoin d’avoir un autre soi qui ne soit pas humain ? Ou est-ce qu’on se sent si seul qu’il nous faut un accompagnement ? En parlant de solitude, j’ai travaillé dans des maisons de retraite et ils avaient mis en place, justement, des robots pour aider les personnes âgées. On pourrait trouver ça complètement utopique et complètement ridicule. Chose curieuse, les personnes âgées commençaient à s’y attacher, ça faisait une présence. Alors, même s’ils étaient robotisés vraiment à l’ancienne, ça m’a vraiment interloqué de savoir que, pour les personnes âgées, c’était une présence et une présence intéressante. Il y a quelque chose autour de la robotique, de cette présence justement, qui nous fait nous sentir peut-être un peu moins seul.

Mick Levy : Il y a un pays qu’il faut suivre de très près, sur tous ces sujets-là, c’est le Japon qui a effectivement beaucoup développé les robots émotionnels pour assister les personnes âgées, pour accompagner les enfants, pour accompagner à chaque moment de la vie. Il faut savoir qu’au Japon il y a 20 fois plus de robots qu’au Royaume-Uni ; j’ai trouvé ce chiffre, j’aurais adoré pouvoir vous dire combien il y en a pour la France. Ça montre bien à quel point le Japon, et c’est nourri visiblement par le shintoïsme, fait que c’est au cœur de sa culture et qu’il y a une acceptation du robot, même une acceptation émotionnelle de la robotique dans la vie quotidienne pour accompagner les sentiments.

Cyrille Chaudoit : Oui, la robolution [4], Astro Boy, etc.
Sur la robotique sociale et sur son intérêt, c’est vrai que ça fait déjà quelques années qu’on en a des éléments de preuve et là encore, dans la robotique en France, on a plein de chercheurs et de chercheuses. On a une invitée de marque avec Laurence aujourd’hui, mais comment ne pas citer, puisqu’on est nantais, Sophie Saka, qui est extrêmement réputée aussi sur la robotique, qui a notamment une superbe association qui s’appelle Rob’Autisme, qui accompagne les enfants autistes grâce à la robotique [5]. Il y a plein de sujets hyper-intéressants et porteurs d’avenir et d’espoir. En revanche, il y a aussi tout l’autre versant de la montagne avec ces craintes que l’on place dans la robotique, à tort ou à raison. C’est précisément ce qu’on va essayer d’explorer avec Laurence aujourd’hui.

Thibaut le Masne : Je crois qu’on a bien posé la problématique avec ce warm up. Il me semble entendre arriver notre invitée. Je vais aller la chercher. Il est temps d’accueillir Laurence Devillers pour explorer tout ça avec méthode, en suivant trois grands axes :

  • l’intelligence artificielle, robots émotionnels : de quoi parle-t-on exactement quand on associe ces termes qui semblent pourtant étrangers l’un à l’autre ?
  • nous regarderons ensuite où nous en sommes de la prise de conscience, grand public et politique, de la réalité et ses enjeux ;
  • en troisième point, nous regarderons comment penser, organiser et s’organiser autour de ces enjeux.

Cyrille Chaudoit : Bonjour Laurence.

Laurence Devillers : Bonjour à toute l’équipe d’Esprits critiques.

Cyrille Chaudoit : On se tutoie ? C’est OK pour toi ?

Laurence Devillers : Évidemment.

Cyrille Chaudoit : Super. Laurence, tu as un CV bien rempli, mais si on doit retenir l’essentiel, voici ce qu’on peut dire.

Tu es professeure d’informatique à Sorbonne Université et directrice de recherche sur les interactions affectives humain-machine au CNRS. Tu as publié de nombreux ouvrages grand public, en plus de tes publications scientifiques, bien sûr.
On peut citer notamment Des robots et des hommes en 2017 chez Plon et, plus récemment, Les robot émotionnels : santé, surveillance, sexualité... Et l’éthique dans tout ça ?, en 2020, aux Éditions de l’Observatoire. D’ailleurs tu te mobilises, et ce sont tes mots, « pour donner un cadre méthodologique propice à l’observation de l’effet sur le public et sur le long terme de ces technologies que sont l’intelligence artificielle et les robots émotionnels ». Tu fais d’ailleurs partie, notamment, des comités d’éthique CNPEN [6], PMIA qui signifie Partenariat mondial sur l’intelligence artificielle [7] et qui regroupe, précisons-le, 25 démocraties, et du groupe de travail JTC 21 au sein du CEN-CENELEC pour la normalisation de l’IA [8]. Tout est juste ?

Laurence Devillers : Tout est juste.

Cyrille Chaudoit : On n’a eu recours à aucune IA, ni à aucun robot, jusque là, pour préparer ta bio et, tout ce qu’il y a de synthétique ici, c’est ton résumé. Quant à nous, nous sommes bien réels et c’est non sans émotion que je te propose de nous lancer avec la première séquence de notre entretien : intelligence artificielle, robots émotionnels, de quoi parle-t-on exactement ?

Intelligence artificielle, robots émotionnels : de quoi parle-t-on exactement ?

Mick Levy : Comme souvent dans la tech, le champ lexical est parfois obscur, parfois cryptique, parfois poétique. Là, on fait quand même un grand emploi d’oxymores : intelligence artificielle, robots émotionnels, pour désigner une approche technologique froide. Je te propose de revenir brièvement sur quelques notions-clés qui nous permettront de mieux nous approprier le reste de la réflexion. En gros, on veut s’assurer qu’on va bien parler le même langage pour la suite de l’épisode avec toi, Laurence.

Est-ce que tu peux nous expliquer ce qu’est l’affective computing, qui semble être la base de la gestion des émotions en IA et pour la robotique ?

Laurence Devillers : L’affective computing est un domaine dans l’intelligence artificielle où l’on cherche, en fait, à modéliser les émotions dans des machines. Ce sont trois grandes technologies :

  • le fait de percevoir les émotions des humains à travers différents indices, que ce soit verbal, lié au paralangage — la tessiture de la voix, la prosodie et puis, peut être, le visage, le mouvement, les actions ;
  • ensuite, raisonner autour de ces informations qu’on a détectées, par exemple dans un système de dialogue ;
  • et puis enfin, le dernier, générer des comportements de la machine qui soient une expressivité émotionnelle, que ce soit dans la voix, dans le visage, dans les traits dissimulés de la tête du robot.

Ce sont ces trois grands domaines. Cette discipline est née dans les années 97, au MIT, par les travaux de Rosalind Picard [9].

Mick Levy : Du coup, cette discipline a-t-elle des spécificités par rapport au reste des approches en IA ou c’est finalement de l’IA, mais appliquée aux émotions ?

Laurence Devillers : La spécificité forte, c’est la perception, mais effectivement, ça pourrait être autre chose que de l’affect qu’on tente de percevoir, sur lequel il y a une grande subjectivité.

Thibaut le Masne : Pourquoi cherche-t-on absolument de l’affect avec un robot ?

Laurence Devillers : Il faut comprendre que, pour être rationnel, l’être humain est émotionnel. Les travaux d’Antonio Damasio [10], un neuroscientifique américain très connu sur ce sujet de l’affect, ont montré que les émotions, l’interaction émotionnelle était nécessaire dans l’interaction sociale, toute interaction avec les humains dans la société. Si on crée des machines qui n’ont pas cette capacité à la fois d’interpréter et de, peut-être, jouer des émotions, on aura une interaction très peu naturelle, avec une compréhension faible de ce qui est en train de se passer. L’être humain est intrinsèquement émotionnel et, sans être émotionnel, il ne peut pas être dans une interaction sociale naturelle avec les autres. Or c’est ce qu’on cherche à faire à travers ces machines qui sont des machines sociales, soit des agents conversationnels, des chatbots, soit des robots qui embarquent ces capacités de langage et d’interaction avec des humains.

Thibaut le Masne : Est-ce qu’on est en train de rendre des machines finalement plus capables de comprendre nos propres semblables que nous ne le sommes nous-mêmes, en tant qu’humains ?

Laurence Devillers : On est en train de rendre les machines capables d’interpréter les signes que l’on émet, mais, en aucune façon, ces machines seront plus douées que nous dans l’interaction sociale ; elles ont des capacités différentes et la confrontation entre les capacités de l’humain et les capacités de la machine sont, en ce sens, assez fausses. On oublie, lorsqu’on ne connaît pas bien la technologie qui est embarquée dans ces systèmes, de comprendre comment marche l’apprentissage machine. Lorsqu’une machine regarde une image, elle regarde un nombre de pixels, un ensemble de pixels. Lorsqu’un humain regarde une image, il regarde des formes dans cette image pour aller plus vite ; pour des questions de sécurité et de survie, nous sommes câblés comme ça. Ça veut dire que ce qu’interprète la machine est différent. De temps en temps ça va nous aider, mais ce n’est en aucune manière la même chose. Elle apprend très différemment.

Thibaut le Masne : Je suis d’accord et, sur un plan théorique, il est bon de le rappeler et de le savoir. Néanmoins, est-ce qu’on est capable de passer outre cette espèce de projection qu’on fait, cet anthropomorphisme, ou est-ce que, finalement, on est condamné à ne voir dans ce robot en face de nous qu’une espèce de semblable ?

Laurence Devillers : De façon naturelle, on anthropomorphise les objets autour de nous, mais très bêtement, juste par le mouvement, de temps en temps, ou par des capacités assez simples. On va projeter sur un ballon de foot : si vous vous souvenez d’un film où quelqu’un se retrouvait sur une île déserte et y vivait pendant deux ans tout seul. Il mettait des yeux simplifiés, un nez et une bouche sur un ballon de foot et il parlait au ballon. Fondamentalement, l’humain projette sur les objets. Alors maintenant, quand on a une machine anthropomorphique qui nous ressemble et qui émet des émotions, vous vous rendez bien compte que c’est encore plus fort.

Cyrille Chaudoit : Combien de personnes parlent de leur voiture en disant « ma titine » ou ce genre de chose ! C’était un ballon de volley.

Laurence Devillers : Exactement. On parle à sa montre, à sa voiture. Oui, c’était un ballon de volley. On donne un nom à l’aspirateur qui se balade chez nous et, s’il est cassé, on le rapporte chez Darty en disant : « je veux le même, il connaît ma maison, il a un nom », on une espèce de relation affective avec. C’est extrêmement naturel et il n’est pas question de changer cet aspect-là. Nous sommes empathiques vis-à-vis des autres, il ne faut absolument pas qu’on devienne moins empathiques, car on le serait aussi moins avec des êtres humains. Il est donc nécessaire de comprendre ce que ces systèmes font, d’obliger les constructeurs de ces systèmes à avoir un certain nombre de règles éthiques lorsqu’ils les construisent, et qu’on surveille cette relation avec les machines.

Je pense qu’il y a là un dilemme réel qui est que, en tant qu’ingénieur, dans les sociétés, on va chercher à se rapprocher d’une imitation de l’humain, sachant que la machine ne comprend rien, n’a pas d’émotion, n’a pas de sentiment, n’a pas de conscience, n’a pas d’intention propre, et c’est de cela dont il faut parler. Par contre, on va anthropomorphiser, parce que c’est notre nature.

Cyrille Chaudoit : C’est très fort ce que tu dis, dans le sens où un robot n’a pas d’émotion et pas d’intention propre ; c’est quelque chose qu’on a souvent tendance à lui prêter comme intention. Dans certaines écoles, quand on pose la question « qui est le plus intelligent, la machine ou l’humain ? », ça m’interpelle un petit peu.

Laurence Devillers : C’est une question qui est irrelevante, il ne faut absolument pas la poser comme ça, ne serait-ce qu’en termes de responsabilité. Lorsque je fais quelque chose, je suis responsable. Lorsque vous avez un chien chez vous, vous êtes responsable de votre chien, c’est un objet sensible pour la loi. Eh bien, lorsque vous utilisez un robot, vous êtes responsable, finalement, de cette interaction avec le robot. Sauf que ce n’est pas un objet neutre : il a été programmé par quelqu’un, il a appris avec des données qui viennent peut-être de vous ou d’autres, c’est donc cela qu’il faut surveiller.

Mick Levy : On a justement de plus en plus des données, on est en train de mettre en données, littéralement, des pans entiers de nos vies quotidiennes, de nos vies réelles à tous et dans tous les échelons de la société. En parallèle de quoi, il y a une course à la puissance de calcul qui est gigantesque, avec des accélérations phénoménales, dictées par ce qu’on appelle la loi de Moore — globalement tous les deux ans on multiplie par deux la puissance de calcul des ordinateurs. Jusqu’où tout ce progrès technique et cette documentation digitale des données vont-ils nous mener ? Est-ce que ça pourrait nous amener à l’émergence d’une conscience pour les intelligences artificielles ? Est-ce que ça pourrait les rendre tellement « intelligentes » — et je le mets entre guillemets — qu’on pourrait vraiment avoir une confusion extrêmement forte avec les capacités humaines ?

Laurence Devillers : Je pense que c’est une fausse idée de penser que plus on a données, plus on va créer quelque chose d’intelligent. Il y a là un paradoxe : on cherche à en avoir de plus en plus, alors qu’en fait on devrait chercher à avoir des données les plus riches possibles, pas en termes de taille, mais en termes de richesse, d’ailleurs aussi parce que ça consomme de l’énergie, ce sera aussi un écueil duquel il faut vraiment être conscient. Il ne faut pas dépenser cette énergie folle à sauver des données qui sont exactement toutes les mêmes.

Ensuite, si j’ai des données extrêmement riches, qui correspondent à une grande diversité, qu’est-ce que je fais avec une machine ? Je standardise, je crée des moyennes — j’utilise une image assez forte —, donc j’élimine beaucoup d’informations. Cette idée de créer un super homme qui va au-delà de l’intelligence humaine, est-ce que c’est cela qui correspond à ce que l’on en train de créer ? Je ne pense pas.

Ce qui est fondamental, c’est que ces machines n’ont pas de corps. Or, notre intelligence vient aussi de beaucoup d’autres endroits que seulement notre cerveau. Vouloir recopier l’intelligence des gens en disant qu’on recopie ou qu’on crée un cerveau artificiel est une aberration. Nous sommes cette entité duale qui correspond à une imbrication très fine, très bas niveau entre notre corps et notre cerveau et nous ne savons pas faire cela sur une machine, donc le vivant n’est pas représenté tant qu’on n’aura pas du cyborg avec des cellules vivantes. Nus ne sommes pas du tout dans quelque chose qui a une conscience phénoménale, qui est capable de vivre, de ressentir ce qu’elle est en train de vivre par des actions ou des émotions. On est vraiment à des années-lumières de ce qu’est l’humain.

Mick Levy : Mais alors où se positionnent les questions d’éthique ?, parce que ça va quand même être l’objet de la suite de notre discussion. Où se positionnent les questions d’éthique quand on va parler de ces robots émotionnels ?

Laurence Devillers : Elles se posent à de nombreux niveaux. Moi, je me base sur un triptyque qui est :

  • l’éducation ; il faut faire comprendre exactement ce que sont ces objets et ce qu’ils peuvent avoir comme conséquences négatives sur l’être humain — l’addiction, l’isolement, une discrimination, tout un tas de champs à expertiser sur le long terme ;
  • il faut pousser les industriels à suivre un certain nombre de normes qui permettent ensuite de mesurer des effets de cette machine dans le temps de l’usage, pas seulement lorsqu’elle sort de l’usine, mais quand on l’utilise ;
  • et puis il faut qu’il y ait des lois, c’est-à-dire une obligation, en fait, de suivre ces normes et standards et de vérifier le comportement des machines.

Il faut donc créer cet écosystème et c’est pour ça que je me suis engagée, comme vous l’avez dit dans ma bio, à aller vers la standardisation, à aller au-delà de la philosophie ou sociologie autour des risques qu’amènent ces machines très performantes, qui ont un pouvoir extrêmement positif pour moi — je suis vraiment technophile —, mais c’est justement pour qu’on les utilise au mieux que je me penche sur les risques qui peuvent être avérés sur le court terme, sur le long terme. Et je pense que là, il faut être extrêmement vigilant.

Et ce n’est pas aux entreprises, notamment aux GAFAM, de proposer la vision de demain. C’est quelque chose qu’on doit gérer au sein d’une société. Ce n’est pas non plus seulement à un gouvernement, comme on le voit en Chine, de poser ses règles. C’est à la société entière de comprendre quels sont les enjeux et de se donner les moyens de surveiller ces machines.

Mick Levy : C’est ce qu’on va détailler ensemble sur les prochaines séquences, je pense que le cadre est maintenant bien posé. Pour l’heure, c’est le moment de passer au Patch Tech.

[Patch Tech de Fabienne Billat, partie non transcrite]

Éthique : quelle prise de conscience du grand public et des politiques ?

Cyrille Chaudoit : Merci, Fabienne. Tâchons d’être un peu moins sous influence.
Laurence, j’aimerais t’entendre sur l’un des constats qui nous a menés à créer Trench Tech. Nous pensons que les enjeux sociétaux de la tech sont trop peu présents dans le débat public et, plus encore, dans l’agenda politique. Nous avons connu une campagne présidentielle, suivie d’une campagne législative, desquelles les risques posés par le développement de l’IA, pour ne citer qu’eux, ont été totalement absents. Pourquoi, selon toi ?

Laurence Devillers : Merci d’insister sur ce point. J’ai écrit Vague IA à l’Élysée, justement avant l’élection, pour qu’il y ait un débat dans la société. Je pense qu’il y a non-connaissance de ces sujets de risques et c’est pour ça qu’ils n’ont pas émergés. Les politiques ne s’intéressent qu’à ce qui peut faire débat dans la société ; tant que ça ne fait pas débat... Je crois qu’on est endormi totalement dans la société : on va laisser ces données tranquillement sur les GAFAM américains, sans se poser de questions, en ayant un plaisir, une satisfaction à utiliser ces objets tous les jours.

Ces collectes de données devant notre nez, avec Alexa d’Amazon ou autres, ne sont pas vues comme des problèmes. Par contre, lorsqu’on demande, dans StopCovid, à suivre si vous avez croisé votre voisin parce que peut-être vous l’avez contaminé, là on dit : « Ouh là, là, attention, il est une question de ma liberté. » Ce paradoxe est un manque de compréhension totale de ce qui se passe. Les politiques également.

Thibaut le Masne : Avec des robots qui sont capables de « comprendre » — je le dis avec des guillemets — les émotions de l’humain, on peut penser que, finalement, l’homme est à peu près complètement modélisable, c’est-à-dire objectivable au sens de l’objet, par des caractéristiques dénombrables et standardisables comme le langage, le paralangage, etc. Finalement ce constat-là fait que ça nous rend, nous humains, plus objets que sujets devant ces robots émotionnels. En soi, c’est un sujet éminemment politique.

Laurence Devillers : C’est effectivement un sujet assez peu connu, mais également très utilisé par les gouvernements qui ont tous des commissions sur le nudge, par exemple. Cette dénomination est un concept qui vient de Richard Thaler [11], prix Nobel en économie en 2017, qui explique que si je connais les biais cognitifs des personnes je peux facilement les manipuler. Ces biais cognitifs c’est ce qu’on va aller détecter automatiquement, par exemple avec des systèmes qui repèrent les émotions ressenties dans telle ou telle situation et qui vont me permettre soit de capturer l’attention pour un projet marketing, soit une manipulation politique, faire changer d’avis.

Il y a là, en fait, un sujet à la fois proche de l’individu et un sujet de société. Ce sujet est extrêmement compliqué. C’est sur ce sujet que j’essaye, justement, de pousser des normes, sur ce qu’on appelle le nudge digital qui est la manipulation, l’incitation à changer d’avis grâce à des machines, qui est l’objet de tous les travaux que nous sommes en train de mener. Ils sont effectivement assez méconnus. L’AI Act [12], cette volonté de créer une régulation des lois qui encadreraient l’IA au niveau européen parlent de sujets comme cela, mais en parlant de manipulation subliminale, en disant qu’il faut interdire la manipulation subliminale, c’est-à-dire non consciente. Mais je pense qu’il y a à la fois de la manipulation consciente et non-consciente dans l’utilisation, à plus long terme, de ces machines, je parle de co-évolution humain-machine qui est à surveiller et personne ne s’en préoccupe ; quand j’en parle aux politiques, on me dit que ce n’est pas un sujet.

Cette ambiguïté est quelque chose qu’on veut absolument lever dans ce groupe qui travaille sur la régulation.

Mick Levy : Tu as déjà des exemples de problèmes de cette ambiguïté mal vécue ?

Laurence Devillers : Oui. Je dirais qu’il y a eu tous ces problèmes sur Cambridge Analytica [13]. On a vu aussi que Facebook — à l’époque ce n’était pas encore Meta — travaillait sur la manipulation additionnelle et démontrait que lorsqu’on change les propos des gens pour être plutôt plus positifs ou plus négatifs, on va changer la façon dont on perçoit les choses. En recherche, par exemple, si vous faites un test où on vous demande si vous êtes heureux ou pas, on vous fait prononcer des phases, puis on modifie, sans que vous le sachiez, le timbre de la voix de la phrase que vous avez prononcée, en lui faisant un timbre de voix plus joyeux, eh bien vous allez vous sentir plus joyeux. On s’adapte.

Mick Levy : Et plus, on va généraliser des IA qui sont déjà omniprésentes dans ce qu’on manipule — tu citais Facebook que beaucoup d’entre nous utilisent au quotidien, Google et les smartphones embarquent tous des IA —, du coup, il y aurait un risque manipulatoire qui pourrait être à grande échelle.

Laurence Devillers : En fait le nudge est quand même fait, normalement, pour le bien-être de la population. Par exemple, on va utiliser des théories de nudge pour éviter d’être en addiction, pour des pathologies. C’est important aussi de comprendre ce côté un peu paternaliste où quelqu’un décide d’aller dans un sens ou dans un autre. Donc il faut vraiment surveiller ces objets.

Par exemple Duolingo, pour apprendre l’anglais, va vous inciter à faire des choses.
En ce moment j’ai des projets en éducation dans lesquels on travaille sur le nudge. Comment fait-on pour capturer l’attention d’un enfant, pour le pousser à mieux prononcer des phrases en anglais, à répéter des choses, à le garder en attention et à trouver comment on peut l’aider à mieux apprendre ? Il y a des intérêts très positifs derrière tout ça, mais il y a aussi une forte propension à avoir des conséquences de manipulation. Il faut étudier dans quelle mesure il y a des risques, ou pas, pour la population et rendre cela visible, compréhensible par tout le monde.

Cyrille Chaudoit : Il y a finalement un vrai axe sur la finalité, un peu comme pour tout : pourquoi est-ce qu’on le fait ?

Laurence Devillers : Pas seulement. Même si c’est avec une finalité positive, on peut très bien avoir des conséquences qu’on n’a pas anticipées.

Thibaut le Masne : L’important c’est la finalité bien exprimée.

Laurence Devillers : Oui. Et surveiller que l’objet final qu’on cherchait est bien celui...

Cyrille Chaudoit : Oui, parce que tu peux dévier.

Laurence Devillers : En fait, on peut créer quelque chose de très éthique, de très neutre, qui aura une incidence négative à long terme qu’on n’avait pas anticipée.

Je reviens sur les réseaux sociaux. Il faudrait absolument demander, que ce soit une nécessité, que lorsque je retweete quelque chose — on parlait d’influence — je dise pourquoi. Il faut que j’aie une possibilité, dans ces messages-tweets qui sont extrêmement pauvres, d’expliquer d’où vient la source, pourquoi je dis cela. Tant qu’on n’aura pas cette capacité à élaborer le raisonnement qui est derrière, on sera sur cette espèce de grosse machine qui pollue et qui envoie la même chose un peu partout sans que qu’il n’y ait aucun contrôle.

Cyrille Chaudoit : Il y a aussi un point sur la partie normalisation, c’est un peu un précepte que tu essayes de porter au sein de l’Europe, mais on voit bien que les cultures sont différentes, l’appétence est différente en fonction des différentes nationalités. Comment cette pratique et cette différence sont-elles prises en considération au niveau des autres États et des autres pays ?

Laurence Devillers : On sait très bien qu’en Chine, par exemple, c’est le gouvernement qui veut imposer ses réglementations. Il y a une manipulation forte pour suivre les lignes du Parti, on est là l’extrême de la surveillance gouvernementale. De l’autre côté, on a la liberté totale : aux États-Unis, chacun fait ce qu’il veut. De plus en plus on ira quand même vers des régulations.

Je pense qu’il faut faire prendre conscience aux gens que ce sont leurs enfants qui vont utiliser ces systèmes. Que lorsqu’on est en train de manipuler pour faire qu’un enfant reste dans son jeu dans le métavers, eh bien on l’empêche d’apprendre et que, peut-être, sa destinée sera différente. Je crois qu’il y a une responsabilité des humains, il faut vraiment le faire comprendre, que l’on soit consommateur ou que l’on soit ingénieur, dans une société en train de créer ces systèmes.

Cyrille Chaudoit : C’est bien de cela dont on parle effectivement dans cette séquence : quelle prise de conscience grand public et politique ? Pour résumer jusque là, tu nous dis que le grand public n’a pas vraiment pris conscience du truc, sauf quand c’est le gouvernement qui propose quelque chose où là tout le monde pousse des cris d’orfraie ; quand ce sont les GAFAM qui viennent nous manger la tête et notre temps de cerveau disponible, ça n’étonne plus personne. Tu nous l’as dit tout à l’heure, tu as sorti un manifeste qui s’appelait Vague IA à l’Élysée, au moment de la présidentielle, justement pour sensibiliser les électeurs et probablement aussi les candidats. Quels ont été les retours ?

Laurence Devillers : Très peu de retours. J’ai entendu des choses, genre « le nudge n’existe pas dans les objets digitaux », alors que j’en ai énormément de preuves.

Cyrille Chaudoit : Qui disait ça ? Plutôt des politiques ?

Laurence Devillers : Oui, oui ! Certains politiques disaient que ce n’est pas un sujet. Je pense qu’il y a une méprise par non-connaissance. Il y a très peu de scientifiques, d’experts en IA au sein du gouvernement à l’heure actuelle. Nous sommes donc devant des personnes qui sont bienveillantes, je n’en doute pas, mais qui n’ont pas suffisamment de compréhension des mécanismes sous-jacents. C’est comme un garagiste : si vous n’ouvrez pas le capot pour aller voir comment la mécanique marche, vous ne pouvez pas réparer.

Cyrille Chaudoit : C’est la fameuse déconnexion des élites dont on entend parler ? Comment ça se fait-il ? Qu’eux ne soient pas compétents, mais ils sont censés s’entourer, ces gens-là. On citait tout à l’heure des comités d’éthique, etc., le Conseil national du numérique [14] et compagnie. Comment expliquer qu’ils ne soient pas informés ?

Mick Levy : Est-ce que ça n’est pas le fait, aussi, que tant qu’on n’est pas vraiment dans le mur, on ne prend pas vraiment d’avance, un peu comme la crise climatique ?

Laurence Devillers : Il y a cette histoire de temporalité : tout le monde s’imagine que c’est une vision après. On n’anticipe pas ça, on ne prévoit pas ce qui va se passer, on laisse faire, et après c’est tentaculaire, comme les réseaux sociaux avec les fake news, on dit « oh là là, quelle horreur, comment on va faire pour faire cela ». Si on s’était posé le problème avant en disant ethic by design, c’est à dire que quand je designe ces machines pour des sujets dans la société, je me préoccupe des conséquences. Je ne vais pas pouvoir tout anticiper, mais, au moins, je mets suffisamment d’informations accessibles pour pouvoir contrôler ce qui est en train de se passer. Je pense qu’il faut penser aux conséquences en même temps qu’on est en train de créer des systèmes en technologies qui sont de plus en plus complexes et de plus en plus experts. Il faut former les gens pour avoir des experts pour cela, il faut absolument que ces comités soient écoutés, ils ne sont pas écoutés ! Nous avons des comités-vitrine, excusez-moi de le dire !

Mick Levy : Des comités-vitrine !

Cyrille Chaudoit : Justement sur cette partie régulation, sur les normes, sur tout ce que ces comités peuvent apporter de connaissances, d’informations au grand public et aux politiques, c’est ce que l’on va aborder dans la toute prochaine séquence, mais, pour le moment, nous accueillons Laurent Guérin pour partager avec lui l’un de ses nombreux moments d’égarement.

[Moment d’égarement de Laurent Guérin, partie non transcrite]

Réglementation, normes : quelles solutions ?

Thibaut le Masne : Revenons à notre entretien avec Laurence. En lisant quelques-unes de tes nombreuses interviews, j’ai relevé ces quelques mots, je cite : « Le levier économique ne peut pas être le seul moteur du développement de ces technologies. Et pourtant, ce levier économique invoque la croissance et la création d’emplois, sans pour autant proposer des réflexions plus profondes sur des enjeux éthiques et environnementaux. » Pour continuer de te citer : « Il ne s’agit pas de freiner les projets, mais de voir comment on y intègre des critères responsables et éthiques. Il faut débattre de ces questions. »

Alors je te pose la première question : par quoi nous faudrait-il commencer pour mettre ou remettre les enjeux de l’IA et de la robotique au centre des débats publics ?

Laurence Devillers : Je pense qu’il faut parler d’éducation. On va avoir une déferlante sur notre éducation avec des outils de métavers, il y a des comités d’éthique qui sont en train de se monter, on m’a même demandé d’y participer. Je pense que voir nos enfants, demain, dans un univers qui peut leur apprendre effectivement à mieux aimer les mathématiques, à être meilleur en informatique ou à comprendre la philosophe de Socrate, c’est intéressant, mais, en même temps, il faut comprendre aussi qu’il y a des risques qu’il faut maîtriser. Parmi les licornes que vous avez énoncées tout à l’heure, vous en voyez à but d’éducation ? Non, on parle de TikTok, on parle de NFT [Non Fongible Token ] avec des objectifs de dépenses d’argent plutôt pour du divertissement. Je pense que c’est là où il y a un énorme travail de gouvernance à faire et je ne vois pas qui gouverne cela, à part les grandes entreprises qui décident de mettre beaucoup d’argent sur ce qui va être vendu à tout le monde. Nous sommes dans les jeux du cirque : on veut occuper la plupart des citoyens à ce genre de bêtise et on oublie que, dans la santé, dans l’éducation, il faut absolument trouver comment, demain, on peut aller plus loin pour l’humain. Et là, il y a des facteurs économiques qu’on devrait développer plus fortement.

Mick Levy : C’est là où tu mets bien le doigt. Actuellement, les principales puissances technologiques, donc économiques, sont effectivement étrangères. On a parlé de TikTok, on peut reparler aussi de tous les Big Tech. Comment l’Europe compte-t-elle s’imposer aujourd’hui dans cet écosystème-là ?

Laurence Devillers : Quand on parle de licornes, en ce moment, avec les montants que vous avez donnés, il faut savoir que ce sont effectivement des montants étrangers, même lorsque ce sont des licornes françaises. On devrait dévoiler, en fait, d’où viennent les différentes prises de risque. On ne risque pas assez en Europe, pour l’instant, pour aller vers des entreprises de ce niveau-là. Je voudrais qu’on soit conscients de cela. Sur la cybersécurité, on a commencé à faire quelque chose, il y a un Campus Cyber [15] ; sur la santé, il y a un Campus Santé. Je réclame un Campus Green dans lequel on mettrait aussi énormément d’efforts, qui serait utile pour beaucoup d’autres pays que les pays européens, avec un marché énorme à prendre, il faut le prendre. Il faut donc créer un métavers européen avec les capacités d’emmener les gens co-travailler, avec des mesures sur l’environnement.

Il y a plein d’idées autour de l’éducation, de la santé, de l’environnement, dont il faut absolument s’accaparer avec nos valeurs en allant délivrer ce genre de choses. Le PMIA dont vous avez parlé tout à l’heure, ce sont 25 démocraties dont le Japon, Singapour, l’Inde, etc., et les pays autour, qui ne sont ni la Chine, ni les États-Unis, vont consommer demain ce genre de techno, ils sont aussi en train de les faire. Il faut créer des univers au-delà de l’Europe, peut-être plus largement, pour trouver les moyens d’être représentés avec nos valeurs dans ces systèmes.

Mick Levy : Tu le dis toi-même, on ne manque pas d’idées. Ça avait d’ailleurs donné un très bon slogan.

Laurence Devillers : Des idées, des talents.

Mick Levy : On ne manque pas d’idées, on ne manque pas de talents, tu le dis toi-même, on manque plutôt de ressources, de prises de risques, donc de moyens, d’argent, disons les choses.

Laurence Devillers : Oui, c’est clair.

Mick Levy : D’ailleurs c’est un phénomène que la science et la recherche fondamentale connaissent très bien. J’évoquais tout à l’heure la fuite des cerveaux : pourquoi tous nos grands chercheurs en IA, qui sont parmi les meilleurs dans le monde, sont-ils partis plutôt bosser pour les GAFAM ?

Laurence Devillers : Parce qu’il y a une manne financière énorme ! Le salaire d’un chercheur en France ! On a des très bons chercheurs, mais qui iront tous à l’étranger, c’est évident ! Si on ne revalorise pas ce travail, si on ne met pas l’accent sur l’importance de revaloriser aussi les professeurs en éducation, on va baisser en niveau d’intelligence et en talents, c’est évident.

Thibaut le Masne : Du coup, c’est quoi ? C’est une décision politique et ce sont des financements publics ? Ou c’est une prise de risque privée, avec des entrepreneurs français, européens, qui comprennent enfin qu’il y a du très gros business à faire et qui mettent leur vie sur la table ?

Laurence Devillers : Je pense que c’est une alliance privé/public qu’il faut faire. Il ne faut absolument pas que ça soit juste le gouvernement qui soit à la tête de ça.

Thibaut le Masne : Et où en est-on ? C’est en discussion ? Ça existe ?

Laurence Devillers : Ça commence pour le Campus Cyber. C’est vraiment une alliance privé/public, avec plus d’actions du privé que du public. Pour ces différents pôles qu’on veut monter, sur la santé également, c’est extrêmement important d’aller chercher les talents industriels, qu’ils risquent effectivement et qu’on crée de la valeur, en Europe, sur ces sujets.

Thibaut le Masne : Les chercheurs, dont tu fais partie, avaient autrefois une avance considérable sur les entreprises et même sur l’art, finalement, on l’a dit en intro : on allait piocher ce qui se passait dans les laboratoires. Aujourd’hui, les chercheurs n’ont plus que trois à cinq ans d’avance sur les industriels, notamment à cause d’un certain nombre de dispositifs qui financent les études de chercheurs en herbe, je dirais, dans les entreprises et tous, ou presque, vont bosser plutôt pour les GAFAM. Est-ce que ça ne commence pas là, finalement, le financement de la recherche ?

Laurence Devillers : C’est évident. La recherche, en France, était extrêmement en avance. On est en avance aussi dans la santé, pas qu’en physique ou en informatique, il y a d’autres domaines, et je trouve qu’on a perdu énormément. On est en train de perdre, peut-être, le CNRS. Je ne sais pas si on va réussir à sauver la recherche fondamentale. Quand j’ai dit à trois/cinq ans c’est sur la techno. On est très en avance à plus long terme dans d’autres domaines. Il faut préserver cette recherche fondamentale à long terme et investir absolument en recherche, c’est nécessaire.

Sur la technologie, qui est une recherche à plus court terme, on voit arriver galopant des sociétés qui font de la recherche. Mais elles ne font pas de la recherche de la même façon, et je pense qu’on va arriver vers des choses qui sont de la répétition. On voit surtout « j’utilise beaucoup plus de données avec les mêmes algorithmes ». Mais si on regarde les algorithmes, ils viennent tous de laboratoires, que ce soit en Allemagne, en Italie, en France et il n’y a pas tant que ça de découvertes fondamentales. Il y a surtout « j’ai beaucoup plus de puissance de calcul, je peux agréger plus de données et j’ai une force de frappe ouvrière, c’est-à-dire des ingénieurs qui sont là, qui sont capables de travailler tous en même temps ». Mais ça n’est pas ça, le talent ! C’est aussi la sérendipité et c’est aller plus loin. Et je pense qu’on se trompe lorsqu’on pense que le privé peut aller beaucoup plus loin. Et en plus le privé, en ce moment, récupère tous les talents qui étaient en recherche fondamentale. Donc, il y a besoin d’équilibrer.

Mick Levy : Finalement, tu nous donnes déjà quelques pistes pour qu’on arrive à mieux reprendre la main, peut-être faire entendre une voix plus éthique dans tous ces sujets de la robotique et de l’IA. Tu as déjà donné des pistes autour du réglementaire, on en a parlé avec le AI Act européen qui est en train d’arriver et qu’on a déjà évoqué. Tu nous as donné une piste sur le fait qu’il faille beaucoup plus investir dans cette technologie, renforcer la recherche aussi. Mais on sait que tu portes un autre combat, qui est celui autour des normes. Peux-tu d’abord nous rappeler un peu ce qu’est une norme et que pourrait être une norme en IA ?

Laurence Devillers : Il y aura plusieurs normes en IA, par exemple sur les risques, sur le traitement automatique de la langue. Ce sont, en fait, des définitions extrêmement précises des objets qu’on manipule et ensuite un encadrement de l’élaboration de ces objets, avec des mesures qu’on peut demander aux industriels sur la façon dont l’objet réagit dans une interaction. Ça peut être, par exemple pour un chatbot, de vérifier que le chatbot ne vous nudge pas. Et, s’il a la capacité de nudger, qu’il n’y a pas, en tout cas, des incidences négatives, des suicides chez des jeunes ou d’autres aspects extrêmement négatifs qu’on pourrait imaginer. Je fais exprès d’aller assez loin. Il faut se représenter ça comme pour un médicament. Prenons cette métaphore : lorsque j’achète un médicament, j’ai une posologie et puis j’ai les effets secondaires, d’accord. Si je vois un effet secondaire je réagis et puis je peux aller vérifier ce qui se passe dans l’usage de ce médicament : est-ce qu’il y a des effets secondaires indésirables sur le cardiaque, sur autre chose, l’arrivée de cancers, etc.

Eh bien ces objets ont potentiellement des conséquences et vont engendrer des risques. Il est nécessaire de les encadrer, c’est-à-dire de surveiller ce qui va se passer et de collecter auprès des personnes qui les utilisent les effets que l’on peut voir et raisonner pour améliorer le produit, voire l’enlever du marché, comme on fait avec un médicament.

Mick Levy : Quels seraient les avantages d’avoir défini des normes en plus d’avoir des règlements ? On le sait, en Europe, on est plutôt bien pourvus en matière de règlements.

Laurence Devillers : Pour mettre des règlements en place, il y a des zones de gris. Si on dit « j’interdis la manipulation subliminale », où s’arrête le subliminal ? Ça dépend bien de l’individu, il est plus ou moins conscient de ce qui est en train de se passer. Donc, là, je dirais qu’il faut une norme à côté, qui encadre de façon plus pragmatique, au plus près de la technologie, pour qu’on puisse avoir des mesures sur les effets de la technologie quand on l’utilise et quand on l’utilise en continu. Ça demande de tracer des choses et de vérifier des choses.

Mick Levy : Je t’avais aussi entendu expliquer qu’une grande différence entre un règlement et une norme, c’est que le règlement est amené par un État ou un groupe d’États, comme l’Europe, et s’impose à tous ; une norme, ce sont des industriels qui se mettent ensemble pour définir comment ils vont travailler. Donc, quelque part, c’est aussi très riche, parce que ce sont eux qui se donnent un certain nombre de règles.

Laurence Devillers : Et il peut y avoir des normes qui ne sont jamais utilisées. Une norme a effectivement une valeur. Elle est créée par un ensemble d’industriels, de chercheurs et de personnes proches du gouvernement. C’est un ensemble de personnes qui réfléchissent à comment on pourrait normer une certaine technologie et après elle est utilisée ou pas. Et c’est le nombre de personnes qui vont l’utiliser qui va, finalement, décider de l’importance de cette norme. C’est finalement pour aider les industriels à développer leur projet, donc avec une manne économique derrière. Ça veut dire que les gens auront confiance en ces technologies et seront à même de les utiliser beaucoup plus que d’autres technologies qui vont arriver de Chine, sans aucun garde-fou, ou des États-Unis ; c’est à cela qu’il faut penser demain. On a besoin de développer ces systèmes.

Cyrille Chaudoit : J’ai une dernière question, qui est un peu provoc’, Laurence. Est-ce qu’il n’y a pas un paradoxe à vouloir confier à une poignée de personnes, notamment des industriels, la responsabilité de fixer des normes, ce qui revient à peu près à la même chose que de laisser une poignée d’entrepreneurs Big Tech faire ce qu’ils veulent et, quelque part, imposer des normes qui n’en portent pas le nom ?

Laurence Devillers : Non, parce qu’en fait, lorsqu’on crée un écosystème comme cela, il y a des mesures, il y aura aussi des comités d’éthique qui donneront des avis sur ces mesures. On ne peut pas tout rationaliser, on ne peut pas tout transformer en objet quantifié, donc on a la nécessité de se doter, au niveau international, de comités d’éthique capables de raisonner sur des mesures qu’on pourrait faire grâce à ces avancées de régulation sur des produits industriels. Donc on a besoin des deux : il y aura des humains dans la boucle, experts, et, en même temps, de plus en plus de normes que les industriels vont mettre en œuvre et on vérifiera lorsque c’est nécessaire.
Les citoyens ont aussi leur rôle à jouer. C’est aussi à eux de faire remonter que tel ou tel système présente des problèmes, a eu tel impact. À partir de tous ces éléments, des citoyens qui disent « ça ne va pas, ce système-là a des effets négatifs sur mes enfants », ou à l’école, ou je ne sais quoi, il y aura la nécessité de vérifier ce que fait un industriel et de réguler. C’est grâce à cela que l’on pourra mettre en œuvre des comités d’éthique qui vont aussi vérifier ce qui se passe et donner un avis : retirer du marché certaines choses ou demander de modifier les algorithmes dans ces systèmes ou les données telles quelles sont utilisées. C’est l’ethic by design.

Cyrille Chaudoit : Ethic by design. Merci beaucoup, Laurence.

Laurence Devillers : Je rajouterai juste un mot. Il faut absolument éduquer sur ces sujets. Je suis présidente de la Fondation Blaise Pascal [16] comme vous l’avez dit, pour aller prêcher dans ce sens-là et faire que les enfants de demain — puisque l’école ne prend pas encore cela en charge — soient à même de comprendre qu’ils peuvent être en addiction dans un jeu, dépenser beaucoup trop ; ils ne sont pas conscients de ce qu’est la vie privée ou de ce qu’il faut garder encore comme idée de la vie privée devant une machine. C’est important d’aller sur ces sujets dans l’éducation.

Mick Levy : Tu parles à nos cœurs de père, directement.

Cyrille Chaudoit : Une fois de plus, c’est coup double, c’est-à-dire que ce sont les normes pour protéger les consommateurs et citoyens, comme il y a des normes sur les jouets pour les enfants, mais c’est aussi de la pédagogie et c’est aussi de l’accompagnement et de la transmission de la part des chercheurs, des citoyens comme nous ; c’est aussi le job de Trench Tech.

Laurence Devillers : Et c’est en intelligence collective.

Thibaut le Masne : L’intelligence collective, la formation, et nous serons bons.
Merci beaucoup, Laurence d’avoir partagé cette heure avec nous. Rappelons le titre de ton dernier livre : Les robots émotionnels : santé, surveillance, sexualité... Et l’éthique dans tout ça ?, paru aux éditions de l’Observatoire. À bientôt, Laurence, on te raccompagne.Pour elles et ceux qui nous écoutent restez avec nous, on garde un temps privilégié entre nous, c’est le debrief.

Mick Levy : Merci Laurence. Au revoir.

Cyrille Chaudoit : Merci Laurence.

Laurence Devillers : Au revoir.

Debrief

Mick Levy : Voilà un échange à nouveau bien intéressant avec Laurence Devillers. Je le redis, je suis tellement content qu’on ait pu avoir Laurence, c’est quelqu’un que je suis, que l’on suit tous les trois d’assez près. C’est quand même un vrai plaisir pour nous trois, ce podcast, que de pouvoir recevoir et échanger directement avec des personnes aussi brillantes.
Thibaut qu’en as-tu pensé ?

Thibaut le Masne : Clairement. Je retiens un point qui m’a bien parlé pour le coup, c’est qu’on a souvent tendance, avec la culture cinématographique, pour boucler avec l’introduction, à vouloir faire que la robotique soit un humain. En fait, ce qu’elle nous a dit est assez fort : il faut arrêter de dire que c’est un humain, de se projeter sur de l’humain. C’est autre chose, ce n’est pas un super humain, c’est autre chose dont il ne faut pas avoir peur, mais ça reste autre chose. Il faudrait lui trouver un autre nom, les méta-humains ou autre chose, mais ces choses où on essaye, au fur et à mesure, de les rapprocher de l’homme, je trouve que c’est…

Mick Levy : C’est tout le problème du marketing des mots, on en a déjà parlé, accoler le mot « intelligence », qui devrait totalement être réservé à l’humain, à quelque chose d’« artificiel » derrière, ça amène déjà une contradiction. Le robot émotionnel c’est pareil, c’est déjà à la base.

Cyrille Chaudoit : C’est ce que je voulais dire. L’intelligence c’est déjà très discutable. On a bien compris, avec Laurence, que ces robots étaient capables d’analyser, d’interpréter un certain nombre de choses, ça n’en fait pas des êtres intelligents. De là à parler de robots émotionnels, on passe encore un cap. Le gars de chez Google qui s’est fait virer, cet été, parce qu’il avait entraîné une IA et qu’il lui avait trouvé une sensibilité d’un enfant de sept à huit ans, on est là aussi. En revanche, ce truc-là n’est pas nouveau du tout non plus. On en parlait tout à l’heure, en introduction, il n’y a finalement rien de nouveau. Vous connaissez peut-être ce phénomène, l’effet ELIZA ; il date de 1965 et c’était le premier chatbot, donc agent conversationnel, qui était complètement trivial, vous vous en doutez, par rapport aux technos d’aujourd’hui. En bref, sa stratégie c’était de transformer des affirmations en questions pour relancer les conversations. Depuis cette époque, on parle de l’effet ELIZA [17] parce que, déjà à l’époque, les gens disaient « waouh, j’ai l’impression que c’est véritablement un humain qui me parle ».

Mick Levy : Sachez que ELIZA est encore en ligne et quand ELIZA a été lancée c’était d’ailleurs une caricature de la psy. On disait « tu peux faire une psychanalyse directement sur ELIZA », ce qui n’était évidemment absolument pas le cas. ELIZA est encore en ligne, allez jouer avec, c‘est assez amusant.

Thibaut le Masne : C’est ce qui est curieux, justement, dans le terme. On voit reprendre les « notions de psychanalyse », je mets des guillemets, sur l’IA et, au final, on s’aperçoit que depuis ce temps-là les choses ont progressé et c’est toujours la volonté de rapprocher quelque chose à l’humain. On parlait de psychanalyse, on parle d’intelligence artificielle, on parle d’émotions sur quelque chose qui, au final, n’a rien de tout ça. C’est ce que j’ai bien aimé dans le discours de Laurence. Est-on avec ces discours-là ?

Cyrille Chaudoit : Parce que, on l’a redit tout à l’heure, il y a une forme d’anthropomorphisme surtout associé à notre culture, qui nous a menés aussi à tous ces mythes qu’on a également évoqués – du Golem, de Frankenstein, etc. – qui ont nourri une culture et une perception du robot qui est l’autre, qui est presque notre double mais diabolique, ou qui devient diabolique parce qu’il nous échappe. Il ne faut jamais oublier que c’est nous qui l’avons créé et, dans le cadre des IA, qui les avons entraînées, qui les avons nourries avec nos propres data et c’est peut-être là qu’est le véritable problème. Quand on se dit « notre créature risque de nous échapper », c’est qui cette créature ? En fait c’est nous, exacerbés, avec nos datasets, avec nos propres comportements et nos pensées limitantes. C’est d’ailleurs pour ça qu’un certain nombre d’IA qui ont été mises en ligne ont été très vite débranchées parce qu’elles devenaient racistes, xénophobes, misogynes, etc.

Mick Levy : Attention quand même au discours « tout était là avant, on en parle depuis très longtemps, etc. ». On voit que les problèmes très forts liés à l’IA sont quand même très récents, grâce à l’explosion de la capacité de calcul, donc grâce à l’explosion d’usages, grâce à l’explosion qu’on a aujourd’hui des données. C’est ce qui fait que tout ça, même si c’était en veille, en sommeil on pourrait dire, et que c’était déjà là effectivement depuis un moment, devient une actualité.

Cyrille Chaudoit : Par rapport à cette technique-là.

Mick Levy : Cambridge Analytica, on pourrait citer tout un tas d’éléments de nudge dans tout ce qui nous entoure et dans toutes les IA qu’on utilise au quotidien sans même nous en rendre compte. C’est pour ça que les questions d’éthique deviennent brûlantes aujourd’hui. Quand on dit qu’il faut s’en préoccuper aujourd’hui pour demain, il faut même s’en préoccuper aujourd’hui pour aujourd’hui, parce qu’il y a déjà des problèmes très forts liés à l’éthique de l’usage de l’IA qui se posent.

Thibaut le Masne : Elle a donné aussi un autre point que j’ai retenu, Mick, je pense que ça doit nous parler énormément et je pense que nous ne sommes pas les seuls à le dire : ce n’est pas le volume de données qui est important, mais leur richesse. L’efficacité est dans la frugalité.

Cyrille Chaudoit : La richesse est la variété. C’est justement pour éviter des datasets très WASP [White Anglo-Saxon Protestant], très blancs, catholiques, hommes quadragénaires, qui ont d’ailleurs fait que l’IA des ressources humaines d’Amazon a blacklisté un certain nombre de candidatures, elle a mis de côté volontairement tous les CV des femmes parce que le dataset était composé essentiellement d’ingénieurs qui étaient masculins, blancs, 30 ans, etc. Donc effectivement la variété.

Je reviens sur ce que dit Mick, il a raison. La technique, en elle-même, de l’intelligence artificielle est suffisamment aboutie aujourd’hui pour nous placer au pied du mur, exactement comme avec le réchauffement climatique. Dans les années 60, les premiers scientifiques nous alertaient, on a attendu il y a à peine quelques années pour que ça devienne un vrai sujet politique. Il y en a marre ! Combien de temps va-t-il nous falloir pour que l’intelligence artificielle, la robotique, etc., deviennent un sujet de débat public ?

Tu as raison sur la technique, mais ce qui est intéressant, je ne sais pas si c’est rassurant, c’est que les fondamentaux, les questions fondamentales, datent finalement de l’Antiquité, elles ont présidé à la réflexion humaine depuis toujours et on semble les découvrir, une fois de plus, aujourd’hui.

Mick Levy : C’est clair. C’est ce que nous dit Emmanuel Goffi dans sa chronique « Philo Tech » qu’on n’a pas eue dans cet épisode, que vous retrouvez au prochain, de chronique en chronique.

Thibaut le Masne : Le point qui est intéressant, puisqu’il fait aussi parallèle avec un épisode sur les smart cities, c’est qu’il faut être vigilant dans nos façons d’aborder et c’est plutôt une réflexion sociétale qu’il faut avoir et je pense que c’est ça qu’on a un peu oublié. On a tendance à se laisser porter par les événements plutôt que d’en avoir une réflexion sociétale et c’est ce qu’elle a aussi essayé d’apporter dans le débat, un débat public.

Cyrille Chaudoit : J’espère que c’est ce qu’on essaye de porter avec Trench Tech, ne pas être un podcast sur la technique mais sur les enjeux de cette technique dans la société.

Mick Levy : Les enjeux sociétaux, tout à fait.

D’ailleurs, pour boucler un peu ce debrief de l’épisode, Laurence a esquissé quelques solutions. Elle nous a parlé de solutions autour de règlements, notamment européens ; autour de normes, donc des industries qui se mettent d’accord ensemble sur la manière dont elles vont travailler tout en ayant une supervision extérieure pour être sûrs qu’elles ne fassent pas n’importe quoi, c‘est une des questions qu’on a vues ; autour de la recherche qu’il faut renforcer ; autour de l’investissement aussi dans les entreprises qui vont être les entreprises de l’IA de demain et forcément, si on investit dedans, alors on va avoir des leviers pour influer sur la politique et les usages qu’elles vont avoir de l’IA. Ça fait beaucoup de solutions à explorer.

Thibaut le Masne : Et l’éducation.

Cyrille Chaudoit : Tu as raison. L’éducation qui est une des bases, probablement à gérer en parallèle. Les lois et les normes pouvant, paradoxalement, être peut-être plus rapides à mettre en place. J’entends d’ici les gens, en tout cas certains ou certaines, hurler derrière leurs oreillettes en écoutant ce podcast : « Quoi ! Encore des régulations, des normes ! » Il y a quand même beaucoup de contradicteurs sur ce point-là. Ils disent : « Réguler, empêcher de développer, c’est anti-concurrentiel, c’est ceci, c’est cela ». Jacques Priol, dans l’épisode sur la smart city, nous disait : « Le RGPD [18] est là pour nous protéger en tant que citoyens. C’est à vous, entreprises européennes et françaises, dans ce cadre-là, de trouver comment être plus innovantes, donc de vous créer un marché qui se fera au détriment, à la limite, des GAFAM. » Là c’est pareil.

Thibaut le Masne : C’est exactement ça, tout à fait. Le point qui est juste différenciant c’est que ces normes-là, et ce que porte Laurence sur la valeur éthique, c’est pour protéger les citoyens. Quelque part, si on fait plaisir aux citoyens on fait aussi plaisir, potentiellement, aux entreprises, du moins je l’espère.

Cyrille Chaudoit : À priori, quand tu achètes une paire de lunettes de soleil qui a la norme CE, tu sais que tu ne vas pas te cramer la rétine quand tu vas sortir, donc tu es bien content qu’une norme existe. Quand tu achètes des jouets en bois ou je ne sais quoi à tes gamins, tu es content qu’il y ait des normes, que les entreprises aient répondu à un cahier des charges pour faire en sorte que ton gosse ne s’étouffe pas à la moindre occasion. Là c’est pareil.

Thibaut le Masne : C’est exactement la même chose.

Mick Levy : Tu parlais de cramer la rétine. Je n’ai effectivement pas du tout envie de me cramer le cerveau avec une IA qui n’aurait pas été du tout éthique.

Messieurs je crois qu’on arrive au bout de cet épisode et au bout du debrief.
Merci beaucoup à vous tous de nous avoir écoutés. Merci Thibaut, merci Cyrille, de ce bon moment passé ensemble.

Thibaut le Masne : Merci Mick. Merci Cyrille.

Cyrille Chaudoit : Merci Mick. Merci Thibaut.

Mick Levy : On se retrouve tout de suite pour les deux dernières minutes de la conclusion.

Cyrille Chaudoit : Plus ou moins 60 minutes viennent de s’écouler et normalement votre regard sur l’éthique de l’IA et des robots émotionnels n’est pas tout à fait le même qu’au début de l’épisode. Merci à vous d’avoir pris le temps de nourrir votre esprit critique sur les enjeux éthiques que soulève l’environnement technologique dans lequel nous baignons. Que nous en soyons les concepteurs, les commanditaires ou les usagers, nous avons le droit et la responsabilité d’exercer notre esprit critique sur ces sujets pour en rester acteurs plutôt que spectateurs.

Trench Tech c’est terminé pour aujourd’hui, mais vous pouvez nous écouter ou réécouter sur votre plateforme de podcast préférée. Si vous voulez nous aider, profitez de cette écoute pour nous laisser un commentaire et cinq étoiles, ça fait toujours plaisir et vous contribuerez, comme cela, à propager l’esprit critique pour une tech éthique. Car, comme le disait Sacha Guitry, « avoir le sens critique c’est porter le plus vif intérêt à un ouvrage qui justement paraît en manquer ».