Le robot, mon ami ? Talk Sapiens - La Tribune #9

Titre :
Le robot, mon ami ? Talk Sapiens - La Tribune #9
Intervenant·e·s :
Laurence Devillers - Ysens de France - Serge Tisseron - Olivier Babeau, voix off - Philippe Mabille
Lieu :
Talk Sapiens- La Tribune #9
Date :
juillet 2018
Durée :
49 min 40
Écouter le podcast
Licence de la transcription :
Verbatim
Illustration :
Ingeniería mecatrónica, ¿Qué es la Robótica ? - Licence Creative Commons CC By 4.0
NB :
transcription réalisée par nos soins, fidèle aux propos des intervenant·e·s mais rendant le discours fluide.

Les positions exprimées sont celles des personnes qui interviennent et ne rejoignent pas nécessairement celles de l’April, qui ne sera en aucun cas tenue responsable de leurs propos.

Description

Santé, industrie, défense, marketing, automobile : les applications liées à la robotique sont légion et se développent à grande vitesse. Cette omniprésence, souvent associée à un anthropomorphisme délibéré, ne risque-t-elle pas de brouiller la frontière entre humains et robots ?

Cette question était au cœur du 9ème Talk Sapiens-La Tribune

Transcription

Olivier Babeau, voix off : Bonjour. Je suis Olivier Babeau, le président de l’Institut Sapiens, la première think tank française qui replace l’humain au cœur du numérique. Le Talk Sapiens c’est une fois par mois, une discussion approfondie entre experts pour mieux comprendre les grands enjeux de ce siècle qui commence.
Philippe Mabille : Bonjour à toutes et à tous et bienvenue pour ce nouveau podcast organisé par l’Institut Sapiens et le journal La Tribune que je dirige. Je suis ravi de vous retrouver après une longue absence liée au confinement. Nous ne sommes non pas encore confinés, je suis à mon bureau, mais nous essayons de déconfiner nos esprits avant de démarrer dans l’été pour parler d’un sujet qui aurait pu nous rendre bien des services pendant le confinement, d’ailleurs pour certains ça a peut-être été le cas même si on a vu que la pandémie covid a montré que l’humain restait quand même essentiel ; que ce soit dans la santé ou pour la distribution alimentaire, heureusement qu’il y a encore des humains qui sont là ! Peut-être que pour la prochaine épidémie ou la prochaine vague, si jamais elle a lieu, se posera la question de l’usage des robots pour nous remplacer et prendre moins de risques. C’est vrai que ça pourrait être bien pratique face aux virus d’avoir des robots dans les hôpitaux ou des robots dans les supermarchés.

Pour parler justement de l’avenir du robot, à supposer que la question de savoir si le robot peut-être ou pas notre ami et où est-ce qu’on en est de cette technologie, on a trois invités très prestigieux et je suis ravi de les avoir avec nous pour ces 45 minutes de débat. Nous avons Laurence Devillers. Bonjour Laurence.
Laurence Devillers : Bonjour.
Philippe Mabille : Vous êtes professeure à Sorbonne Université en informatique appliquée aux sciences humaines et sociales. Vous dirigez la chaire de recherche en intelligence artificielle HUMAAINE en apprentissage machine, détection des émotions et interaction homme-machine. On va beaucoup parler de ces sujets-là. Vous avez publié en mars dernier, avant le confinement, Les robots émotionnels aux Éditions de l’Observatoire.

Avec nous également Serge Tisseron, vous êtes psychiatre. Bonjour Serge.
Serge Tisseron : Bonjour.
Philippe Mabille : Psychiatre et psychanalyste, membre du Conseil scientifique du CRPMS [Centre de Recherche Psychanalyse Médecine et Société], vous nous direz ce que c’est, à l’Université de Paris, et membre de l’Académie des technologies. Vous êtes à l’origine de la fameuse règle « 3, 6, 9, 12 » qui donne des repères sur l’utilisation des écrans en fonction de l’âge de l’enfant. C’est vrai qu’aujourd’hui la question de l’intrusion des écrans dans nos vies, peut-être demain des robots, posera des tas de questions psychologiques nouvelles, on va en parler. Vous avez aussi fondé l’Institut pour l’Étude des Relations Homme-Robots (IERHR) en 2013 [Note de l’orateur]. Vous venez de publier L’Emprise insidieuse des machines parlantes, plus jamais seul aux Éditions Les Liens qui libèrent.

Et enfin avec nous, directrice de la prospective à l’Institut Sapiens, Ysens de France. Bonjour Ysens.
Ysens de France : Bonjour.
Philippe Mabille : Vous êtes docteure en droit international public, vous êtes spécialisée en robotique militaire terrestre notamment, vous avez publié une thèse sur le sujet, et vous êtes également directrice adjointe de l’Observatoire éthique et intelligence artificielle à l’Institut Sapiens avec qui nous sommes partenaires.

Après cette présentation un peu longue qui permet de savoir qui parle et d’où il ou elle parle, nous allons commencer avec Laurence Devillers par nous interroger sur la définition, simplement : c’est quoi, dans le monde d’aujourd’hui, quand on parle de robot et comment on fait la différence entre le robot et l’intelligence artificielle alors qu’il y a une interaction de ces technologies de plus en plus importante dans nos vies ?
Laurence Devillers : Merci. Je pense qu’il est essentiel déjà de définir. Donc en trois points.

Il faut différencier la robotique de ce qui est automate, c’est-à-dire que les premiers robots qu’on a vu arriver dans les usines, qui sont les plus connus, ce sont des systèmes qui enchaînent des actions qui sont déterminées, l’ordre est déterminé il n’y a pas de choix fait par la machine.

Quand on parle de robotique on parle d’un outil qui est capable de percevoir dans son environnement, de raisonner sur ce qu’il a perçu, avec des connaissances qu’il peut avoir, de l’ontologie, c’est-à-dire une représentation de notre monde, et puis il est capable de réagir. Il peut être doué de langage et doué d’action dans notre monde en trois dimensions.

Je le distingue du bot qui est peut-être sur mon téléphone ou sur un ordinateur ; je le distingue du chatbot qui est un bot capable de converser ou, en tout cas, d’interaction verbale, parce qu’il ne converse pas. On parle aussi de ces enceintes vocales qui sont des objets, effectivement, mais qui sont des haut-parleurs avec un micro.

Pour revenir à l’IA, l’intelligence artificielle, qui est un oxymore, l’intelligence c’est humain et artificiel c’est artifice, c’est machine, eh bien ces objets que ce soit le robot, l’enceinte vocale, Siri sur mon téléphone, utilisent des modules d’intelligence artificielle pour faire de l’analyse du signal, de la reconnaissance de la parole, de la compréhension, voire de la reconnaissance des émotions, qui est mon domaine, pour générer des réponses, faire des actions. Donc il y a une foultitude de différents modules d’intelligence artificielle et un système qui essaie d’utiliser ces différents modules pour faire cette interaction avec les machines.

Je finirai juste en disant qu’il est essentiel aujourd’hui de mieux comprendre comment elles sont faites et quels sont les usages qu’on peut avoir avec, en regardant également les points de vue éthiques. On verra en discutant dans cette session qu’on n’a pas de loi qui réglemente, qui vérifie, qui audite ces systèmes à l’heure actuelle et qu’il n’est pas évident d’en faire non plus pour tout et qu’il sera aussi nécessaire de faire des chartes éthiques de bonne pratique pour encadrer ces objets.

Dernier point. J’appartiens aussi à un comité d’éthique puisqu’on en a parlé avant, j’appartiens au Comité National Pilote d’Éthique du Numérique, qui est proche du CCNE [Comité consultatif national d’éthique] qu’on connaît bien, qu’on a vu beaucoup pendant la pandémie avec le professeur Delfraissy qui est la tête de ce CCNE.
Philippe Mabille : Merci beaucoup Laurence.

Avant de revenir sur les usages des robots et de leurs interactions avec nous humains, j’en parlais un tout petit peu avant dans mon introduction, je vais maintenant passer la parole à Serge Tisseron peut-être pour évoquer cette intrusion, cette arrivée des machines dans nos vies. On parle de machines parlantes, ça va de Siri qui converse sur nos ordiphones, pour ne citer qu’eux, en tout cas il y a des robots conversationnels aujourd’hui dans nos smartphones. Il y a également, aujourd’hui, de plus en plus de robotique ou d’intelligence artificielle, c’est-à-dire des robots qui ont des yeux avec des caméras, des caméras de surveillance. Donc la voix, les yeux, peut-être demain les bras, on a tous le souvenir de Boston Dynamics qui, avec son chien dont j’ai oublié le nom, son chien robotique qui réalise des performances de plus en plus spectaculaires et qui pose vraiment la question de où s’arrête la frontière ? Justement, j’allais vous poser cette même question sur la définition de la robotique aujourd’hui et où s’arrête la frontière.
Serge Tisseron : Merci. Tout d’abord Laurence a très bien parlé de l’intelligence artificielle et du robot, la différence entre les deux. Je voudrais ajouter un troisième élément qui me paraît vraiment essentiel, ce sont les données, les fameuses big data. Il ne faut pas oublier que l’intelligence artificielle est très dépendante des données qu’on y entre. L’intelligence artificielle dysfonctionne non pas parce que l’algorithme est mauvais, mais parce que les données sont insuffisantes ou bien biaisées. Il faut bien comprendre que quand l’intelligence artificielle va faire fonctionner le robot, le robot va être indirectement dépendant aussi de ces données.

C’est pour ça que c’est très important d’établir, de bien comprendre cette chaîne qui relie les données, l’intelligence artificielle puis le robot. Le robot est en quelque sorte le terminal qui est présent dans une notre environnement, qui a une présence physique, mais il y a toute une chaîne en amont, que nous ne voyons pas, dont il faut vraiment réaliser l’importance.

Sinon, par rapport à votre question, oui, aujourd’hui on s’aperçoit que finalement l’être humain est extrêmement prêt à accorder des compétences presque humaines à une machine. Si vous voulez on croyait que l’être humain était un être de raison, depuis le 18e/19e siècles on en était persuadés. On s’aperçoit que ce n’est pas si acquis que ça. En effet, lorsqu’une machine est capable de nous regarder, lorsqu’une machine est capable de nous parler comme un humain, beaucoup d’entre nous, finalement, se laissent gagner par l’illusion que cette machine, pas humaine, [ben sûr, nous ne sommes pas si bêtes pour le croire, Note de l’orateur], mais que cette machine pourrait avoir des compétences très supérieures à celles qu’elle nous montre [dans l’instant, Note de l’orateur].

Quand je parle avec humain pour lui demander Où se trouve une rue, pour lui demander le prix du pain, je sais bien que cet humain a beaucoup plus de compétences que celles qu’il me manifeste. En effet, lorsqu’une machine est capable de regarder, même si ses yeux sont manifestement des yeux mécaniques, il a été montré que l’humain qui interagit avec elle, c’est Hiroshi Ishiguro [1] qui a montré cela, l’humain qui interagit avec la machine la regarde dans les yeux, comme s’il attendait quelque chose de ce regard. Et dès qu’on introduit la voix dans une machine, on le voit aujourd’hui avec les enceintes connectées, beaucoup de gens sont prêts à se laisser gagner par l’illusion que la machine aurait des compétences plus grandes que ce qu’elle n’en a. Les gens font des expérimentations, essayent de coincer un peu la machine avec des questions tordues, puis ils s‘aperçoivent qu’elle n’est pas si maligne que ça et qu’est-ce qu’ils se disent ? Ils se disent vivement la prochaine pour qu’elle soit un peu plus intelligence.

L’idée, comme je le dis toujours, dans le développement de l’intelligence artificielle, dans la relation de l’homme à l’intelligence artificielle, le maillon faible c’est l’homme. Nous sommes prêts à accorder à ces machines des compétences bien plus grandes que celles qu’elles ont en réalité. Ça veut dire qu’il faut constamment remettre les choses au clair sur les compétences réelles de ces machines mais aussi se préoccuper des personnes particulièrement fragiles, traditionnellement les enfants, les personnes âgées, dans les confusions qui pourraient se créer chez elles quand elles utilisent ces machines.
Philippe Mabille : Absolument. Jusqu’au risque de la perte de contrôle, on va peut-être en parler tout de suite avec Ysens de France puisqu’elle a travaillé sur la robotique militaire. Un des rêves de l’humanité c’est de pouvoir effectivement se faire assister de robots, mais on le voit bien dans le film Terminator dont on entend beaucoup parler à propos de la robotique militaire, jusqu’à quel point l’homme garde-t-il le contrôle de la machine quand il l’automatise ? Cette question peut se poser de façon peut-être pas si facile, dérisoire que ça dans la vie quotidienne, mais dans les questions militaires et l’armée évidemment ça serait un danger considérable. Où est-ce qu’on en est, déjà, vous qui connaissez ce sujet, en matière de robotique militaire ? On va basculer très vite dans notre discussion sur ces questions-là, est-ce que des règles éthiques peuvent empêcher l’humain qui est effectivement le maillon faible, et qui pourrait devenir tellement faible qu’il se ferait dépasser ?

Ysens.
Ysens de France : Quand on s’intéresse à la robotique militaire terrestre et plus spécifiquement quand on s’intéresse à ces questions à travers le prisme juridique, la première question qu’on se pose c’est déjà qu’est-ce qu’un robot ?, et, à travers mes analyses et à travers recherches, premier constat, le robot n’existe pas. Le robot n’existe pas parce que dans les armées, mais on l’a vu également à la Commission européenne, je reviendrai dessus après, on considère que le robot est une machine qui est capable de décider. Aujourd’hui ça n’existe pas. Donc comme ça n’existe pas il ne peut pas y avoir d’identification juridique qui lui soit propre. C’est très important, en fait, de prendre le temps de bien définir et de qualifier ce que c’est qu’un robot, parce que ce qu’on voit par exemple dans la robotique militaire terrestre, il y a eu des conversations qui ont été engagées au niveau des États, au sein de l’ONU, et quand ils ont commencé à introduire ces conversations, forcément ils ont parlé de robots. Qu’est-ce qu’on fait des robots militaires ? Qu’est-ce qu’on fait des killers robots ? Qu’est-ce qu’on fait de Terminator ? Et très vite ils se sont dit on va arrêter d’utiliser ce terme-là parce que ça n’existe pas, qu’il y a trop de projections et qu’on a l’impression qu’on va remplacer les militaires dans les conflits armés. C’est pour ça que très vite ils se sont dit on va utiliser un terme plus approprié qui est le « système d’armes » [2], on parle de système d’armes létales autonome quand il est en pleine capacité de décider de laisser vivre ou de tuer. Cette qualification de « système d’armes » est importante parce que le signal est fort en fait dans les armées. Le robot restera un objet. Dans ce cadre-là, une fois qu’ils ont défini ça comme un objet, donc un équipement militaire, fait qu’ils parlent moins de confiance que finalement de vigilance, de prudence, de capacités, de capacités de contrôle, de capacités de maîtrise. Ce qu’on a vu aussi lors de ces conversations, c’est qu’au début ils étaient très focus sur la technologie, quelles étaient les capacités de la technologie et très vite, au bout deux/trois ans de conversations, ils se sont dit « non, en fait, on va s’intéresser surtout aux capacités de l’homme à maîtriser et à contrôler cette technologie ».

Ce qui est intéressant, pareil, avec l’aspect juridique, c’est qu’on peut lui donner une seule qualification, c’est une technologie qu’on appelle duale, c’est-à-dire que c’est une technologie qui a une application à la fois militaire et à la fois civile : vous avez un robot chez vous, vous l’armez, ça devient un robot armé.

Ce qui m’a pas inquiétée, mais j’étais assez dubitative justement en travaillant sur ces questions, c’est que j’ai vu deux choses, deux dissonances. Robot militaire on a affirmé son statut d’objet donc le pouvoir de l’être humain de maîtriser, de toujours contrôler son outil et c’est très important dans les conflits armés parce que ça permet de savoir quel est le rôle et la place de chacun lors d’une mission – ce qui compte c’est la performance de la mission – et j’ai vu que dans la robotique civile il y avait une espèce de glissement. On a voulu absolument personnifier le robot, on a essayé de lui donner une personnalité juridique du robot. Et ce qui est très important c’est qu’au nom de la sécurité juridique vous ne pouvez pas, pour un même objet, qualifier d’un côté cet objet-là d’objet et de l’autre dire en fait non, ça va être une personne. C’est impossible en droit parce que ça voudrait dire que d’un côté l’homme reste responsable coûte que coûte et de l’autre on glisserait vers des mécanismes juridiques où on finirait par donner, en fait, de la responsabilité aux robots. Au sein des conflits armés, dire que c’est un objet c’est accorder une place extrêmement importante à l’humain dans les conflits armés et ça c’est déterminant pour les combats, pour la performance de la mission. Voilà ce que j’ai juridiquement.
Philippe Mabille : Merci.

Serge Tisseron, on est au cœur du débat éthique et objet ou pas, « objets inanimés avez-vous une âme ? », comme disait le poète. On voit finalement plutôt le robot comme un auxiliaire : ça peut être un auxiliaire dans la santé, je l’ai dit, ça peut être effectivement un auxiliaire militaire, ça peut être un auxiliaire dans l’industrie, énormément aujourd’hui de travailleurs de l’industrie sont confrontés à la robotique, plutôt d’ailleurs pour les libérer d’un certain nombre de tâches. J’aimerais demander au psychiatre, au psychanalyste que vous êtes, qu’est-ce que ça change dans le cerveau humain de travailler avec cet objet, ce robot ? Est-ce qu’on se sent plus puissant ou est-ce qu’on se sent affaibli, diminué ?
Serge Tisseron : Pour répondre à la fameuse phrase.
Philippe Mabille : Les deux mon général. C’est ça ?
Serge Tisseron : Non, attendez. « Objets inanimés avez-vous donc une âme ? », oui, celle que nous leur donnons, celle dont nous les créditons.
Philippe Mabille : Absolument.
Serge Tisseron : Par rapport à la robotique militaire, c’est tout à fait vrai pour les militaires, le robot est un objet, un outil. Quand les militaires envisagent l’augmentation du soldat, on parle beaucoup d’augmentation du soldat dans les années à venir, ils parlent de deux choses : Il y a des augmentations exogènes avec des outils dont le robot fait partie et puis il y a des augmentations endogènes [avec différentes substances chimiques ou prothèses, Note de l’orateur] qui modifient la résistence la physiologie du combattant. C’est dans cette logique-là, vous voyez, qu’est pensé aujourd’hui le robot militaire [comme une augmentation exogène du combattant, Note de l’orateur].

Pour répondre à votre question, le problème des robots, une fois dit que ce sont des objets, ça va être comment l’homme va les considérer. Il y a quelques années l’état-major américain s’est aperçu que des soldats en charge de robots démineurs voyaient leur robot très différemment d’un simple objet.
Laurence Devillers : Ce n’étaient pas des robots. Ce sont des objets téléopérés.
Serge Tisseron : Voilà, d’accord !
Philippe Mabille : C’est dans la définition.
Serge Tisseron : C’est ce nom de « robot » qui apparaît partout dans la littérature à ce sujet.
Laurence Devillers : Je suis désolée de la métaphore.
Serge Tisseron : Oui, on va dire « robots » entre guillemets et encore même pas des robots, ils ne sont pas dotés de la voix, ils n’ont pas des yeux, ils se présentent un peu comme une caisse montée sur chenille, avec un bras articulé et une caméra. Donc on va dire que ce ne sont pas des robots, mais on va dire que ce sont des objets téléopérés. Ces objets téléopérés, tout téléopérés qu’ils soient par une intervention humaine, l’état-major américain s’est aperçu que certains soldats se déprimaient quand leur machine était endommagée, que certains demandaient que les honneurs de la guerre soient rendus à leur machine quand elle avait été totalement détruite et, plus intéressant encore, certains demandaient que cette machine même très endommagée soit réparée quel qu’en soit le prix de manière à ce que ces personnes puissent récupérer la même machine avec le même numéro de série, une machine à laquelle ils s’étaient un peu émotionnellement attachés. Donc vous voyez qu’on rencontre le problème de l’attachement à la machine, [un attachement bien plus important que celui qu’on peut développer aujourd’hui avec un objet, Note de l’orateur].
Philippe Mabille : Est-ce que c’est différent de l’attachement à une voiture qu’on possède depuis des années ?
Serge Tisseron : La différence ce sera lorsqu’une voiture commencera à vous parler, mais aujourd’hui elle ne vous parle pas.
Philippe Mabille : C’est vrai qu’elle devient robotisée.
Laurence Devillers : Une voiture c’est un robot.
Serge Tisseron : Ce qui fait la différence quand même c’est que ces machines vont très bientôt être capables de nous interpeller, c’est ça qui fait la différence. Quand vous allez vers une machine, par exemple vous allez vers un distributeur de billets dans une gare SNCF, si vous lui parlez déjà ça simplifie beaucoup vos démarches avec la machine, pour beaucoup de gens ce sera une libération de pouvoir parler à ces machines plutôt que de tapoter sur un clavier qui souvent ne marche pas. En revanche, le changement le plus important n’est pas là. Le jour où vous avez dans votre environnement une machine qui vous interpelle comme certains robots placés d’ores et déjà dans des hôpitaux, qui peuvent dire « bonjour Monsieur machin, bonjour Madame truc, comment allez-vous ? est-ce que vous avez bien dormi ? », à partir de ce moment-là il est bien évident que les compétences dont on va créditer le robot, la machine, vont être beaucoup plus importantes.

Donc si vous voulez, la question qu’on se pose tout le temps à l’Étude des Relations Homme- Robots [3], fondé en 2013, c’est cette question-là : de quelle façon des machines qui ne sont pas conçues avec l’idée de remplacer l’humain de quelque manière que ce soit, vont quand même, pour certains usagers, êtres amenées à remplacer des partenaires humains dans l’imagination qu’ils en ont ?
Philippe Mabille : Laurence, la controverse est lancée, allez-y !
Laurence Devillers : D‘abord tout ce qui est anxiogène passionne tout le monde en ce moment. À chaque fois qu’on a des aspects très négatifs ou très caricaturaux autour de ces machines on envole les gens qui oublient de revenir à l’état de l’art. L’état de l’art voulant dire : qu’est-ce que sont capables vraiment de faire ces machines ? À l’heure actuelle pas grand-chose. Elles sont d’une autonomie très limitée. Lorsqu’on parle d’agents conversationnels ils ne conversent pas, ils ne comprennent rien à ce qu’on dit, ils n’ont pas d’émotion et ils ne font qu’imiter des choses qu’on leur a données. L’intelligence vient de l’humain qui a su faire ces machines et en aucune manière la machine ne va devenir créative et ne va se doter de fonctions qu’un ingénieur n’aurait pas prévu de lui donner. À la limite elle pourra capturer quelques données en plus, peut-être qu’elle va d’ailleurs faire que son système sera moins performant parce qu’elle n’aura pas assez de connaissances pour juger des qualités des données qu’elle va réutiliser.

Donc il est urgent dans la société qu’on fasse expérimenter ces objets pour qu’on oublie d’avoir peur à chaque fois qu’on parle de ces sujets.

Maintenant je vais à l’inverse. À l’inverse, on cherche à faire dans certains domaines – la robotique sexuelle en est un – des choses qui nous ressemblent extrêmement fortement, des clones, des Geminoid, des jumeaux de l’humain, avec la même apparence, vides. À l’intérieur on n’a évidemment pas de viscères, on n’a pas de ressenti, on n’a pas de chair. Comme, de toute façon, on ne sait pas encore vraiment modéliser la cellule ni ce que c’est que la pensée humaine, nous sommes dans un balbutiement des choses. On imite en surface, on fait des avions qui volent ce n’est pas pour ça que ce sont des oiseaux. Là on fait des systèmes qui nous ressemblent, qui ont certaines de nos fonctionnalités, mais sûrement pas notre capacité d’humains à ressentir, à créer, à imaginer et à être en solidarité avec les autres, il n’y a rien de tout ça !, même si je connais des chercheurs qui essaient de faire de l’homéostasie dans un robot, c’est-à-dire modéliser une certaine douleur, un certain plaisir, pour que le robot ait des intentions.

Dans le monde de la recherche on manie également fortement la métaphore.

Si je prends maintenant les usagers, les non-experts qui sont devant ces machines, eh bien pour avoir fait beaucoup d’interactions avec des personnes âgées dans des Ehpad ou dans des systèmes avec des gens qui avaient un certain handicap, des jeunes et des moins jeunes, il n’y a pas beaucoup de confusion. Il n’y a pas beaucoup de confusion avec l’humanité. Il y a des projections voulues. Quand l’enfant est petit il adore son nounours ou quand le gars adore sa voiture, il fantasme aussi sur la relation qu’il a avec ces objets. Or ces objets maintenant sont plus sophistiqués, on ne peut plus tellement dire que ce sont des outils, ce sont des systèmes qui réagissent fortement, qui peuvent nous parler et là il peut y avoir manipulation. Mon objectif de recherche à l’heure actuelle, dans la chaire dont vous avez parlé tout à l’heure, c’est justement de travailler sur ces objets conversationnels, c’est l’objet de mes recherches, la parole dans l’interaction, le pouvoir de la parole et le pouvoir de manipulation de la parole.

À travers ça, j’aimerais vous faire prendre conscience de la chose suivante, ce sont des économistes qui l’ont dit, non pas des psychologues ou des psychiatres : nous sommes régis, caricaturalement parce que c’est à mon avis un champ de recherche qui est totalement ouvert, sur des réactions, des prises de décision de l’humain qui sont soit sur système 1, extrêmement rapides par intuition, et on fait beaucoup de choses par intuition, et par un système 2 qui lui raisonne autour de toute la circonstance, etc.

Il faut qu’on fasse mieux comprendre que ces objets manipulent sur ces deux systèmes et nous obligent à aller très vite. L’attention des machines, le fait qu’il faut réagir très vite, ça c’est de l’ordre du système 1, l’intuition : un objet vous dit quelque chose, tac, on va tout de suite répondre sans analyser finalement si que c’est fake, si ce qu’il nous a dit avait une réalité, etc. Ça ce sont des vrais sujets. Ce sont des sujets d’éthique du numérique qui sont apparentés à des désirs commerciaux, à des désirs des géants, des GAFA [Google, Amazon, Facebook, Apple], à des désirs de gens dont on ne lève pas le capot sur les objectifs ni sur ce qu’ils font des données ni sur quels sont les désirs de manipulation.

Si demain je parle à mon Google Home je lui dis « je voudrais une pizza », il va m’envoyer une pizza d’un commerçant. La manipulation est là, à qui il demande ?, à quelqu’un qui a peut-être donné de l’argent pour faire cela.

Il faut démystifier ce côté un peu anthropomorphisme qu’on a dans les machines et ne pas cultiver cette anxiété parce que, finalement, je n’ai pas tellement trouvé, en fait, de personnes qui se faisaient avoir par ces systèmes. À l’heure actuelle ils ne sont pas assez intelligents et on peut apprendre à les débusquer : je peux converser avec un système et l’amener à dire des choses qu’une machine ferait parce que c’est incongru, parce que c’est n’importe quoi.

Si on avait cette éducation de pouvoir démystifier, de savoir comment on interagit avec ces systèmes sans savoir coder, il ne s’agit pas que tout le monde sache coder, il s’agit au contraire qu’on ait des systèmes de défense par compréhension des objets sur lesquels on travaille et, de l’autre côté, pousser les industriels à être en capacité de faire des machines plus transparentes, qu’ils expliquent un peu plus leurs capacités et qu’on sache l’écosystème : où vont les données ? À qui ça sert ? Qui gagne de l’argent avec cet objet ?
Philippe Mabille : Laurence, ce que vous racontez là est tout à fait intéressant, on voit ça dans des films de science-fiction, c’est-à-dire que Hollywood, finalement, nous a permis de nous préparer à ce monde-là. Prenez Blade Runner, c’est quoi ? C’est on chasse des robots en essayant de deviner et ils sont tellement bien faits qu’il faut leur poser une dizaine, une vingtaine de questions pour essayer de déceler la part de machine qui reste en eux. Donc on voit bien, et je reviens sur ce que je disais Ysens, que la question juridique est en train de rejoindre la question éthique. C’est-à-dire que ce Blade Runner nous dit de l’avenir qui, je l’espère, n’aura certainement pas lieu, mais on ne sait pas parce que si jamais un jour on fabriquait, justement, des robots à notre image, on pourrait être confronté à ce type de question. Donc est-ce que le débat n’est pas d’abord juridique ? Est-ce qu’on peut se poser la question d’un droit des robots ?
Laurence Devillers : Non !
Serge Tisseron : Je voudrais juste dire un petit mot parce que Laurence Devillers pourrait laisser imaginer que j’ai des peurs. J’essaie d’anticiper les risques, d’ailleurs elle me connaît bien pour savoir que ce n’est pas la peur.
Laurence Devillers : Ce n’est pas vous qui avez peur, c’est le langage qui fait peur.
Serge Tisseron : Le pouvoir, le poids de manipulation de la parole, c’est exactement le sujet que je traite dans mon dernier livre L’emprise insidieuse des machines parlantes. Plus jamais seul.
Laurence Devillers : Et du mien aussi.
Serge Tisseron : Laurence parlait des deux systèmes, décision lente, décision rapide. L’être humain est doté de deux autres systèmes qui lui permettent de distinguer le vivant du non-vivant. [C’est la théorie de Daniel Kahneman qui était bien psychologue, Note de l’orateur]. Un premier système est de considérer si l’objet, la créature est dotée d’une autonomie d’objectif, c’est le vivant qui est doté d’une autonomie d’objectif, donc de ce point de vue-là l’être humain ne se trompe pas. Évidemment la machine n’est pas dotée d’une autonomie d’objectif, elle a un programmeur derrière elle, elle est programmée, etc.

En revanche l’être humain a un autre système qui lui permet d’organiser sa vie, ses relations avec son environnement, c’est le fait d’intégrer ou pas une créature dans son réseau relationnel. [Ce système est rapide et intuitif,Note de l’orateur] Or ces machines, bien que nous ne leur accordions jamais la capacité d’être vivantes ou d’être autonomes, nous allons les intégrer de plus en plus dans notre vie relationnelle. [Le risque n’est pas de confondre ces machines avec des humains, mais de nous sentir avec elles dans la même familiarité qu’avec nos proches, au point de ne pas opposer un regard critique suffisant à leurs manipulations, Note de l’orateur].

Philippe Mabille : Oui, effectivement nos smartphones avec Siri…
Laurence Devillers : On en est déjà là !
Serge Tisseron : Oui, sauf qu’avec notre smartphone nous parlons beaucoup à des gens que nous connaissons, que nous ne connaissons pas, mais nous parlons encore peu avec notre smartphone [sinon pour relayer des commandes simples comme entrer une adresse au GPS, Note de l’orateur]. En revanche, dans quelques années, nous parlerons probablement beaucoup avec nos robots conversationnels et surtout avec ceux dont nous verrons le visage sur l’écran de notre smartphone. C’est vraiment promis à un bel avenir.

Aujourd’hui, pour résumer, pour moi, dans le domaine de la robotique, on en est là où on en était avec les automobiles en 1920. Le problème c’est qu’à l’époque personne ne s’est vraiment préoccupé des dangers qu’il pouvait y avoir à ne pas sécuriser l’habitacle, à ne pas se préoccuper de la puissance du moteur.
Aujourd’hui, on est exactement dans la même situation. [Il ne faut pas que l’état n’abandonne pas la fabrication des robots aux constructeurs de la même façon qu’il a abandonné pendant 50 ans la fabrication des voitures aux constructeurs, Note de l’orateur]. Donc les robots c’est formidable, si je m’y intéresse c’est parce que j’espère en voir des plus perfectionnés possibles, de vivre très longtemps pour voir des robots très perfectionnés.
Laurence Devillers : Attention !
Serge Tisseron : J’en ai vraiment envie, mais, en même temps, je ne peux pas sous-estimer le risque, je ne veux pas que les mêmes conneries soient faites avec la robotique qu’avec l’automobile ou le smartphone puisque, aujourd’hui, on voit des tas de gens qui me disent dans des conférences : « Monsieur Tisseron, il fallait nous dire un peu plus tôt qu’il ne fallait pas confier un smartphone à un enfant ». D’ailleurs dans mon dernier livre, j’explique que les balises « 3,6,9,12 » que vous avez eu la gentillesse d’évoquer tout à l’heure pour les écrans, eh bien on peut aussi les appliquer aux différentes formes de machines parlantes ou d’objets téléopérés qui vont de plus en plus occuper notre environnement ; avant 6 ans, même jusqu’à 6 ans, ces objets vont être très problématiques.
Philippe Mabille : Je voudrais passer de nouveau la parole à Ysens qui n’a pas beaucoup parlé. J’aurais voulu, Ysens, au-delà de la question militaire que vous connaissez bien, jusqu’à quel point, effectivement, on doit se poser la question d’une législation, d’un droit des robots, d’un droit de l’humain par rapport aux robots et peut-être demain faudra-t-il se poser la question, si on met de plus en plus d’humanité dans ces robots, d’un droit des robots lui-même à être protégés contre la méchanceté des humains.
Ysens de France : Je reviendrai juste deux petites secondes sur ce qui vient d’être dit. Effectivement l’utilisation du terme « robot » c’est d’abord un outil d’influence, un outil de puissance et de pouvoir dont se servent les États au sein d’une course technologique. C’est hyper-important de faire aussi de la géopolitique quand on fait de la robotique parce que c’est vraiment le symbole d’une course technologique entre les Américains, les Chinois dans une moindre mesure, mais quand même les Chinois, les Israéliens.
Laurence Devillers : Les Japonais.
Ysens de France : Les Japonais, bien sûr, et en fait on le voit bien. Quand Poutine dit « il y a Terminator qui défile » et juste après on a tout le ministère des Armées qui dit « il n’y a aura jamais de Terminator le 14 juillet chez nous », on sent bien qu’on est avant tout dans un discours politique et il est très important de comprendre qu’on est avant tout dans une course technologique qui est ce qu’on appelle une guerre froide 2.0. C’est qui va avoir une technologie la plus avancée.

Je me permettrai juste de rappeler quelque chose. On imagine que cette guerre est très technologique, en réalité je pense que cette guerre est avant tout juridique, parce qu’on voit bien qu’en fait tous les pays, finalement, auront accès à cette technologie, disposeront de cette technologie. En réalité, le premier pays qui arrivera à créer un véritable droit de la robotique, pas du robot, ça c’est très important, comme vous ne dites pas « un droit de l’ordinateur », vous ne direz pas « un droit du robot ».
Laurence Devillers : Un droit de la voiture !
Ysens de France : Et la Commission européenne là-dessus a vraiment, pour moi, une longueur d’avance parce qu’il y a quand même des réflexions.
Laurence Devillers : Ah non !
Ysens de France : C’est très bien, comme ça on va pouvoir en parler.
Laurence Devillers : C’est intéressant ce que vous dites.
Ysens de France : Je veux dire que les réflexions sont là, les réflexions éthiques sont là. Mais à quoi sert l’éthique ? En fait pourquoi il faut lier l’éthique et le droit ? Comme je vous le disais tout à l’heure, le droit ne peut pas intervenir sur une technologie qu’il ne connaît pas, d’où l’importance de l’éthique qui est dispositif d’attente en fait ; c’est sensibiliser les gens. On accompagne l’éthique avec de l’expérimentation et on sensibilise les gens, on fait de la pédagogie : voilà ce qu’est le robot, voilà ce qu’il n’est pas, voilà ce qu’est un drone, voilà ce qu’est un bot, voilà ce que sont des données et ensuite, une fois que ces technologies seront assez mûres, donc d’avoir une capacité de décider, une vraie capacité de s’adapter – ça arrivera ou ça n’arrivera pas – le droit arrive à ce moment-là pour dire « maintenant on sait de quoi ils sont capables, on sait maintenant dans quelle catégorie on va pouvoir les mettre ». Moi je vous dis catégorie objets, on peut très bien imaginer – ça va faire hurler tous les juristes qui m’écoutent – une petite catégorie intermédiaire entre les robots et les hommes, attention je vais me faire taper dessus, mais sait-on jamais, on ne sait pas de quoi l’avenir est fait, mais à priori ça restera des objets. Donc c’est vraiment important de voir que le robot est avant tout un outil d’influence juridique, qu’est-ce qu’on va faire et puis surtout, au-delà du droit, c’est quelles valeurs ? J’ai deux spécialistes devant moi, mais avant tout les robots véhiculent des valeurs. Donc au-delà de ça, c’est une course aux valeurs. Quel genre de valeurs va réussir à supplanter le monde ? Est-ce qu’on va avoir droit au modèle américain ? Est-ce que ça va être le modèle chinois ? Est-ce que ça va être le modèle israélien ? Est-ce que ça va être le modèle indien ? Le modèle japonais ? Et c’est assez intéressant de vraiment prendre de la hauteur.
Philippe Mabille : Justement, ça me paraît une question très importante ce que vous dites, vous parlez de guerre technologique, vous parlez éthique et droit. On aurait pu commencer par lui, mais on peut aussi terminer par lui. Quand on pense robot on pense évidemment à Isaac Asimov [4]. On pense évidemment aux quatre lois universelles, non pas les trois lois puisqu’il y en a une quatrième.
Laurence Devillers : Trois plus une.
Philippe Mabille : Les trois plus une, lois universelles de la robotique, parce qu’avec trois lois ça ne suffisait pas. Vous pouvez peut-être nous expliquer Laurence, pour ceux qui ne connaissent pas, quelles sont les règles et pourquoi est-ce qu’on peut imaginer la nécessité d’un droit universel pour la robotique ?
Laurence Devillers : Les trois lois d’Asimov qui sont tu ne tueras pas, tu ne porteras pas atteinte et la dernière loi qui était si compliquée qu’il l’a expliquée durant 50 ans à travers tous ses livres de science-fiction, étaient formidables dans des environnements de guerre.
Philippe Mabille : C’était historicisé dans la guerre froide.
Laurence Devillers : Dans le livre Les robots et les hommes, j’avais fait les règles, les commandements pour les robots sociaux, en interaction avec nous, ce qui n’était pas tellement le cas, c’était plus dans un environnement de guerre.

Je voudrais revenir sur la Communauté européenne et nos valeurs. Asimov, si vous voulez, c’est de la science-fiction et je crois que maintenant personne ne considère qu’on va faire émerger des lois d’Asimov, des règles, pour l’aspect juridique.
Philippe Mabille : Il a découvert quand même des lois universelles.
Laurence Devillers : Non, non ! L’aspect juridique est plus développé actuellement aux États-Unis, c’est là où c’est le plus développé. En Californie ils ont fait un droit sur les agents conversationnels pour dire « tout concepteur de ces agents doit faire en sorte que l’interactant comprenne que c’est une machine ou un humain ». Californie. Pourquoi on ne fait pas la même chose ? On est en train de pousser pour ça sur l’Europe.

Une deuxième chose que je viens d’entendre c’est sur la reconnaissance faciale que pourraient embarquer ces systèmes si tant qu’ils aient des yeux, enfin des caméras. Je fais partie des gens qui travaillent sur les émotions depuis les années 2000, là aussi, je peux vous dire que ce n’est pas générique comme technologie, que ça fait beaucoup d’erreurs et à l’heure actuelle, alors qu’on pourrait le dire de l’Europe, eh bien non, on préfère se complaire dans les mythes et les fantasmes et les États-Unis qui sont un peu plus pragmatiques que nous commencent à avancer sur ce terrain-là en disant, et il y a des tas de chercheurs qui relaient, « 30 % d’erreurs dans un système qui détecte vos émotions sur votre visage, à quoi ça sert ? » Ça va arriver à faire des systèmes qui ne seront pas fiables et qui ne seront sûrement pas utilisés.

Je termine. Pourquoi j’ai réagi tout à l’heure sur l’Europe ? Il y avait dans un des rapports qui n’existe plus maintenant parce que le groupe des experts fait un excellent travail, mais avant il y avait eu un rapport disant « peut-être que oui, donner une personnalité juridique aux robots serait intéressant ». Il y avait une espèce de lobbying autour de ça qui était une idée absolument terrible.

Je reviens maintenant sur le dernier point. Je fais partie d’un groupe qui est né du G7 qui s’appelle le GPAI, Global Partnership on Artificial Intelligence, qui est donc la volonté de faire au niveau mondial des règles éthiques ou juridiques, en tout cas pousser les expérimentations ensemble. On va retrouver 15 membres qui sont le Japon, l’Inde, la Corée du Sud, Singapour, l’Australie, mais également des pays d’Europe, l’Union européenne et l’Unesco. Il me semble que c’est par le biais de ce comité international qu’on va arriver à faire des choses.

Je résume juste. Ça a été lancé mi-juin, le kick-off est demain matin, je ne peux pas vous parler encore de ce qui sera dedans. On est 25 experts par groupe, il y a quatre sujets.

Le premier sujet ce sont les data, qu’est-ce qu’on en fait, la gouvernance de l’IA et l’éthique. Ces deux sujets sont portés par le Canada principalement parce que c’est l’accord entre Trudeau et Macron qui a fait émerger cette nouvelle idée de comité international.

En France on aura deux sujets, The futur of work avec des machines, avec de l’IA et je fais partie de ce groupe-là, donc je vais parler des robots et de la coopération humain-machine qu’il faut démystifier et comprendre comment on prend ses décisions. Système 1, système 2 ça vient d’un prix Nobel en économie. Il y a énormément de travaux qui sont faits pour mieux comprendre nos biais cognitifs et pourquoi on va réagir d’une certaine manière ou pas, pourquoi aussi on anthropomorphise ces machines.

Le quatrième sujet c’est l’innovation et la commercialisation, c’est-à-dire, en fait, toutes les règles de vérification des objets qu’on met trop vite sur le marché en ce moment, parce que le temps des startups n’est pas le temps du juridique. Et heureusement qu’il y a l’éthique en avant-scène, avant le juridique, pour essayer justement d’expérimenter, de comprendre, de voir où sont le lignes rouges à mettre. Et je pense que c’est quelque chose de très positif de penser qu’on arrive à mettre différents ensemble pays pour discuter de ces sujets. J’espère qu’on avancera dans cette recherche pour éviter effectivement toutes ces croyances un peu bigarrées qu’on voit partout.

Mais j‘adore Asimov par ailleurs.
Philippe Mabille : Il faudrait concilier la Silicon Valley et Hollywood ! D’accord.
Laurence Devillers : Non !
Serge Tisseron : Tout ça est effectivement très positif, mais il ne faut pas non plus donner l’impression aux gens qu’il y a des experts qui se penchent sur ces questions. Vous savez, on a trop souvent entendu « ne vous inquiétez pas, nous sommes en train de réfléchir à ces problèmes, dormez tranquillement bonnes gens, nous allons veiller à ce qu’il y ait des mesures législatives pour vous protéger. »

Je pense que déjà il faut que tous les parents qui achètent une enceinte connectée soient très informés de la manière dont elle peut prélever leurs données parfois sans qu’ils s’en rendent compte. Il faut qu’ils soient informés de la façon dont leurs enfants peuvent jouer avec ces enceintes et leur raconter des tas de choses que peut-être que les parents n’auraient pas trop envie qu’on leur raconte. Et aussi que les parents se soucient de la manière dont leurs enfants peuvent établir une relation privilégiée au fur et à mesure que ces machines deviendront plus performantes.
Philippe Mabille : Il faudra une éducation.
Laurence Devillers : Oui, il faut une éducation à ça.
Serge Tisseron : Si vous regardez les premières publicités, les trois publicités pour Alexa l’enceinte connectée d’Amazon, il y en une des trois des enfants passant leur journée avec pour seul compagnon leur enceinte connectée. Le père n’apparaît que le soir, au moment du coucher.
Laurence Devillers : Publicité mensongère.
Philippe Mabille : C’est quand même un élément de danger, parce que c’est qu’est-ce que c’est le robot ? C’est la propension de l’homme à la paresse quand même !
Laurence Devillers : On est d’accord, c’est tout à fait ça.
Philippe Mabille : Il va le remplacer dans les tâches humaines, donc cette paresse caractéristique à tous ou, en tout cas, cette facilité qu’on peut donner, il faut éduquer aux dangers que ça peut représenter notamment pour les nouvelles générations. Regardez les nouvelles générations, elles vont dire c’est formidable, on a un robot qui va faire le travail à notre place.
Laurence Devillers : D’autant plus qu’il y a 80 % des codeurs qui sont des hommes et qui ont fait ces machines, qui parlent avec des voix féminines. Je ne vous raconte pas les biais.
Philippe Mabille : Il y a des biais importants.
Serge Tisseron : Il faut accorer beaucoup d’importance, avant même que cette commission ait statué, pour informer sur le risque d’avoir des voix féminines majoritairement sur ces machines.
Laurence Devillers : C’est ce que je fais, c’est ce qu’on fait.
Serge Tisseron : C’est ce que vous faites, je sais que c’est ce que vous faites, mais il faut aussi en parler. Donc comme ce n’était pas dit je le dis, tout simplement.
Laurence Devillers : Je viens de le dire aussi.
Serge Tisseron : Il faut aussi informer sur le risque des enceintes connectées, ce n’est pas pour les enfants de moins de trois ans et même, je pense, avant six ans.
Laurence Devillers : Bien sûr. Serge Tisseron on est complètement d’accord.
Serge Tisseron : Pour ça, on n’a pas besoin que des commissions se soient réunies pendant des années, réunissant de nombreux pays, pour le dire dès aujourd’hui.
Laurence Devillers : C’est parce qu’on est paresseux ce qu’a dit.
Serge Tisseron : C’est pour ça qu’à l’Institut pour l’étude des relations homme-robots on a une campagne sur ces thèmes de manière à ce que les parents dès aujourd’hui se protègent de la manière dont ils peuvent se protéger, protègent leurs enfants comme ils peuvent les protéger.
Laurence Devillers : Je ne suis pas pour un État-providence, des règles et des experts qui décident pour tout monde, mais je ne suis pas non plus pour dire que c’est aux parents d’éduquer ; c’est à tout le monde de réagir dans cette jungle. Il y a une espèce de compromis à avoir, de milieu intelligent à avoir. Je suis plutôt positive en me disant que si on met toutes nos énergies non pas à faire peur mais à aller vers une construction autour de ces machines, que ça soit au niveau éthique, au niveau légal et au niveau inclusion. J’étais à ça hier : urgence des alliances, culture et science, culture et environnement et science. Il nous manque, en fait, des endroits où on fait participer tout le monde autour de sujets de société. Pourquoi on ne parle pas plus des robots ? Vous me parlez encore d’Asimov c’est pour ça que je réagissais comme ça. On devrait avoir toute une littérature, on commence en avoir mais c’est trop « essais scientifiques ». On devrait avoir du théâtre, on devrait avoir des lieux où des artistes s’expriment de plus en plus avec des robots pour faire comprendre ce que c’est, je pense que ça c’est essentiel. Il faut aller vers a culture de tous, l’inclusion et on apprendra mieux d’ailleurs quelles sont les limites à mettre.
Serge Tisseron : On appelle ça le débat citoyen. En effet on en fait, une série de débats citoyens.
Laurence Devillers : Ce n’est pas que le débat citoyen.
Serge Tisseron : C’est un des aspects : beaucoup de manifestations artistiques aujourd’hui autour de ces thèmes, beaucoup de débat dans les écoles, tout cela est très bien.

En tout cas je crois qu’il ne faut lâcher aucun des bouts de la lutte. En effet c’est bien que les législateurs réfléchissent, mais il ne faut pas non plus attendre qu’une législation soit arrivée pour mettre les gens en garde contre un certain nombre de risques que ces machines présentent.
Philippe Mabille : Serge Tisseron, je vous entends, mais regardez comment nos enfants y compris les plus jeunes, c’est vrai que ce sont les parents qui leur mettent ça dans les mains, se sont appropriés le smartphone qui est quand même le principal robot qu’on a dans la poche. Imaginez ce que ça peut donner si vous vous projetez, dans quel monde technologique vont vivre les enfants de nos enfants. On voit bien que ce qui nous paraît aujourd’hui un danger, peut-être demain leur paraîtra tout simplement naturel, ils auront l’habitude, je suis d’accord avec vous sur l’éducation, mais ils auront été formés et informés.
Serge Tisseron : Il y a un certain nombre de paliers dans l’évolution de l’enfant. On sait que la théorie de l’esprit n’apparaît qu’aux alentours de quatre ans et demi. Or aujourd’hui Google et Amazon font campagne pour leurs enceintes connectées [à destination des enfants très jeunes, Note de l’orateur].
Philippe Mabille : Ce que vous dites sur la technologie c’est la même chose que l’effet psychologique de la télévision à la maison.
Serge Tisseron : Attendez ! Actuellement Amazon fait campagne aux États-Unis sur le thème de, ouvrez les guillemets, « Parents, les experts vous ont convaincus que les écrans sont nocifs pour vos enfants, achetez-leur plutôt une enceinte connectée », fin de la citation.
Laurence Devillers : Bravo !
Serge Tisseron : C’est une publicité terriblement mensongère. Les enceintes connectées sont aussi dangereuses pour les jeunes enfants que le sont les écrans et même plus parce qu’elles capturent un grand nombre de données sans qu’ils en comprennent les tenants et les aboutissants. La pire des situations étant un programme sur un écran qui invite l’enfant à interagir avec une enceinte connectée, de telle façon que l’enfant est est transformé en interface entre deux machines. Il ne faut pas sous-estimer l’importance de ces risques qui existent d’ores et déjà.
Philippe Mabille : On ne les sous-estime pas sinon on n’aurait pas fait cette émission.
Laurence Devillers : Bravo d’ailleurs.
Philippe Mabille : Est-ce qu’on peut écouter là-dessus, ça sera peut-être un mot de conclusion, Ysens de France, y compris, je ne sais pas si vous avez envie de réagir sur ce que vous voulez, moi je trouve que cet aspect générationnel, c’est-à-dire si on projette, au-delà du militaire, nos vies et les vies de nos enfants avec des robots, comment vous voyez les choses et qu’est-ce que ça va nécessiter comme garde-fous ou pas ?
Ysens de France : Je vais rebondir sur ce que dit Serge Tisseron sur l’éducation auprès des jeunes. En fait, ce que je constate aujourd’hui c’est que dans la société il y a aussi une défiance envers le milieu scientifique, envers la science en général.
Laurence Devillers : Mais non !
Ysens de France : Un peu quand même !
Laurence Devillers : Ils ont fait des statistiques, des tas de questions comme ça au CNRS à l’Inria, ce n’est pas vrai, ce sont des bruits de couloir.
Philippe Mabille : Est-ce qu’on peut quand même laisser terminer Ysens et après vous réagirez.
Ysens de France : Si ce sont des bruits de couloir, s’ils ont existé, ça veut dire qu’on s’est posé une question. Ça veut dire finalement que soit les scientifiques ne sont pas accessibles et qu’il y a effectivement un vrai effort de traduction, soit en fait, tout simplement, que la société en a marre qu’on lui assène des vérités tout le temps, qu’on lui dise que les jeux vidéos ce n’est pas bien, c’est interdit, le robot attention. Plutôt que d’asséner des vérités, je pense qu’il faut plutôt soulever des interrogations et c’est vrai qu’en soulevant ces interrogations ça oblige les gens à y répondre par eux-mêmes et dans le processus normal de réfléchir aux tenants et aux aboutissants.

C’est pour ça que je suis d’accord aussi avec vous, Laurence Devillers, sur le format de culture. Effectivement, utiliser des pièces de théâtre ou, imaginons, utiliser aussi le sport pour faire des compétitions homme-robot, pour permettre en fait à chacun de s’engager sur ces questions-là, me semble aujourd’hui une des priorités.

C’est vraiment la notion d’expérimentation qu’il faut mettre en valeur qui est une vraie priorité. Grâce à ça, grâce à cette expérimentation, grâce aussi à l’accessibilité des scientifiques, ça va être un moyen de les rendre plus accessibles, de traduire leur parole, eh bien on arrivera, nous juristes, ensuite, à déterminer quelle sera a meilleure qualification juridique pour ces technologies.
Laurence Devillers : 100 % d’accord. C’est tout à fait vrai.
Ysens de France : Finalement il faut poser les questions, il faut que toutes les réflexions soient un peu transverses, qu’il y ait aussi des hubs de réflexion. Typiquement on a des scientifiques, on a des industriels.
Laurence Devillers : Lisez Télérama. C’est exactement ça, j’ai trouvé brillant de faire ça.
Ysens de France : C’est exactement ça. On ne peut plus réfléchir chacun de son côté. Il faut aussi utiliser les outils de communication qu’on nous donne et qui sensibilisent les jeunes : le sport, la culture, le format théâtre bien évidemment, mais il y a encore plein de manières de sensibiliser les jeunes. En fait qu’on travaille sur ces façons.
Philippe Mabille : On arrive un peu au terme de la discussion.

Une chose qui réconciliera peut-être tout le monde, ce qui est à peu près certain c’est que les robots vont arriver dans nos vies, ils auront des aspects positifs – les personnes âgées, isolées, on l’a bien vu par exemple dans les Ehpad, on a essayé de leur apporter des solutions avec des connectivités avec leurs familles ; il y a beaucoup de pays qui sont vieillissants, le Japon, avec effectivement l’utilisation de robots. Il y a des robots qui peuvent être aussi des aides, des auxiliaires pour l’humain. Il y a quand même beaucoup de choses positives avec l’arrivée sinon de la robotique en tout cas de ces technologies.

Pour terminer en beauté ce podcast pour la partie vidéo, un mot ou un geste, prouvez-moi que nous n’êtes pas un robot. Ysens.
Ysens de France : Atchoum !
Laurence Devillers : Non, Nao fait ça. Il fait ça avec des enfants.
Ysens de France : Alors là ! Mince ! Boire du vin, je ne sais pas si ça passe à la vidéo, mais boire du vin.
Philippe Mabille : Très bien ! Laurence, prouvez-moi que vous n’êtes pas un robot.
Laurence Devillers : On a déjà pris un verre d’eau. Vous voulez que je mange une pomme, j’aime bien manger une pomme et dire que ça a bon goût, parce que le robot lui !
Philippe Mabille : Il n’a pas encore le goût. Serge, vous êtes un robot ?
Serge Tisseron : Je vous laisse avec cette question !
Philippe Mabille : Voilà ! Nous allons nous quitter là-dessus. Regardez, j’ai des lunettes parce que je commence à prendre un peu d’âge, donc je ne vois rien. J’essaye de vous prouver que je suis un robot, sans mes lunettes de vue je n’aurais pas pu conduire cette interview.
Laurence Devillers : En tout cas ce fut un plaisir.
Philippe Mabille : Merci beaucoup à tous les trois.
Serge Tisseron : Merci à vous.
Laurence Devillers : Merci Serge. Merci Ysens, on reste en contact.
Philippe Mabille : On vous suivra sur La Tribune très bientôt.
Laurence Devillers : À très bientôt.
Serge Tisseron : Au revoir.
Laurence Devillers : Au revoir.

Références

Avertissement : Transcription réalisée par nos soins, fidèle aux propos des intervenant⋅e⋅s mais rendant le discours fluide. Les positions exprimées sont celles des personnes qui interviennent et ne rejoignent pas nécessairement celles de l'April, qui ne sera en aucun cas tenue responsable de leurs propos.