Homme-Machine : émotion, illusion ; et l’éthique ? - Laurence Devillers

Titre :
Homme-Machine : émotion, illusion ; et l’éthique ?
Intervenante :
Laurence Devillers
Lieu :
TEDxESSECBusinessSchool
Date :
juillet 2019
Durée :
10 min 18
Visualiser la vidéo
Licence de la transcription :
Verbatim
Illustration :
Portrait de Laurence Devillers - Licence Creative Commons Alike 4.0 International
NB :
transcription réalisée par nos soins, fidèle aux propos des intervenant·e·s mais rendant le discours fluide.

Les positions exprimées sont celles des personnes qui interviennent et ne rejoignent pas nécessairement celles de l’April, qui ne sera en aucun cas tenue responsable de leurs propos.

Transcription

Merci. Bonsoir.

Le face-à-face sera bientôt avec des machines qu’on appelle des robots. Qu’est-ce que c’est qu’un robot ? C’est une machine qui a au moins trois fonctionnalités :
elle va percevoir son environnement. Elle le perçoit grâce à une caméra, grâce à des micros, grâce à des senseurs. Grâce à ces différentes captures de signaux, cette machine va prendre des décisions et va enfin actionner ses bras ou ses jambes et faire des actions en tout cas dans notre vie réelle.

Un robot ce n’est pas la même chose que ce qu’on appelait un robot dans les années 50, c’est tout sauf déterministe puisqu’il a une perception de l’environnement, il peut faire des choses qui n’étaient pas prévues ou qui n’étaient directement liées en fait, qui n’étaient pas programmées comme cela.
Qu’est-ce qu’on met dans ces robots ? On met beaucoup de modules d’intelligence artificielle.

L’intelligence artificielle c’est un oxymore : « intelligence » c’est de l’humain et « artificielle » c’est de l’artefact, c’est de la machine. Je parle souvent d’« imitation artificielle ». On a développé énormément d’anxiété autour de ces robots qui vont prendre notre travail, qui vont arriver autour de nous pour différentes tâches.

C’est vrai que les premiers robots sont là pour nous aider pour des tâches qui sont difficiles, pénibles, etc. Les robots qu’on est en train de faire en ce moment sont plutôt sur des tâches intellectuelles. On va même jusqu’à des robots qui pourraient faire de l’interaction sociale avec nous, donc détecter nos émotions et être dans cet univers.
Ce qui génère aussi de l’anxiété chez nous c’est tout cet environnement de science-fiction qui a précédé en fait la robotique. Le mot « robot » a été prononcé la première fois dans une pièce de théâtre qui a été donnée en 1920, le scénario était fait Karel Čapek [1]. Le mot robot vient de Robota, serviteur, esclave, vient donc du slave.

On a vu différents films qui marquent les esprits, qui font qu’on a l’impression que ces machines vont être très intelligentes, vont avoir une conscience, vont avoir des émotions. Si vous vous rappelez le film Her qu’on voit en bas, la personne s’attache à une machine et la machine s’attache aussi à l’humain et un seul coup, dans le film, il y a un point essentiel qui arrive où la machine dit qu’elle est amoureuse de x milliers de personnes. À ce moment-là il y a une espèce de rupture, de dissymétrie et l’humain se dit « qu’est-ce que c’est que cette relation ? »

Real Humans était intéressant aussi, c’est une série télévisée en Suède, on voyait des robots dans différentes utilités de la vie de tous les jours que ce soit pour aider les enfants pour leurs devoirs ou pour aider des personnes âgées ou encore comme robots sexuels.

On va voir de plus en plus ces images autour de nous. Est-ce qu’on est encore dans la fiction ou pas ? J’avais mis aussi l’image de HAL, cette intelligence artificielle embarquée dans un vaisseau, qui parlait et qui, à la fin, quand la personne le débranche, dit : « Je sens ma conscience s’en aller ».

Ces émotions sont derrière toutes ces machines, ça crée aussi de l’anxiété.

Les mythes en créent aussi. Derrière on a Frankenstein et le Golem.

On fait des robots, on fait ces machines qui, d’un seul coup, deviennent des machines qui ont des intentions et qui nous aident, et qui vont se rebeller contre leur créateur.
Qu’est-ce qu’on va trouver dans la société à l’heure actuelle ? Normalement un robot c’est un objet qui va bouger, mais on a tendance à parler aussi de robots pour des logiciels.

Les chatbots, agents conversationnels, sont par exemple Google Home, Alexa d’Amazon ; je ne sais pas si vous en avez, en tout cas aux États-Unis ça se développe énormément, il y a des foyers où il y a six Google Home, un par pièce, donc ça prend une importance incroyable. On va voir différentes sortes de machines apparaître, donc c’est multiforme et aussi des robots qui nous copient beaucoup. On appelle ça des géminoides, des jumeaux robotiques de nous-même, comme le professeur Ishiguro [2] avec son jumeau robotique qu’on voit dans l’image en haut.

Donc ces machines qui essaient de nous ressembler vont porter confusion, d’autant plus que lorsque cette machine s’adresse à nous, nous dit quelque chose avec un peu d’empathie, même si c’est de la fake empathie, eh bien on va avoir tendance à anthropomorphiser, à prêter à ces machines des capacités humaines.

Pour vous dire, j’ai écrit un livre qui s’appelle Des Robots et des Hommes – Mythes, fantasmes et réalité, j’ai eu à répondre au courrier des lectrices et des lecteurs et une dame m’a dit : « J’ai un robot chez moi, c’est un robot aspirateur. Quand il s’arrête au milieu de mon salon, que pense-t-il ? » Je n’ai pas imaginé une réponse satisfaisante sans doute, mais vous voyez que le niveau de culture et de compréhension de ces machines a besoin d’être renforcé.
Voix off du robot Nao : Bonjour. Je suis sensible aux émotions que tu exprimes dans la voix. Grâce à elles, je pourrais déterminer progressivement ton profil émotionnel et adapter mon comportement. Plus tu me parleras et plus le profil se stabilisera.
Voix off de l’interlocutrice : D’accord. C’est une bonne nouvelle ça Nao.
Voix off du robot Nao : Tu as l’air assez sûr de toi. Globalement assez satisfait, assez expansif et tu as l’air assez posé, j’adopte donc un comportement amical.
Laurence Devillers : Voilà ce que je fais dans mon laboratoire.
Voix off du robot Nao : Tu n’as pas l’air pas sûr de toi, globalement très insatisfait, très réservé et tu as l’air très posé. J’adopte donc un comportement directif.
Laurence Devillers : On travaille sur la tessiture de la voix, la prosodie, le timbre de la voix, donc la hauteur du ton, le rythme, pour extraire en fait des expressivités émotionnelles. Évidement ce ne sont pas nos émotions qui sont cachées, on ne va détecter que l’expressivité.

Il y a beaucoup d’autres travaux en multimodalité sur l’aspect facial, sur les actions, etc., qu’on va pouvoir détecter aussi. Pourquoi on fait ça ? On fait ça pour adapter le système à chaque personne et faire qu’il va répondre différemment.
Ces machines sont tout sauf émotionnelles réellement, elles imitent les émotions. Il n’y a pas de sentiments, il n’y a pas d’émotion, il n’y a pas d’intention, il n’y a pas de désir, pas de plaisir et pas de conatus au sens de Spinoza. Il n’y a pas d’équilibre, de volonté de faire quelque chose. Ce ne sont que des imitations que l’humain a faites.
Par contre, comment va-t-on réagir en face de ces machines si, au quotidien, on a des machines autour de nous qui jouent des émotions, avec lesquelles on sera en interaction ? Est-ce qu’elles vont nous isoler des autres ? Est-ce qu’on sera dépendants d’elles ? Regardez au Japon. Cette personne vit avec une machine. C’est un hologramme, ce n’est pas un robot à proprement parler parce qu’il ne bouge pas, mais c’est un chatbot donc un agent conversationnel. C’est cette espèce de fée clochette qui pourrait ressembler à un Tamagotchi, si vous vous rappelez un peu ces systèmes. Elle est là pour lui. Elle prend soin de la maison et elle continue toute la journée. Omniprésence de cet objet, donc il y a une espèce d’attachement. On voit que la personne dit « je vais rentrer à la maison ». L’objet dit « tu me manques, reviens ».

En fait, ces petits scénarios correspondent finalement à une interaction dans le vide puisqu’il n’y a personne en face, il y a une machine. On peut imaginer isoler les gens avec ces objets chez eux et, quand je dis qu’il y a effectivement beaucoup de ces objets, les Google Home et les Alexa d’Amazon, qui sont achetés à l’heure actuelle aux États-Unis et qu’en France ça commence à démarrer aussi, il faut faire attention. Ces machines enregistrent nos conversations et notre intimité chez nous et vont les utiliser pour créer les nouveaux modèles qui vont pouvoir être à nouveau vendus sous d’autres formes, peut-être avec d’autres objets. Donc il faut faire très attention à cette manipulation possible.
Je travaille aussi depuis sur l’incitation à faire. Comment une machine comme ça qui détecte dans quel état d’esprit vous êtes peut vous influencer, vous pousser à acheter des choses que vous n’auriez peut-être pas envie d’acheter, vous pousser à choisir différentes stratégies dans votre vie qui seront très intrusives. On n’en est pas encore tout à fait là, mais il faut faire très attention.
Les arrivées de ces machines sont à la fois bénéfiques pour nous et engendrent un certain nombre de risques, ce qui me fait parler de plus en plus d’éthique. En tout cas, si ce n’est pas de régulation forte, c’est un besoin de comprendre. On a besoin dans la société d’être i-Ready avant de pouvoir utiliser ces machines. Elles vont permettre de mieux comprendre nos biais cognitifs, pourquoi on réagit – par paresse, pour faire comme le voisin – et ces émotions qui nous animent qui font qu’on va raisonner par intuition sur le système 1 comme le décrit Kahneman [3], prix Nobel d’économie en 2002. Il décrit deux systèmes : le système 1 qui est intuitif qui est très rapide, qui nous permet de survivre qui est là depuis très longtemps et le système 2, cognitif, qui permet de réguler. Allons vers un système 3 de métacognition où on va pouvoir être conscient de cette intuition, de cette créativité qu’on peut avoir, tout en ayant compris, finalement, qu’il y a d’autres buts. C’est un choix qu’il faut garder. L’intuition c’est excellent pour la créativité, l’imagination. Dans certains aspects on réagit plus vite avec cette façon d’appréhender les choses et il ne faut surtout pas qu’on devienne des machines. Par contre, il faut comprendre quelles actions derrière sont déterminées, finalement, par cette réaction très rapide.
Je finirai par un point très positif. J’ai utilisé ces machines pour aller faire des enregistrements avec des personnes âgées dans des Ehpad ou à l’hôpital Broca avec des gérontologues et des psychologues. On peut aider, assister, renforcer, les gens qui perdent la mémoire, qui perdent le langage, grâce à ces machines. On a vu aussi des expériences extrêmement intéressantes avec des enfants autistes. Donc il faut absolument que l’on arrive à être suffisamment conscients de ce que font ces machines pour les utiliser au mieux dans la vie de tous les jours.
Dernier point. Attention à une chose ! En ce moment ces machines sont faites majoritairement par des hommes, 20 % de femmes font de l’IA. 80 % de ces machines sont faites par des hommes. 80 % des machines qui sont faites ont des noms féminins : Alexa, Samantha, Nadine, etc., ont des corps de femme jeune, des voix jeunes et on va être entourés de ces machines qui simulent finalement des servantes, des assistantes et des rôles subalternes. Je pense que sur la représentation des femmes il y a urgence à dire qu’il faut faire des machines masculines et féminines, en tout cas, on les genre forcément, donc il faudra faire attention à cela. J’encourage les jeunes femmes à venir dans ce domaine qui est pluridisciplinaire, on fait de l’informatique, mais on ne fait pas que ça. En tout cas la modélisation des émotions sur machine c’est quelque chose qui demande de s’intéresser à la psychologie, à la philosophie et à beaucoup d’autres choses. Venez sur ces domaines !
[Applaudissements]

Références

Avertissement : Transcription réalisée par nos soins, fidèle aux propos des intervenant⋅e⋅s mais rendant le discours fluide. Les positions exprimées sont celles des personnes qui interviennent et ne rejoignent pas nécessairement celles de l'April, qui ne sera en aucun cas tenue responsable de leurs propos.