L’assistant personnel, un meilleur ami qui vous veut du bien - Guillaume Champeau

Titre :
L’assistant personnel, un meilleur ami qui vous veut du bien ?
Intervenant :
Guillaume Champeau - Qwant
Lieu :
Web2day - Nantes
Date :
juin 2018
Durée :
33 min 40
Visualiser la vidéo
Licence de la transcription :
Verbatim
Illustration :
texte affiché sur l’une des diapositives du diaporama support de la présentation
transcription réalisée par nos soins.

Les positions exprimées sont celles des personnes qui interviennent et ne rejoignent pas forcément celles de l’April.

Description

Les enceintes intelligentes et autres assistants personnels prennent une place croissance dans nos vies, et nous rendent beaucoup de services. Mais ils brouillent de plus en plus la frontière entre l’homme et la machine, entre le maître et l’esclave. Cette conférence invitera à réfléchir aux questions éthiques posées par les assistants, en se projetant sur les conséquences des choix technologiques et d’usages que nous faisons.

Transcription

Bonjour tout le monde. Je suis évidemment ravi d’être ici ; c’est presque une habitude maintenant d’être au Web2day depuis des années, encore merci à Adrien [Poggetti] et à toute l’équipe de me donner l’opportunité de vous parler. Je suis particulièrement ravi d’intervenir après Axelle Lemaire parce que je l’ai entendue dans les coulisses plusieurs fois prononcer le mot éthique. En tant que directeur de l’éthique de Qwant et ayant suivi un peu le fil rouge du Web2day qui, depuis des années, nous parle d’éthique dans le numérique, évidemment c’est un sujet qui me tient particulièrement à cœur et aujourd’hui je suis là pour vous parler justement de questions éthiques mais qui concernent particulièrement la question des assistants personnels. J’ai la déformation d’être juriste de formation et, en général, quand on donne un cours de droit, on commence par définir. Je vous promets, je n’ai pas fait de droit dans la présentation, vous ne partez pas tout de suite.
Pour définir le sujet, un assistant personnel c’est quoi ?
Dispositif humain-machine dont l’objectif est de faire gagner du temps en réalisant des tâches à la place d’un utilisateur et en s’adaptant à ses besoins. Et en général, quand on parlait d’assistant dans le temps, c’était ça, c’était une assistante qui faisait les choses que lui demandait le patron, qui ne la regardait même pas en fait ; elle tapait ses courriers, elle prenait ses rendez-vous et puis c’était ça ; c’était une assistante humaine, de temps en temps un assistant mais malheureusement c’était beaucoup plus souvent une assistante au service d’un patron. Et quand on parlait d’éthique pour les assistantes c’était, finalement, une non-question ; c’était le droit général, on applique le droit du travail dans la relation patron-salarié, on ne peut pas virer normalement son assistante du jour au lendemain ou alors avec des indemnités, etc. On essaye d’être poli avec elle, de lui dire bonjour le matin, de la remercier quand même quand elle vous donne le texte que vous lui avez demandé de taper. Et puis, en termes de déontologie, c’est à double sens, c’est-à-dire que le patron vis-à-vis de son salarié doit suivre des règles, mais l’assistant ou l’assistante doit notamment respecter le secret professionnel et donc, quand on vous demande de taper un courrier, le contenu du courrier ne doit pas sortir de l’entreprise ; il peut y avoir des choses dont l’employé a connaissance qui ne doivent pas partir en dehors du travail.
Et puis il y a une première évolution, voire révolution, c’est que, dans les années 80, on a commencé à mettre des PC sur les bureaux des cadres qui avaient leurs assistantes et à leur demander d’écrire eux-mêmes leurs courriers. Vous pouvez vous dire pourquoi, finalement, ils ne le faisaient pas déjà avant avec les machines à écrire, etc. Je ne sais pas si vous avez déjà utilisé une machine à écrire ; moi ça m’est arrivé il y a très longtemps, c’est extrêmement compliqué d’écrire un courrier sur une machine à écrire à l’ancienne parce que vous n’avez pas le bouton « del », vous savez, sur un ordinateur le bouton delete qui vous permet de corriger les choses que vous avez faites. En fait, dès que vous faites une faute de frappe, soit vous mettez du blanco, c’est extrêmement compliqué, soit il faut carrément tout refaire. Donc faire un courrier où il n’y a pas de faute d’orthographe, où il n’y a aucune erreur pendant la saisie et qui est correctement mis en page, c’est un vrai travail compliqué ; il fallait des professionnels et donc on confiait ça à des secrétaires qui, en même temps, pouvaient donc soit vous taper des courriers soit prendre des rendez-vous, ce genre de choses.
Avec l’ordinateur qu’on a posé sur le bureau, avec les logiciels comme Word, on a pu, d’un seul coup, sans avoir une formation particulière, se mettre à créer nous-mêmes nos propres contenus, nos propres lettres et à corriger quand il y avait besoin ; donc ça a, évidemment, commencé à changer la relation avec l’assistant. Mais la décision restait prise par un humain ; c’est-à-dire c’est l’humain qui décide ce qu’on met dans le courrier ; c’est l’humain qui décide quel rendez-vous on prend, à quelle heure, etc.
Puis progressivement, années 90 début des années 2000, on a commencé à laisser la machine prendre des décisions à la place de l’humain, à la place du dirigeant ou à la place du cadre. C’est prendre tous les courriers que vous recevez – maintenant on ne parle plus de courriers papier, on parle de mails – donc on peut robotiser, demander à une machine de consulter tous les courriers et éliminer tous ceux qu’on n’a pas voulus ; ce sont les fameux spams. Aujourd’hui c’est devenu extrêmement classique, mais il faut bien avoir en tête que quand on fait un anti-spams c’est lire le contenu des mails, regarder qui l’envoie, regarder avec quelle adresse IP ça a été envoyé et essayer, par des méthodes statistiques diverses et variées, d’éliminer, de faire un tri pour vous, de mettre de côté uniquement les courriers qui sont importants, ceux auxquels vous êtes susceptible de répondre, alors que tous les courriers publicitaires qui ne vous intéresseront pas sont mis de côté. Ça c’est une machine qui prend cette décision à votre place.
Et puis je crois que Google a été le premier ou un des premiers à, une fois que l’on a mis les spams de côté, également regarder le reste des courriers qui sont normalement adressés personnellement à vous pour choisir ceux qui vont être les plus importants, ceux qui vont vraiment vous intéresser pour que vous voyiez, quand vous ouvrez Gmail ou une autre messagerie d’un autre fournisseur, uniquement, au départ, les mails prioritaires. Donc là, on va lire le contenu et on va essayer de déterminer à quels courriers vous devez répondre d’abord ou quels courriers vous devez lire d’abord par rapport aux autres. Ça, ce sont des décisions, normalement, que prenaient un assistant, que vous preniez vous-même et qui, aujourd’hui, sont prises par une machine.
Et pour faire ça, il faut laisser la machine collecter des données, des données personnelles et des données non personnelles ; il faut laisser la machine collecter énormément d’informations. Et il faut doter la machine d’une intelligence. Je ne vais pas rentrer là dans le débat intelligence artificielle, algorithme, à quel moment un algorithme devient une intelligence artificielle ; je suis sûr qu’il y a énormément de conférences sur le sujet soit cette année, soit les années d’avant qui ont été faites au Web2day, qui ont élaboré le sujet bien mieux que moi, mais admettons le mot intelligence artificielle ; pour que la machine réalise des tâches à notre place, il faut qu’elle ait un minimum d’intelligence. Et cette intelligence va servir à rendre des services et ces services peuvent être de plein de natures.
À quoi ça sert concrètement un assistant personnel ?
Trier des mails, j’en ai parlé, mais moi je fais rentrer dans la catégorie des assistants des choses auxquelles on ne pense pas forcément. Par exemple quand vous allez sur Facebook, vous regardez votre mur Facebook et les messages que vous avez de vos amis, 90-95 % des messages, en fait, ont été mis de côté. Vous ne voyez plus que les 5 % de messages qu’une machine a triés pour vous, parce que vous ne voyez que les messages de ceux qui potentiellement vous intéressent soit pour le contenu, soit pour l’émetteur ou qui intéressent Facebook pour une raison plutôt commerciale ou parce qu’on a détecté que c’était ce type de contenus qui vous faisait rester sur la plateforme. Ça c’est une forme d’assistance.
Découvrir de la musique : quand vous prenez Deezer, que vous mettez Flow qui vous fait découvrir des morceaux de musique auxquels vous n’êtes pas abonné, c’est une forme d’assistance ; on va, pour vous, aller découvrir de la musique qui peut vous intéresser. C’est une notion étendue de l’assistance, mais il y a un peu la même idée.
Si vous utilisez un GPS, entre guillemets « intelligent », qui va regarder le trafic et qui est capable de vous dire, quand vous avez l’objectif d’arriver à 15 heures à tel endroit, « il faut que vous partiez dans dix minutes » c’est une fonction d’assistant.
Vous donner les infos quand vous lui demandez « qu’est-ce qui se passe aujourd’hui dans l’actualité » et vous utilisez un service qui va trier les informations pour vous, faire remonter les plus importantes, ça c’est aussi de l’assistance.
Rester en bonne santé, ça c’est quand vous avez une montre connectée qui prend votre capteur santé ou qui compte le nombre de pas, qui va vous dire « aujourd’hui tu n’as fait que 2000 pas, il faudrait que tu te bouges un peu » ou « bravo ! Aujourd’hui tu as fait tes 10 000 pas, c’est bien. » Ça c’est une forme d’assistance aussi.
Organiser votre emploi du temps, gérer votre domotique si vous demandez à ce que, quand vous quittez le bureau, ça mette le chauffage chez vous l’hiver automatiquement sans que vous n’ayez rien à faire, c’est de l’assistance.
Trier vos photos parce qu’on va reconnaître tel ou tel visage et que vous allez pouvoir mettre de côté, automatiquement, toutes les photos de vos enfants ou toutes les photos de vos vacances parce qu’on a détecté l’endroit, la date, etc., c’est pareil, c’est une forme d’assistance.
YouTube qui vous conseille des vidéos ; Netflix qui vous conseille des vidéos ; tout ça c’est prendre des décisions, à votre place, de tri ou en tout cas vous aider, vous accompagner dans les tâches de tri qu’autrement vous auriez dû faire manuellement.
Et, pour réaliser ça, il faut collecter de plus en plus de données personnelles et, comme je vous disais, c’est un peu un fil rouge au Web2day, c’est de parler de cette notion des données personnelles, c’est ça qui m’a amené chez Qwant [1] et, il y a quelques années, j’ai présenté ces slides-là pour expliquer qu’en fait de plus en plus on utilise des services en ligne qui font plein de services, qui, en général, sont centralisés sur les mêmes serveurs, qui font qu’on clone notre cerveau en lui donnant énormément d’informations sur nous, sur nos habitudes, sur à qui on écrit, sur ce qu’on consulte sur Internet, sur ce qu’on dit, à qui, etc. Et tout ça, on en fait un cerveau qu’on peut exploiter à des fins d’information ou pour créer des assistants qui vont vous aider vous, personnellement, en fonction de qui vous êtes, de ce qui vous intéresse sur Internet.
Mais je ne suis pas venu aujourd’hui pour vous parler spécifiquement des données personnelles, plutôt pour vous parler de problèmes éthiques que peut poser une tendance qu’on voit de plus en plus se développer, qui est la suppression des interfaces graphiques dans les assistants personnels.
Donc ce genre de petit gadget qui s’appelle Google Home, qui s’appelle Amazon Alexa, HomePod chez Apple et puis vous en avez d’autres et vous en aurez d’autres, il y en aura de plus en plus, où il n’y a plus d’écran ; c’est uniquement un micro pour que vous puissiez lui parler, une caméra, éventuellement, qui vous regarde et un speaker qui va, lui, vous parler et donc vous allez communiquer comme ça vocalement avec une machine.
C’est, si vous avez Windows chez vous, Windows 10, vous avez Cortana qui le fait aussi, qui est directement intégré dans Windows ; c’est donc votre assistant personnel vocal.
Les montres Apple Wach ou autres c’est pareil ; vous avez Siri sur l’Apple Watch, vous pouvez lui parler, vous parlez à votre montre ; il y a une interface visuelle, mais globalement, tout est fait pour que vous n’ayez pas besoin de toucher votre montre
Et puis on commence à voir ce genre de choses avec, pareil chez Apple, l’écouteur AirPods sans fil qui est connecté directement à Siri auquel vous pouvez parler, normalement naturellement ce qui pourrait aboutir, pour ceux qui connaissent, au film Her où on voit cet écouteur qui ressemble quand même un peu étrangement à ce qu’on est en train de commencer à voir avec Apple où on peut parler directement à une intelligence artificielle.
Donc ça, ça va poser des nouvelles questions éthiques. J’entendais Axelle Lemaire vous dire « il faut que les entreprises prennent conscience et les organisations globalement des questions éthiques posées par le numérique et qu’il y ait une réflexion » ; ça c’est essentiel. Mais moi je suis là pour dire aussi vous, en tant qu’utilisateur, réfléchissez à l’impact que ça a quand vous utilisez ce genre d’assistant et qu’est-ce qu’on peut en faire quand on est une entreprise qui vous fournit ce type de service d’assistance.
Je ne vais pas, comme je disais, m’étendre sur les questions de sécurité et de vie privée ; vous avez bien compris : quand vous avez une enceinte connectée chez vous, ça vous écoute 24 heures sur 24. Techniquement pour essayer de vous garantir votre vie privée, votre confidentialité, ça fonctionne quand vous déclenchez, vous prononcez une phrase clé type « OK Google, Alexa », etc. et quand ça reconnaît ce trigger, ça envoie ce que vous dites à un serveur qui va analyser ce que vous dites pour pouvoir vous répondre et ça stocke ce que vous lui avez demandé dans un historique. Donc la machine a tout l’historique de tout ce que vous lui avez dit, a même l’enregistrement vocal qui est conservé, etc.
Si vous ajoutez une caméra, ça vous filme aussi 24 heures sur 24 et donc là il faut avoir confiance dans le système du fournisseur pour que, effectivement, ça ne vous écoute que au moment où vous déclenchez ce trigger et donc vous savez que c’est vous qui avez demandé à ce que des données soient envoyées.
On sait que, malheureusement, ça peut arriver que ce soit bugué. Un journaliste, il y a quelques semaines, s’est rendu compte qu’il avait 24 heures d’enregistrement qui avaient été envoyées vers les serveurs, je crois d’Amazon, parce que la machine avait cru reconnaître le fameux trigger et, en fait, elle s’était complètement trompée ; et même, elle avait cru reconnaître une séquence d’instructions qui fait que toute la conversation a été envoyée à un ami. Éventuellement, si vous parlez de cet ami en mal, ça peut poser des problèmes !
Mais moi, les questions qui m’intéressent le plus aujourd’hui c’est quand vous posez une question à votre assistant personnel, il vous fournit une réponse ; il vous fournit une réponse. Mais laquelle ? Quand vous lui demandez le temps qu’il fait à Nantes et qu’on vous répond « il fait 22 degrés, il fait beau, etc. », ce n’est pas trop un problème. Si vous lui demandez qui a inventé la fourchette, il va vous répondre qui a inventé la fourchette ; il va vous donner un nom, éventuellement il va vous donner une date, etc. ; qu’est-ce qui vous dit que c’est vrai ? Vous faites confiance à la machine. Vous dites « il y a des gens qui ont réfléchi, qui ont été chercher l’information », techniquement aujourd’hui c’est sur Wikipédia, on va chercher sur Wikipédia qui a inventé la fourchette et on va vous dire qui a inventé la fourchette ; et vous perdez le réflexe d’aller vérifier les choses.
Quand vous allez demander « qu’est-ce qui se passe aujourd’hui au Moyen-Orient » et qu’on vous donne une réponse ; une réponse c’est un point de vue. Quand vous demandez « aujourd’hui qu’est-ce qui se passe en Russie » et qu’on vous dit « c’est la Coupe du monde », mais peut-être qu’on ne vous parle pas de ce qui se passe autrement, ailleurs, c’est une réponse à la question que vous avez posée.
Alors que quand vous utilisez un moteur de recherche avec une interface graphique comme on l’a fait depuis au moins 20 ans, quand vous posez une question à votre moteur de recherche, vous voyez, vous avez conscience qu’il y a une multitude de résultats possibles. Donc si vous consultez le premier résultat, éventuellement vous allez aussi consulter le deuxième, le troisième, qui vont vous donner d’autres points de vue, éventuellement d’autres informations qui vous diront que l’inventeur de la fourchette, en fait, ce n’est pas machin, c’est truc ; et puis il y a un débat et puis vous voyez. Donc ça vous instruit, ça vous aide à mettre en doute les informations que vous voyez, dans le bon sens du terme, et ne pas simplement croire. Dans tout le débat sur les fake news qu’on a actuellement je pense que c’est une réflexion qu’il faut avoir en tête.
Après, forcément en tant que juriste — je vous ai promis de ne pas faire de droit, je fais une toute petite exception — c’est quelle transparence sur les partenariats ? Parce que quand on a fourni un assistant personnel dont le job est de fournir une réponse, vous pouvez mettre aux enchères qui vous fournit la réponse. Si vous demandez à votre assistant « j’ai besoin de m’acheter des nouvelles paires de chaussures, qui a des chaussures pas chères près de moi ? Où est-ce que je peux aller acheter des chaussures ? » Est-ce que vous savez si on vous fournit vraiment la meilleure réponse c’est-à-dire le magasin de chaussures pas loin de là où vous êtes qui a les chaussures les moins chères d’après x ou y critères ? Ou est-ce que c’est parce que ce magasin de chaussures a un partenariat avec le fournisseur de votre intelligence artificielle qui fait qu’on va vous guider vers celui-là plutôt qu’un autre ?
Si vous demandez les actualités du jour et que vous ne précisez pas de qui, est-ce que c’est Europe 1, RTL, Le Monde, Libération qui va vous fournir l’information ? Est-ce que c’est Le Figaro ou L’Humanité ? En termes d’orientation, éventuellement, des infos ça peut avoir une incidence. Si c’est vous qui choisissez très bien ; si c’est le fournisseur de l’assistant personnel qui décide pour vous et vous ne savez pas pourquoi et sur quels critères, ça peut poser des difficultés.
En droit, en France, quand vous avez des partenariats commerciaux, vous devez le signaler. Sur une interface graphique en général vous affichez « publicité ». Sur une interface vocale, théoriquement, vous êtes obligé de faire la même chose, de dire « ceci est une publicité ». Quelle forme ça prendra ? Je serais assez curieux de savoir si les fournisseurs d’assistant personnel vous diront « attention là je vais dire une publicité » et ensuite ça vous dira la réponse à la question que vous avez posée.
C’est un cas très concret qui s’est posé l’année dernière avec Google qui, quand vous lui disiez bonjour le matin vous disait bonjour et sais-tu que cette semaine il y a le film La Belle et la Bête qui passe au cinéma, etc. Et Google s’est, entre guillemets, « fait choper » et a dit « mais c’est juste un test, ce n’est pas de la publicité ». Juste pour l’anecdote, ce matin je regardais Twitter, je voyais quelqu’un qui a publié une vidéo — Ulrich Rozier pour ne pas le citer — qui publiait une vidéo d’Alexa et, sur Alexa ce matin, ça vous disait que Johnny aurait eu 75 ans aujourd’hui et vous citait un extrait d’une chanson. Est-ce que c’est de la publicité ou pas ? Peut-être que c’est juste un clin d’œil pour l’utilisateur mais peut-être aussi, je ne pense pas que ça soit le cas, mais peut-être que c’est un partenariat avec Universal parce que Universal est en train de préparer une ressortie d’album et qu’il y a les concerts de Johnny Hallyday, etc., en ce moment. Ou en tout cas, ça vous habitue au fait d’avoir des informations que vous n’avez pas demandées mais qui seront des publicités, donc ça vous habitue au fait d’avoir des publicités quand vous dites simplement bonjour.
Ensuite, l’influence des informations qu’on vous donne quand vous demandez la météo. Donc on vous dit, là sur Google ça vous dit « il fait très beau, vous devriez mettre de la crème solaire », donc c’est plutôt rigolo, etc. Et puis là vous avez bien conscience qu’on essaye de vous dire quoi faire.
Quand on vous dit des choses un peu plus subtiles attention comme « attention, il y a des alertes aux orages dans votre département », éventuellement ça peut modeler votre comportement. Ça peut être des choses très simples genre je vais prendre un parapluie ou mon manteau, mais ça peut être, même, je ne vais pas sortir de chez moi parce que j’ai peur des orages ou je vais annuler des rendez-vous, ce genre de choses.
Ça peut être aussi vous prévenir que la semaine prochaine il y a des grèves de trains tel jour. Vous allez annuler tous vos rendez-vous parce qu’on vous a dit « il y a des grèves de trains » donc vous savez que vous ne pourrez pas vous déplacer. Mais peut-être qu’on aurait pu vous dire qu’en fait il y a certains trains qui sont assurés. Et si on ne vous pas donne pas cette information-là, vous ne changez pas votre comportement, en tout cas vous ne reprenez pas vos rendez-vous.
Donc en fonction des informations qu’on vous donne ou qu’on ne vous donne pas, on peut influencer votre comportement de façon consciente ou inconsciente.
De façon consciente, on a vu avec Cambridge Anatylica, on peut aller jusqu’à tenter d’influencer les gens dans les choix politiques. Si on vous dit « il y a des problèmes avec l’immigration dans tel ou tel pays », ça peut vous conduire à voter pour certains bords politiques. Si on vous dit qu’il y a tel plan de licenciement massif dans telle entreprise qui fait tant de bénéfices, ça peut vous conduire à voter pour un autre bord politique. Vous voyez, ce genre de choses ça peut modeler, sans que vous en ayez conscience, la façon dont on réfléchit, dont on pense la société, dont on va agir dans la démocratie.
L’influence des algorithmes — conscient ou inconscient — elle est là.
Et je vais finir par un dernier chapitre qui est extrêmement important à mes yeux, c’est l’anthropomorphisme, c’est-à-dire le fait, de plus en plus, de faire passer la machine pour un être humain, de ne plus voir la frontière entre ce qui est l’humain et ce qui est l’intelligence artificielle.

Vous avez peut-être remarqué, j’ai toujours parlé de machine jusqu’à présent, pour toujours rappeler qu’une intelligence artificielle, qu’un assistant personnel, ce n’est rien d’autre qu’un ordinateur ; ce n’est rien d’autre qu’une machine qui a été programmée pour réaliser telle ou telle tâche. Or, de plus en plus, on essaye de brouiller cette vision-là, c’est-à-dire de vous faire oublier que l’ordinateur est un ordinateur.
On vous fait des interfaces au départ graphiques, des assistants personnels qui répondent un peu de la même manière que répondent des humains et ça devient vocal. Vous avez vu la dernière conférence de Google, Google I/O, où ils présentent ce produit qui s’appelle Google Duplex qui appelle à votre place : vous dites à votre assistant « OK Google » — comme ça je vais déclencher plein d’assistants pour ceux qui l’ont chez eux — « OK Google prends-moi un rendez-vous chez le coiffeur pour lundi prochain à 12 heures » et c’est Google qui va appeler le coiffeur et se faire passer pour un humain, en parlant comme un humain, avec les mêmes hésitations qu’un humain, les mêmes typologies type le coiffeur qui vous dit « attendez je regarde dans mon agenda ce que j’ai comme disponibilités » et la machine va répondre « hum, hum, d’accord ! » Aucun intérêt pour une machine ; ça n’a même pas d’intérêt pour le coiffeur de ne pas savoir que c’est une machine. Pourquoi on essaye de faire passer la machine pour un humain et de brouiller les pistes comme ça ?
Techniquement c’est extrêmement compliqué de faire passer une machine, de la faire parler comme un humain, c’est quasiment ce qu’il y a de plus compliqué aujourd’hui en informatique. En tout cas dans ce domaine-là de traitement du langage c’est extrêmement compliqué, il faut non seulement avoir des expressions, des phrases qui sont celles que pourrait prononcer un humain, mais il faut avoir le rythme qui correspond à celui d’un humain ; il faut s’adapter à chaque pays, à chaque culture, sur la temporalité, pour savoir combien de secondes je vais laisser passer ou de dixièmes de secondes je vais laisser passer entre la question qu’on pose et la réponse que je vais donner parce qu’il y a des normes sociales inconscientes, qui sont acquises dès l’enfance, qui font que, pour ne pas créer un certain malaise, on va laisser telle ou telle temporalité. Il y a plein de tout petits détails qui rendent la chose extrêmement compliquée.
Pour qu’on se donne autant de mal à faire passer la machine pour un humain c’est qu’il y a un objectif et l’objectif ce n’est pas que vous ayez votre rendez-vous à 11 heures chez le coiffeur ! L’objectif c’est la force de vente. C’est-à-dire que le modèle économique de ce genre d’assistant ça ne va pas être de faire que vous puissiez prendre votre rendez-vous chez le coiffeur à 11 heures. Ça, ça serait faire énormément de développement technologique juste pour faire un travail qui pourra être automatisé d’ici quelques années, quand tous les coiffeurs auront une interface de réservation en ligne qui fera que vous aurez juste à cliquer pour votre rendez-vous à 11 heures, comme vous le faites peut-être avec votre médecin sur Doctolib ou sur autre chose. Tous les coiffeurs n’ont pas ça, mais je prends le pari que d’ici cinq, aller, maximum dix ans, tous les coiffeurs auront une interface de ce genre et ça va plus vite pour une machine d’utiliser une API qui va se brancher sur l’agenda du coiffeur pour récupérer les créneaux et vous trouver un créneau disponible, et tout ça sans avoir à se parler de machine à machine, que de créer un assistant vocal qui va se faire passer pour une machine auprès, probablement, d’une autre machine parce que ce sera un assistant qui répondra.
La réalité c’est, à mon avis, le modèle économique de ces fournisseurs-là ; c’est que ce sont des entreprises qui payent des assistants personnels robots pour nous appeler, pour essayer de nous vendre des choses. C’est-à-dire que quand vous allez être une entreprise qui aujourd’hui fait appel à des call centers avec des centaines de vendeurs qui ont chacun leur liste de numéros de téléphone à appeler dans la journée et qui ont pour objectif de décrocher des contrats, toutes ces centaines et centaines de vendeurs à distance vous pouvez les remplacer par un assistant qui va faire le même job. Mais pour ça, il faut de l’empathie avec le client.
Moi je n’y connais rien, je suis juriste comme je vous l’ai dit déjà, je n’y connais rien en force de vente donc j’ai été sur le site de référence de force de vente, je me dis force de vente, Salesforce ça ne paraît pas mal, je vais aller voir les conseils qu’ils donnent pour les commerciaux. Et le premier conseil qui est donné pour être un bon commercial par Salesforce, c’est l’« écoute active ». Et l’écoute active [2] c’est donc « adopter une posture d’empathie réelle avec son interlocuteur. S’il se sent écouté, le client se sent compris donc valorisé. L’écoute active est vécue comme un témoignage de respect qui favorise le développement d’une relation commerciale intime et féconde. »
Donc la technique de vente numéro 1 c’est d’être en empathie avec vous et être en empathie c’est vous faire comprendre que vous êtes un humain : je comprends vos sentiments, je suis un humain, vous comprenez mes sentiments.
Moi, un robot qui m’appelle, je sais que c’est un robot qui veut me rendre un abonnement à un journal local, je raccroche, je ne lui répond même pas ! Je sais que je n’en veux pas de son journal. Par contre, j’ai pris un abonnement il y a quelques mois à un journal local nantais, je ne vais pas citer lequel, parce que j’ai eu un vendeur au téléphone que je sentais un peu désespéré parce qu’il n’arrivait pas à vendre ses abonnements, que ce jour-là j’étais dans un moment de faiblesse, d’humanité, j’ai dit oui. Donc je me suis engagé pour un an, je savais que je me faisais avoir mais tant pis, j’ai pris l’abonnement.
Si la machine sait que j’ai ce genre de faille parce que j’ai cette faille d’être humain et qu’on peut jouer sur ma sensibilité au fait qu’un commercial je vais le sentir un peu en détresse, etc., avec toutes les données qu’il a collectées par ailleurs, vous savez le cerveau cloné dont je parlais tout à l’heure ; vous avez tous des failles qui font qu’un commercial va savoir que pour vous c’est tel angle qui va marcher, qui va vous faire acheter quelque chose ; vous avez tous des failles ! Ce n’est peut-être pas la même que la mienne, c’est peut-être un autre argument qui va marcher, mais on va pouvoir utiliser votre faille à vous. Un commercial humain soit il a un don pour détecter, faire du profilage quand il vous voit et, s’il est un peu psychologue, il sait par quel biais vous attaquer, mais une machine qui a une connaissance très intime de vous parce qu’elle connaît tous vos mails, elle connaît tous vos contacts, elle sait ce que vous achetez, elle connaît votre liste de courses parce que maintenant vous allez pouvoir, avec Carrefour, faire votre liste de courses en utilisant un assistant personnel, etc., ça devient extrêmement facile de vous vendre des choses, mais ce n’est facile qu’à la condition que vous oubliiez que la machine est une machine.
Et en fait, c’est beaucoup plus facile qu’on le croit d’oublier qu’une machine est une machine.
Google a annoncé que leur Google Duplex, ils allaient faire de la transparence, on ne sait pas encore sous quelle forme, pour que, quand on vous appelle, vous sachiez que c’est Google qui vous appelle et que ce n’est pas un humain.
Mais encore une fois, pourquoi faire tous ces efforts d’imitation du langage humain si c’est pour que la personne ait toujours conscience que c’est une machine ?
En fait, le but c’est qu’on oublie que c’est une machine.
On sait, depuis les années 60, que les gens oublient très vite que c’est une machine ou même que, quand ils le savent, finalement ils s’en fichent, ils sont quand même en empathie avec la machine. Il y a un chercheur du MIT, dans le début des années 60, qui a fait un robot, un des tout premiers — assistant personnel ce serait un très grand mot, lui-même disait que c’était extrêmement bête —, une première intelligence artificielle qui était d’imiter un psychologue de l’école rogérienne. En fait, cette école-là, c’est vous dites « je suis en conflit avec ma mère », il vous répond « ah bon ! vous êtes en conflit avec votre mère ? » et puis là, ça vous amène à dire quelque chose d’autre, etc. En fait, ça reformule ce que vous dites en vous posant la question avec ce que vous avez dit précédemment. C’est juste du traitement du langage pour reformuler ce que vous lui dites par une question. C’est extrêmement bête au niveau algorithmique, ça a été fait dès les années 60 ; ça s’appelait ELIZA et ça a donné ce qu’on a appelé l’effet ELIZA, que les chercheurs du MIT ont développé. Ils savaient parfaitement que c’était un robot, ils savaient parfaitement que c’était très bête, etc., ils passaient des heures à parler à ce truc-là. Et moi je suis fait piéger pour préparer la conférence, j’ai testé moi-même et je me suis surpris à rester sur le truc. Je savais que c’était une machine, je savais que c’était bête ! Mais on lui parle, on teste et en fait on se prend d’empathie pour ELIZA qui est un truc extrêmement bête et c’était juste une interface graphique.
Imaginez ce que ça peut devenir quand ça devient ça, quand c’est une voix humaine qui vous parle, qui vous parle avec des mots dont elle se doute qu’ils vont vous toucher, qu’ils vont marcher avec vous, eh bien ça donne le film Her.
Alors on est encore très loin techniquement. Pour ceux qui n’ont pas vu le film, c’est Scarlett Johansson qui joue la petite voix qui parle dans l’oreillette et elle parle comme une humaine. Et en fait Joaquin Phoenix, dans le film, finit par oublier que c’est une voix, tombe amoureux d’elle, etc., toute l’idée du film est là-dessus, mais on arrive vers ça. Peut-être que ça va mettre 20 ans, 50 ans, 100 ans, peut-être un peu moins, peut-être un peu plus, mais on arrive vers ça. En tout cas, ce sont des techniques qui sont en train d’être développées aujourd’hui.
Et pour moi c’est très important que vous, en tant que citoyens, vous exigiez de vos législateurs et puis dans vos pratiques quotidiennes qu’on n’oublie jamais que la machine est une machine et qu’on traite toujours la machine comme une machine et pas la machine comme un humain.
En avril dernier Amazon a annoncé, et Google a suivi quelques semaines après, que les enfants quand ils diront « Alexa, mets-moi un dessin animé de Disney à la télé », Alexa ne leur répondra pas s’ils ne disent pas « s’il te plaît ». Il faudra dire s’il te plaît à la machine. Et quand elle mettra le dessin animé Disney, si l’enfant ne dit pas merci, ça coupe !
Officiellement, en tout cas c’est le discours marketing : il faut que l’enfant apprenne la politesse parce que s’il n’est pas poli avec la machine, il ne sera pas poli avec les humains. En réalité l’enfant, surtout dans les jeunes âges, cinq-six-sept ans, on forme le psychisme et un enfant qui est habitué dès l’enfance à traiter une machine comme un humain, il le fera toute sa vie. Il va oublier toute sa vie que la machine n’est pas un humain que c’est juste une machine. Et quand ça deviendra ça, vous savez, vous avez tous vu je pense le robot Sophia qui ressemble étrangement à un humain, etc., quand la robotique va faire des progrès, on va arriver dans Blade Runner, vous savez les réplicants qui ressemblent comme deux gouttes d’eau à des humains et, en fait, vous n’arrivez plus à savoir qui est réplicant et qui est humain. Et puis même, éventuellement, si vous savez que c’est un réplicant vous lui parlez quand même comme à un humain !
Et juste pour finir sur une note optimiste, ou pas vraiment, ça c’est un brevet qui a été déposé par Google en 2015 et ça vous dit : on va regarder tout ce qui se passe chez vous grâce à nos assistants personnels ; on vous écoute, on regarde, on fait de l’analyse, de la détection faciale, etc., et on est capables, en fonction de la composition de votre foyer, de votre milieu culturel parce qu’on a repéré tel ou tel livre qui est posé sur votre table, tel ou tel film que vous regardez et puis, de toutes façons, on a tellement de connaissances sur le fameux cerveau cloné dont je parlais tout à l’heure que statistiquement, la norme pour vous, dans votre foyer, dans votre milieu culturel, etc., c’est de manger une heure par jour tous ensemble en famille. Et puis ce n’est pas bien parce que là vous n’avez mangé qu’une demi-heure en famille ou ce n’est pas bien parce que là l’enfant il a trop joué aux jeux vidéo, il n’est pas parti jouer dehors dans le jardin ou il n’a pas fait telle ou telle ou chose. Et puis, c’est dit très explicitement dans le brevet, ça va aller regarder si l’enfant dit des gros mots ; ça va aller regarder si le couple s’engueule ; et ça va vous donner des récompenses quand vous adoptez le comportement qui correspond à la norme. Simplement on vous dit « ce sera à vous de choisir si vous le voulez ou pas. »
Dans le domaine de la santé, on commence déjà à le voir avec les assurances qui vous disent « votre objectif c’est de faire 10 000 pas tous les jours ; c’est votre objectif. » Et votre assurance va vous dire « si vous réussissez à faire cet objectif, on vous offre tel ou tel bonus ». Potentiellement ce sera la même chose si votre assurance vous dit « ne buvez pas d’alcool chez vous, ou pas trop, parce que ça crée un risque. » On ne va pas vous obliger à le faire, mais on va juste faire que vous payiez votre assurance moins chère. Et ça, quand vous n’avez pas beaucoup d’argent, eh bien vous le faites.
Donc qui a le pouvoir ? Qui est vraiment libre ? Qui ne l’est pas ? Et qui influence votre comportement ? En fait, c’est celui qui vous espionne, le petit truc que vous avez laissé, que vous mettez dans votre cuisine, que vous mettez dans votre chambre, c’est lui qui contrôle votre vie.
Pour revenir au titre de la conférence, et ce sera la conclusion, est-ce que l’assistant personnel c’est un ami qui ne vous veut toujours que du bien ? Je vous laisse sur cette question.
Merci beaucoup.
[Applaudissements]

Références

[1Qwant

Avertissement : Transcription réalisée par nos soins, fidèle aux propos des intervenant⋅e⋅s mais rendant le discours fluide. Les positions exprimées sont celles des personnes qui interviennent et ne rejoignent pas nécessairement celles de l'April, qui ne sera en aucun cas tenue responsable de leurs propos.