Intelligences artificielles à l’heure du coronavirus - France Inter

Titre :
Intelligences artificielles à l’heure du coronavirus
Intervenant·e·s :
Laurence Devillers - Antonio Casilli - Nathalie, voix off - Dorothée Barba
Lieu :
L’été comme jamais - France Inter
Date :
août 2020
Durée :
35 min [NB : Le coup de fil à la presse, Répondeur d’Inter et le Conseil cinéma sont des parties non transcrites]
Écouter ou enregistrer le podcast
Site de présentation de l’épisode
Licence de la transcription :
Verbatim
Illustration :
Mental health - Licence Creative Commons CC0
NB :
transcription réalisée par nos soins, fidèle aux propos des intervenant·e·s mais rendant le discours fluide.

Les positions exprimées sont celles des personnes qui interviennent et ne rejoignent pas nécessairement celles de l’April, qui ne sera en aucun cas tenue responsable de leurs propos.

Description

De visioconférence en téléconsultation médicale, la crise sanitaire a changé notre rapport aux algorithmes. De quelle manière le coronavirus et le confinement ont changé notre vision des intelligences artificielles ? Quels changements sont à prévoir pour le monde de demain ?

Transcription

[Clip d’introduction]
Dorothée Barba : Dis Siri, ai-je raison de m’inquiéter ? Comme beaucoup de monde en ce moment, j’ai peur d’une deuxième vague de Covid-19. J’ai peur d’un éventuel reconfinement. J’avais besoin de savoir. Alors j’ai demandé à l’assistant vocal d’Apple, qui a réponse à tout : « Dis Siri, y aura-t-il une deuxième vague ? » En vrai, j’espérais un peu qu’il ne comprendrait pas et que sa réponse serait amusante, qu’il me parlerait d’océan et de vagues à surfer. Mais non, Siri a compris ma question. Sauf qu’en guise de réponse, il me renvoie sur des articles qui datent de juin dernier, sur la crainte d’une deuxième vague. L’assistant vocal, en l’occurrence, ne surfe pas sur l’actu brûlante ! Merci Siri, mais tu ferais mieux de me parler de l’écume des vagues.

Toutes les crises offrent l’occasion de se poser les bonnes questions. Celle du covid doit assurément nous permettre d’interroger l’intelligence artificielle qui est déjà partout dans nos vies. Y a-t-il un effet covid sur notre relation avec elle ? Que peut-elle pour nous cette intelligence artificielle, notamment sur le plan médical ? Mais quels risques implique-t-elle aussi ? Quelles limites doit-on fixer pour des machines plus éthiques ?

N’hésitez pas à nous poser toutes vos questions à la page de L’été comme jamais sur franceinter.fr ou sur l’application mobile de France Inter, deux spécialistes sont là pour vous répondre. « Intelligences artificielles à l’heure du coronavirus ». Soyez les bienvenus
Voix off : Dorothée Barba, 9 heures 11 heures sur France Inter.
Dorothée Barba : Avec deux invités en direct, deux spécialistes de l’AI ou de l’IA, l’intelligence artificielle. Bonjour Antonio Casilli.
Antonio Casilli : Bonjour Dorothée Barba.
Dorothée Barba : Bienvenue. Vous êtes sociologue, professeur à Télécom Paris, chercheur à l’EHESS [École des hautes études en sciences sociales]. Vous avez fait paraître l’an dernier au Seuil un livre intitulé En attendant les robots – Enquête sur le travail du clic. Comment comprenez-vous les réponses de Siri, notamment qu’elles soient si datées sur la deuxième vague ? Est-ce que c’est une façon de ne pas trop se mouiller, Antonio Casilli ?
Antonio Casilli : Finalement, il faut aussi interpréter Siri comme une base de connaissances et cette base de connaissances est mise à jour régulièrement, c’est-à-dire que Siri reçoit des réponses types à des questions très courantes.
Dorothée Barba : Il y avait des articles beaucoup plus récents sur la deuxième vague.
Antonio Casilli : Tout à fait. Et, en même temps, on est dans une situation dans laquelle nos propres connaissances sur le virus, sur la situation et sur les mesures contre le virus changent chaque jour ou chaque semaine. Donc afin d’éviter de proposer une réponse certes plus actuelle que celle que Siri vous a proposée, qui remonte au mois de juin, mais peut-être moins stable, moins solide du point de vue scientifique ou politique, il vous a donné cette réponse-là.
Dorothée Barba : Depuis les studios de France Bleue à Bayonne, j’accueille Laurence Devillers. Bonjour à vous.
Laurence Devillers : Bonjour à vous.
Dorothée Barba : Bienvenue. Professeure en intelligence artificielle à la Sorbonne à Paris, vous êtes chercheuse au laboratoire d’informatique pour la mécanique et les sciences de l’ingénieur du CNRS. Vos derniers ouvrages s’intitulent Des robots et des hommes et plus récemment Les robots émotionnels aux Éditions de l’Observatoire ainsi que La souveraineté numérique dans l’après-crise. Et vous, Laurence Devillers, que pensez-vous de cette réponse un peu vieillotte de Siri sur la deuxième vague ?
Laurence Devillers : En fait, Siri est un système qui travaille sur du traitement automatique du langage, qui est mon domaine de recherche, et ce n’est pas très malin. Il ne comprend rien à ce qu’il répond et ce n’est pas étonnant que même en faisant une recherche sur Internet il ne soit pas capable de trouver forcément le bon article. Il s’intéresse juste à la composition des mots présents dans l’article, donc il peut très bien vous sortir un vieil article comme un article plus nouveau sans toutefois avoir conscience de ce qui est en train de se passer. Il n’a aucune compréhension. C’était amusant de vous entendre dire « il n’a pas su surfer sur l’actualité ».
Dorothée Barba : L’intelligence artificielle n’est pas très maligne. On a un premier élément de réponse. On se plonge avec vous deux dans cette discussion dans un instant, mais d’abord, comme tous les jours, un coup de fil à la presse et le mardi la parole est à Causette. Bonjour Isabelle Motrot.
[Coup de fil à la presse, partie non transcrite]
Dorothée Barba : Dans quelques instants on serre la pince à des robots. L’intelligence artificielle au temps du coronavirus avec vos questions et commentaires à la page de L’été comme jamais sur notre site internet. Vous écoutez France Inter, en voilà une bonne idée ! Il est 10 Heures et quart.
Pause musicale : Ce qui restera par Vincent Delerm.
Dorothée Barba : C’était Vincent Delerm, Ce qui restera.
Voix off : France Inter, L’été comme jamais
Dorothée Barba : Deux éminents spécialistes de l’intelligence artificielle sont mes invités jusqu’à 11 heures, Laurence Devillers en duplex de Bayonne et Antonio Casilli ici en studio.

J’aimerais que nous commencions par la santé, même si ce n’est pas évidemment le seul sujet lorsqu’on parle des liens entre le covid et les algorithmes.

Laurence Devillers, la technologie est-elle au cœur de la bataille contre ce virus ?
Laurence Devillers : Je pense que vous avez raison, oui, c’est assez au cœur. On a déjà des outils numériques qu’on utilisait, mais on a vu une amplification forte parce que, évidemment, être proches c’est dangereux en ce moment, donc la distanciation qu’on peut avoir avec des robots, est intéressante.

Quels sont les usages ? Je dirais que c’est à la fois pour protéger, tester, isoler et anticiper, en fait, qu’on va utiliser ces outils, par exemple pour la recherche de vaccins, pour comprendre avec qui vous êtes en contact et, si vous êtes contaminé par le virus, alerter tout le monde. Ce sont des informations, donc c’est à la fois des statistiques pour du long terme, c’est aussi de la télémédecine, on a vu un bond incroyable en télémédecine, dont vous parliez tout à l’heure, et qui est très intéressant.

Tous ces outils, en fait, étaient pour la plupart encore peu utilisés, ils vont le devenir beaucoup et c’est important de comprendre qu’ils vont contribuer pour nous à concilier les objectifs sanitaires avec les objectifs sociaux et économiques. On a gardé des liens sociaux grâce à des Zoom qu’on faisait en famille, à des Zoom avec son médecin pour suivre finalement la maladie. Par exemple moi j’ai eu le covid et j’ai été très contente d’avoir effectivement tous ces liens possibles.

Il faut comprendre que toutes ces technologies sont à notre service, mais il faut pouvoir s’en servir correctement.

Donc elles font apparaître effectivement, comme vous le disiez au début Barbara, des tensions éthiques. C’est sur cela, je pense, qu’il faut réfléchir dans la société, tous ensemble, pour essayer de comprendre quels sont justement les cadres, les protocoles à mettre en place.
Dorothée Barba : Avant d’en venir peut-être aux tensions éthiques, un mot sur ce service hospitalier en Chine qui a été intégralement robotisé, inauguré au printemps. Est-ce une solution à vos yeux ?
Laurence Devillers : C’était une solution sur la distanciation. Il y avait beaucoup d’utilité à la fois pour apporter des repas aux gens qui étaient malades, désinfecter les lieux, donc le robot servait à de multiples tâches.

Il est intéressant, quand même, de se poser la question de leur utilité avec des humains. Il ne s’agit pas de remplacer les humains. Il s’agit de les remplacer pour certaines tâches qui sont pénibles, difficiles ou à risque comme on l’a vu dans la pandémie, à cause de ce problème de virus qu’on peut attraper.

Il me semble que l’expérimentation qui a été faite en Chine est intéressante en cela. Il n’est pas souhaitable de reproduire cela sans une éducation forte à la fois des soignants et des patients pour qu’on comprenne bien l’utilité, la complémentarité avec l’humain. En fait, l’humain est au centre de tout cela. Je travaille sur ces objectifs de robots sociaux, de robots pour aider les personnes dépendantes ou aider les malades ou aider les personnes handicapées, toujours dans le sens où l’humain est au centre. C’est comme ça qu’on développe cela. Les positions extrémistes en disant « non, c’est terriblement inutile » ou « allons totalement vers un monde robotisé » ne sont pas souhaitables.
Dorothée Barba : On imagine bien les réactions ulcérées que ça peut susciter dans le grand public, l’idée de voir des robots remplacer les soignants et les soignantes.
Laurence Devillers : C’est pour ça qu’ils ne remplacent pas. Ils sont incapables, comme je disais tout à l’heure avec Siri. Il y a un problème fondamental de technologie qui ne sera pas résolu si facilement. Le sens commun, la compréhension qu’on affine, le fait qu’on a un corps, qu’on ressent les choses, la machine en est totalement dépourvue. Ce n’est pas juste avec des modèles qui vont acquérir des données, même en grande quantité, qu’on va remplacer l’intuition, la créativité de l’humain, son imagination et sa façon de s’adapter très rapidement à des situations.

Donc je crois que cette idée, en tout cas cette peur qui existe, vous avez raison, de remplacement, elle est assez peu réelle. Elle fait partie d’une sur-capacitation que l’on pousse, que l’on porte à ces machines. En fait, on ferait bien de s’intéresser plus à la manipulation qu’elles peuvent avoir sur nous et qui est vraiment le sujet de mes recherches actuellement avec cette idée de « si je détecte l’affect, si je suis capable de faire une machine qui simule une certaine empathie, qui singe l’humain, quelles vont être les conséquences ? Quelles vont être les possibilités de manipulation ? ». On voit très bien en santé qu’il y a d’énormes progrès qu’on pourrait faire avec ces sortes d’outils pour aider, accompagner. On voit aussi terriblement un monde économique de business qui s’accapare ces technologies, sans garde-fous, sans régulation.

En tout cas, on est en train de construire dans le monde de la recherche et plus largement avec le gouvernement des comités d’éthique. Je fais partie d’un comité d’éthique [Comité National Pilote d’Éthique du Numérique] qui est sous le Premier ministre, une sorte de CCNE [Comité consultatif national d’éthique], que vous connaissez maintenant sur la bioéthique, dans le numérique et également un partnership en AI, c’est-à-dire un comité international qui regroupe 15 pays, qui a été monté par le président Macron et le Premier ministre Trudeau au Canada, pour faire qu’il y ait cette concertation internationale sur ces sujets. Prendre conscience, trouver les bonnes régulations et arrêtons d’avoir peur. Il faut utiliser ces machines le mieux possible.
Dorothée Barba : Au chapitre santé toujours, Antonio Casilli, venons-en au Health Data Hub [1]. C’est une plateforme qui recense les données médicales des Français, les données du ministère de la Santé. L’hébergement a été confié à Microsoft. Que pensez-vous de ce choix ?
Antonio Casilli : Il a été défendu par le gouvernement comme un choix commercial, comme un choix qui était aussi dû à certaines limitations des partenaires possibles en France, qui n’étaient pas prêts à assurer la puissance de calcul, de stockage nécessaire. Toujours est-il qu’il nous met face au paradoxe du discours français sur la souveraineté numérique qui est un sujet qui est débattu récemment et qui, grosso modo, revient d’une part à dire qu’il faut défendre certains intérêts qui sont de nature politique, qui sont aussi des valeurs politiques, qui sont aussi des intérêts commerciaux de la France, mais, de l’autre côté aussi de s’opposer à la surpuissance de certaines grandes entreprises qui sont dans certains cas, du moins pour notre partie du monde, souvent des entreprises de la Silicon Valley. Donc on se trouve face à ce type de problème.

Le Health Data Hub représente peut-être l’instanciation, l’exemplification de ce type de paradoxe parce que d’un certain point de vue le gouvernement français insiste beaucoup sur le fait de défendre cette souveraineté numérique et, de l’autre côté, parfois, doit accepter les compromis. Ça c’est, si on veut, la vision possibiliste et qui n’est pas véritablement critique de cette manœuvre. La manière critique d’envisager ce problème revient à dire que derrière ce discours de la souveraineté se cache une convergence d’intérêts de certains gouvernements, certaines administrations, certains pays y compris le nôtre et, effectivement, les intérêts des grandes entreprises capitalistes de la Silicon Valley. Grosso modo, défendre la souveraineté numérique au nom aussi de la défense des données des citoyens, parfois revient aussi tout simplement à chercher à faire exactement ce que la Silicon Valley fait, mais à la française.
Dorothée Barba : Qui vous dit que ce serait moins grave si j’ose dire, Antonio Casilli, un contrôle de nos données par des entreprises européennes ?
Antonio Casilli : Le problème est exactement quelle est la spécificité de ces entreprises européennes ? Est-ce que nous avons des entreprises européennes qui sont, par le fait même d’être européennes, plus éthiques, plus respectueuses de certaines lois ? Il y a certainement certaines contraintes qui pèsent sur certaines entreprises, je pense par exemple des contraintes de nature financière, de nature fiscale. Toujours est-il qu’on voit que la régulation de ces entreprises est loin d’être un processus linéaire. C’est un aller-retour entre les grands groupes industriels et les personnes qui gouvernent, les législateurs européens, et ce type de négociation ne se solde pas toujours dans le meilleur sens, au sens de respect des intérêts des citoyens.
Dorothée Barba : Laurence Devillers, comment l’Europe peut-elle reprendre le contrôle de l’industrie numérique et de l’intelligence artificielle ?
Laurence Devillers : Il faudrait déjà faire confiance, en fait, à la science, à la technologie. On a une force de frappe non négligeable sur ces technologies en Europe. On a aussi déjà prouvé avec les législations qu’on était capables d’être créatifs avec la GDPR [2] [General Data Protection Regulation] qui nous était pas mal enviée par les Américains d’ailleurs. Je pense qu’il faut continuer dans ces voies-là. Je suis toujours étonnée du paradoxe de la privacy telle qu’elle est énoncée souvent.
Dorothée Barba : De la vie privée.
Laurence Devillers : C’est-à-dire qu’il a beaucoup de personnes qui ont eu une position très forte sur la possibilité de perte de liberté à cause, justement, d’une souveraineté numérique qui viendrait de l’Europe ou de la France, alors que ce sont des personnes qui donnent leurs données sans problème sur Facebook, Twitter, Internet en général, qui sont des réseaux qui sont tenus par les GAFA.
Dorothée Barba : Nous sommes pétris de contradiction en la matière !
Laurence Devillers : J’ai écrit effectivement un petit livre sur la souveraineté numérique dans l’après crise montrant qu’il fallait faire très attention et que, effectivement, les GAFA étaient en train d’en prendre le lead ou, en tout cas, posaient des jalons très forts sur beaucoup de domaines que sont l’éducation, la santé – vous avez parlé du Health Data Hub –, mais aussi sur l’éducation, aussi sur le grand âge. J’ai vu que Facebook a proposé des iPad dans les Ehpad. Donc il y a cette idée de mettre en pied dans la porte sur beaucoup de sujets et de continuer à être, finalement, le tonton d’Amérique qui apporte finances, meilleurs sujets, etc.

Aux États-Unis, le gouvernement privilégie, en fait, les entreprises américaines. En France, nous, on privilégie l’excellence et le rapport qualité/prix. Il est étonnant quand même qu’on ne soit pas capables aussi de privilégier le terreau européen. Je pense que c’est ça qu’il faut arriver à comprendre. Comment on peut apporter des solutions européennes qui ne seront peut-être pas aussi développées que les solutions américaines à l’instant t, mais qui, dans deux ans, pourraient rivaliser, si on ne fait pas un jour ce choix.
Dorothée Barba : Laurence Devillers, pour le dire très concrètement, est-ce que vous diriez que c’est dangereux que les données du ministère de la Santé française soient hébergées par Microsoft ?
Laurence Devillers : Bien sûr. On l’a dit. Dans le comité d’éthique où je suis on fait très attention. Je connais aussi beaucoup les chercheurs qui travaillent sur ce Health Data Hub, qui sont excellents. Il y a un vrai sujet, en fait, de gouvernance et je pense que c’est un des sujets dont on va parler dans le GPAI [Global Partnership on Artificial Intelligence] dont j’ai parlé tout à l’heure, ce comité d’éthique international, on va en parler très sérieusement. Dans ce comité sont aussi présents des industriels. Il n’est pas question, si vous voulez, de ne faire que du pro-français ou du pro-européen, il faut rester dans une interopérabilité et une ouverture, mais il est important qu’on soit au niveau, qu’on ait suffisamment de données pour être au niveau et cela n’est pas possible si on les donne tout le temps à des supports, des plateformes étrangères qui vont continuer à avancer.
Dorothée Barba : Nous reprenons ces échanges dans un instant, car il est 10 heures et demie. C’est l’heure du Répondeur d’Inter. Les auditeurs et auditrices réagissent à nos programmes.
Voix off : Le répondeur d’Inter, 01 56 40 68 68.
[Le répondeur d’Inter, partie non transcrite]
Pause musicale : Living in a Ghost Town par The Rolling Stones.
Dorothée Barba : C’est un morceau né pendant le confinement, Living in a Ghost Town par The Rolling Stones sur France Inter.
Voix off : France Inter, L’été comme jamais.
Dorothée Barba : « Les intelligences artificielles au temps du coronavirus » avec Laurence Devillers et Antonio Casilli.

Antonio Casilli vous dénoncez depuis des années la prophétie selon laquelle des robots vont remplacer les hommes et les femmes au travail. Vous répétez que c’est un mythe, qu’il y a des travailleurs derrière les intelligences artificielles. Quel est l’effet de cette crise sanitaire que nous traversons sur cette idée d’automatisation des tâches ?
Antonio Casilli : Tout d’abord c’est une excellente occasion pour les thuriféraires du remplacement mécanique, les gens qui vendent de l’intelligence artificielle, une occasion de propagande parce que c’est le moment de réactualiser tout un tas de leurs prophéties. Là on voit effectivement des personnes qui étaient des porteurs de cette idée selon laquelle les robots vont prendre nos jobs et vont nous remplacer véritablement qui, après le covid, au nom de la distanciation sociale, au nom du besoin de relancer l’économie, revendent leur recette.

Le problème est qu’on voit aussi avec le covid, avec le confinement en particulier, d’une manière assez paradoxale, que les personnes qui étaient auparavant les invisibles de cette révolution technologique deviennent de plus en plus visibles. Des personnes qui travaillaient, je ne dis pas dans l’ombre parce qu’elles sont quand même connues, elles sont étudiées même si on ne connaît pas toujours exactement le contour de leur activité, deviennent plus visibles. Je vous donne un exemple parmi d’autres, vous avez cité Siri, on pourrait citer aussi Facebook ou Twitter. Quel est le point commun entre Siri et Facebook ? Eh bien ces deux grandes solutions technologiques s’appuient sur des personnes qui, finalement, doivent calibrer les algorithmes, les intelligences artificielles. Par exemple pour Siri ce sont évidemment les personnes qui calibrent les réponses mêmes que Siri donne.
Dorothée Barba : En quoi le confinement les empêche-t-il de calibrer ?
Antonio Casilli : Le problème est que ces personnes ne peuvent pas toujours travailler depuis chez elles parce que, d’abord, elles manient de données sensibles, des données personnelles et, en plus, elles sont liées à ces entreprises ou plutôt aux sous-traitants de ces entreprises par des non disclosure agreements, c’est-à-dire des clauses de confidentialité particulièrement contraignantes. Donc elles doivent travailler dans un bureau et si, en plus, vous ajoutez que c’est souvent dans des pays qui ont été touchés par des mesures de confinement, je pense par exemple à l’Irlande, là où se trouvent les modérateurs ou les calibrateurs, on va dire, de Siri pour Apple. Je pourrais aussi citer les modérateurs de Facebook. Les modérateurs de Facebook, finalement, réalisent une activité qui est presque la même : ils filtrent des contenus problématiques, ça c’est certain, mais en même temps ils entraînent des algorithmes qui apprennent à leur tour à modérer automatiquement.
Dorothée Barba : C’est compliqué d’aller modérer des contenus problématiques, violents, érotiques ou que sais-je depuis chez soi ?
Antonio Casilli : Oui. C’est le problème qui a été pointé par les plateformes mêmes ; Twitter, Facebook, YouTube ont toutes annoncé au début des mesures de confinement que leur modération allait marcher forcément moins bien parce que les modérateurs étaient chez eux et ne pouvaient pas forcément toujours travailler sur ces données sensibles.
Dorothée Barba : On va entendre un exemple très concret, votre enquête sur les travailleurs du clic, Antonio Casilli, a été adaptée en documentaire, série documentaire en quatre épisodes à voir sur france.tv/slash/, plateforme gratuite de France Télévisions. On y découvre notamment Nathalie dont la voix a été modifiée pour des raisons de confidentialité, d’ailleurs ce n’est sans doute pas son prénom. Nathalie vit en France, elle travaille de chez elle et elle fait partie de l’armée de ceux qui entraînent Google.
Nathalie, voix off : Je me connecte via une adresse Gmail qui a été créée pour ce travail. J’atterris sur un site spécifique où les tâches sont distribuées. Là, par exemple, on est sur cette tâche de comparaison d’un mot clef et d’une recherche d’une personne et on a « La moutarde de Dijon » et « Moutarde de Dijon », « La moutarde Dijon » d’ailleurs, il n’y a pas d’article, et on nous demande de savoir si finalement ça a le même sens pour la recherche Google. On considère, bien évidemment, que ça a le même sens. Une autre, pareil, même chose : « accrocher tableau sans percer », « comment accrocher des tableaux sans percer » ; on considère, bien évidemment, que la personne recherche la même chose. Donc on aide l’algorithme à s’améliorer.

Je n’ai pas de contrat réel. À tout moment je peux m’arrêter de travailler, d’ailleurs sans les prévenir, chose que, bien évidemment, je ne ferai jamais, comme eux-mêmes peuvent stopper la collaboration quand ils le souhaitent, sans préavis.
Dorothée Barba : Voilà ! Un algorithme ça s’entraîne comme un grand sportif et Nathalie fait partie des entraîneurs, des coachs.

Cette crise sanitaire, Antonio Casilli, offre-t-elle une nouvelle occasion de constater que ça ne marche pas tout seul Google ?
Antonio Casilli : Oui, certainement, surtout si on regarde les chiffres annoncés par les plateformes qui s’occupent de réaliser ce type d’entraînement. On voit d’abord qu’énormément de personnes s’inscrivent sur ces plateformes et souhaitent travailler, souhaitent devenir coachs d’algorithmes.
Dorothée Barba : Dans ces conditions de rémunération assez problématiques, soit dit en passant.
Antonio Casilli : Assez problématiques, ça c’est clair. Effectivement il y a par exemple une de ces plateformes, l’une des plus importantes au monde qui s’appelle Appen [3], peu connue du grand public, qui a eu un bond de 31 % de ses effectifs. 31 % veut dire que, évidemment, il y a 31 % de personnes en plus, davantage de personnes qui veulent travailler, mais en même temps ces personnes, parce qu’elles sont en concurrence entre elles, déterminent une baisse des rémunérations. Il ne s’agit pas de salariés, il faut les envisager, grosso modo, comme des free-lance qui sont en compétition sur les mêmes tâches. Par ailleurs ce sont des micro-tâches, des tâches très petites : regarder une page, écouter une petite conversation, un extrait de conversation et ainsi de suite. En plus, on remarque que depuis l’arrivée du virus, on a eu une réorientation de ces grandes plateformes sur, figurez-vous, des applications de santé publique. On voit que le secteur qui auparavant était celui qui attirait davantage de microtravailleurs, de ces coachs d’algorithmes, qui auparavant était le secteur automobile a été désormais remplacé par le secteur santé.
Dorothée Barba : Un mot sur StopCovid. Antonio Casilli. Que pensez-vous de cette application censée lutter contre la propagation du virus et qui rencontre, disons-le, un succès limité, pour ne pas dire un fiasco ?
Antonio Casilli : C’est une application qui, tout d’abord, fait partie de toute une galaxie de tentatives de solutions technologiques ou plutôt d’outils technologiques pour lutter contre le covid. Dans d’autres pays on a eu, par exemple, des applications qui cherchaient à réguler la quarantaine, donc qui vérifiaient que les gens respectaient bien la quarantaine, qui sont effectivement problématiques.
Dorothée Barba : En termes de libertés individuelles.
Antonio Casilli : En termes vraiment carrément de surveillance. Ce n’est pas le cas de la France, elle n’a pas mis en place ça. Dans d’autres cas on a eu des applications qui donnaient des informations de santé et là aussi StopCovid ne fait pas ça. StopCovid fait quelque chose de très précis c’est-à-dire ce qu’on appelle, dans le jargon, du contact tracing, c’est-à-dire du traçage de contacts, et donne des alertes. Autour de cela il y a eu une énorme controverse, une controverse technologique et politique à laquelle j’ai participé. J’ai fait partie des gens qui s’opposaient à la solution française pour des tas de raisons qui relevaient autant, effectivement, de certains risques pour la vie privée mais plus encore je considérais qu’il y avait un problème interne de discrimination possible parmi les gens qui l’adopteraient et les gens qui ne l’adopteraient pas.

Ce qui s’est passé par la suite c’est que, malgré cette grande controverse, le gouvernement a fait passer cette application un peu à marche forcée et la situation actuelle avec, ce que vous disiez, une adoption très limitée ; je pense que ça fait 3 % de la population française et à peine 20 cas détectés sur plusieurs mois d’application. Ce scénario, pour moi, est en même temps le meilleur et le pire possible. Le meilleur parce que d’un certain point de vue certains des risques et des menaces que nous avions identifiées, moi et d’autres, ne se sont pas réalisées à cause, effectivement, de cette faible adoption. Le pire possible est que, effectivement, nous nous retrouvons dépourvus d’une solution véritablement efficace. Je considère personnellement que la solution efficace est une solution qui est d’abord enracinée d’abord dans l’action humaine. Le contact tracing, c’est-à-dire le fait de tracer des contacts, était fait auparavant par des êtres humains et continue d’être fait par des êtres humains. On a aussi un problème en termes d’investissement et désinvestissement de fonds publics pour financer ce type de politique. Au niveau international, les applications comme StopCovid ont déterminé un désinvestissement fort sur des solutions qui seraient plus enracinées dans la santé publique et dans des êtres humains.
Dorothée Barba : Je me tourne à nouveau vers Bayonne où Laurence Devillers est en duplex depuis France Bleue Pays Basque. Vous travaillez beaucoup, Laurence Devillers, sur la reconnaissance des émotions par la voix. On s’imagine souvent que les émotions c’est ce qui nous distingue des machines, finalement pas tellement, et ça pose beaucoup de questions éthiques, Laurence Devillers.
Laurence Devillers : Oui, effectivement. Je m’intéresse à la reconnaissance des émotions que vous exprimez à travers la voix, la musique de la voix principalement. Il y a aussi des travaux sur les expressions du visage ou les gestes, mais ce ne sont évidemment pas les émotions réelles, ce ne sont que l’expressivité de la personne qu’on va chercher à détecter, si vous avez l’air content, pas content.

C’est plus complexe lorsqu’il s’agit en fait de l’inverse. C’est-à-dire que la machine singe l’humain, vous livre une expressivité émotionnelle et elle peut vous manipuler assez facilement avec cela. Ça fait penser au film Her, par exemple, où quelqu’un s’attache à une machine, tombe amoureux d’une machine.

Il y a effectivement des vrais sujets éthiques liés à l’isolement des gens. Ce sont des sujets porteurs industriellement et on le voit avec Alexa Amazon, Google Home, etc. qui essaient de développer, en fait, des systèmes pour les personnes vulnérables et isolées, qui seraient empathiques, aidants, etc.

Il est important de comprendre que pour la santé, pour des aspects de suivi par exemple de dépression, pour des pathologies comme les troubles bipolaires ou la maladie d’Alzheimer, on peut trouver un intérêt réel à avoir une machine qui comprenne, qui détecte quelques expressivités.

Maintenant le niveau réel, l’état de l’art de ces systèmes est très bas encore, on peut le dire.
Dorothée Barba : Très bas pour l’instant, on ne sait pas encore bien faire, c’est ce que vous dites.
Laurence Devillers : En général. il y a 30 % d’erreurs, ce qui est énorme. En fait les émotions, comme vous l’avez très bien dit, c’est propre à l’humain, c’est propre à son ressenti physique que n’a pas la machine. On voit bien qu’on en est très loin. Et ces systèmes qui font 30 % d’erreurs peuvent être utilisés malgré tout pour le recrutement ainsi que d’autres applications que je trouve assez peu éthiques.
Dorothée Barba : Justement le recrutement, un chapitre intéressant notamment à l’heure où le télétravail se généralise. Certaines entreprises françaises utilisent des logiciels qui examinent la voix du candidat ou de la candidate.
Laurence Devillers : Oui. J’ai découvert cela aussi. Ils ne vont pas forcément chercher les émotions mais la fluidité, le champ lexical, c’est-à-dire est-ce que vous avez des mots sophistiqués, est-ce que vous êtes capable d’avoir une pensée riche, une expression riche ? Et puis dans la musique de la voix : est-ce que vous êtes à l’aise, extraverti. C’est terriblement discriminant : si votre enfant, par exemple, a un cheveu sur la langue ou si vous est d’origine étrangère avec un accent vous ne serez évidemment pas forcément dans les leaders.

On peut imaginer l’inverse, je crois que c’est possible de tricher avec ces machines, c’est-à-dire que si, par exemple, vous prononcez des mots extrêmement techniques à la suite, liés évidemment à l’emploi que vous cherchez et puis que vous avez l’air très sûr de vous, vous risquez de passer dans les premiers, voyez-vous ! Ce n’est pas pour cela que vous serez efficace pour le travail demandé.

Il y a ce biais terrible de passer par des machines alors qu’on cherche une richesse et une différenciation de profils. Même si ça facilite effectivement pour les recruteurs le tri des dossiers, je pense que c‘est vraiment à vérifier de très près. C’est un de ces sujets qu’on va regarder de très près pour vérifier le consentement. On nous dit qu’on demande le consentement des gens, mais vous voyez, quand vous cherchez un poste, vous dites bien sûr que je vais donner mes données. La transparence de ces systèmes : comment mesurent-ils et quelles caractéristiques vont-ils chercher ? Ce n’est pas du tout évident. Et puis est-ce qu’ils ont fait, par exemple, des essais sur le fait que quand je dis que je ne suis pas consentante est-ce que je peux quand même obtenir un job dans cette boîte ? C’est intéressant à savoir. Est-ce qu’on est vraiment libre de refuser d’utiliser ces systèmes ?

Il y a aussi un autre fait qui est important à dire, je pense, c’est la sous-représentation féminine, souvent. Comme on utilise des corpus de données venant des recrutements précédents, eh bien par exemple dans l’informatique on ne va se retrouver qu’avec des profils masculins en grande majorité, si on ne fait pas attention.
Dorothée Barba : Ça peut créer de la discrimination à l’embauche.
Laurence Devillers : J’ai toujours une petite phrase sur les femmes que j’aimerais bien vous dire quand même.
Dorothée Barba : Allez-y !
Laurence Devillers : Dans ce domaine de l’IA et du numérique en gros 80 % des codeurs et des personnes qui optimisent ces systèmes, qui mettent des modélisations de nos façons de parler et de nos façons de se comporter socialement sont des hommes. Et 80 % en fait des systèmes qui nous parlent – la parole est aussi le propre de l’humain, a une influence considérable sur les autres – eh bien ce sont des entités qu’on féminise avec des prénoms féminins – Sofia, Alexa – avec des figures féminines quand elles sont personnifiées, avec des corps féminins lorsqu’il s’agit de robots. Cela est assez dangereux si on regarde ça à un niveau macro dans la société. Que veut dire la représentation de la femme à travers ces machines si n’y prend pas garde ? Ce sont des assistantes assez bêtes pour l’instant, la sémantique est évidemment un des grands sujets de recherche très complexe, donc on peut les éteindre quand on veut.
Dorothée Barba : Intelligence artificielle pas tellement intelligente donc, pas tellement artificielle non plus et Alexa n’est pas une femme, voilà ce qu’on retient, Antonio Casilli.

Dernière question, très rapidement, sur la collecte des données. On a tendance parfois à penser que ça n’est pas si grave de livrer gratuitement ses données parce qu’on n‘a rien à cacher. Que répondez-vous à cela ?
Antonio Casilli : Que c’est discours décidément dangereux. Si quelqu’un vous dit « ne t’en fais pas, si tu n’as rien à cacher tu n’as rien à craindre ». Si c’est dans un film, c’est normalement le type de mot ou de phrase qui est dans la bouche de quelqu’un d’extrêmement dangereux, un tyran, un autocrate. Le problème est que peut-être qu’on n’a rien à craindre par rapport à aujourd’hui, mais on ne sait pas quels seront les usages futurs de ces données et surtout on ne sait quels sont les croisements, les appariements qu’on va faire avec ces données. Une donnée qui peut être anodine à nos yeux.
Dorothée Barba : Toute seule.
Antonio Casilli : Une seule donnée peut être croisée avec plusieurs autres données. Une donnée qui aujourd’hui n’est pas problématique peut le devenir si on est par exemple face à un changement de régime politique ou de standard de normes éthiques.
Dorothée Barba : La souveraineté numérique dans l’après-crise de Laurence Devillers est à lire aux Éditions de l’Observatoire ainsi que Des robots et des hommes, mythes, fantasmes et réalité chez Plon.

Quant au livre d’Antonio Casilli En attendant les robots c’est à lire au Seuil. Je recommande aussi cette série documentaire qui est tirée de vos travaux, pédagogique et édifiante Invisibles est son titre. C’est à voir sur france.tv/slash/ et c’est gratuit.

Merci beaucoup à tous les deux.
Laurence Devillers : Merci.
Antonio Casilli : Merci.
Dorothée Barba : Bonne journée et à bientôt sur France Inter.
[Fin de l’émission, partie non transcrite]

Références

[3Appen

Avertissement : Transcription réalisée par nos soins, fidèle aux propos des intervenant⋅e⋅s mais rendant le discours fluide. Les positions exprimées sont celles des personnes qui interviennent et ne rejoignent pas nécessairement celles de l'April, qui ne sera en aucun cas tenue responsable de leurs propos.