Reconnaissance faciale : « On crée l’accoutumance »

Daniel Schneidermann : Bonjour. La reconnaissance faciale est-elle une innovation formidable, qui va simplifier la vie des consommateurs ou des usagers de l’administration ou, au contraire, est-elle une redoutable technique liberticide de surveillance de masse ? À moins qu’elle ne soit la dernière ruse des marchands pour nous extorquer nos données, ce pétrole du 21e siècle, comme on dit.
Sur ce nouvel objet de craintes et de fantasmes, il fallait bien qu’on fasse une émission avec trois invités hautement qualifiés. Juliette.

Juliette Gramaglia : Olivier Tesquet, vous êtes journaliste pour Télérama, vous avez publié récemment sur l’application Alicem sur laquelle on aura l’occasion de revenir et vous préparez, par ailleurs, un dossier plus globalement sur la reconnaissance faciale.
Asma Mhalla, vous êtes chercheuse et enseignante à Sciences Po et vous travaillez depuis plusieurs années sur les enjeux démocratiques de la reconnaissance faciale et sur le concept de Smart City, de ville intelligente.
Didier Baichère, vous êtes député La République en Marche, vice-président de l’office parlementaire d’évaluation des choix scientifiques et technologiques et vous avez publié, en juillet dernier, une note sur la reconnaissance faciale demandant des expérimentations sérieuses pour pouvoir créer un cadre juridique.

La question de la surveillance généralisée se pose aussi en Europe

Daniel Schneidermann : Avant de discuter longuement, comme on va le faire, de la situation française, je voudrais qu’on commence cette émission par la Chine, puisque, dans l’inconscient collectif, dans l’imagination des gens comme dans les médias, quand on parle de reconnaissance faciale, on pense surtout à la Chine.

Juliette Gramaglia : Oui, c’est quand même difficile d’avoir une discussion sur le sujet sans que, à un certain moment, assez rapidement, on ne retombe sur la Chine qui est régulièrement et quasiment toujours mise en avant comme une possibilité d’avenir terrifiant qui nous attend. Un Envoyé spécial d’octobre dernier en faisait d’ailleurs une description digne des plus grands films d’anticipation.

Extrait d’Envoyé spécial – octobre 2019

Voix off : Imaginez ! Shanghai dans un futur proche, plus personne ne passe inaperçu. Chaque fait, chaque geste est scruté par des centaines de milliers de caméras. À 18 ans Wuang Lu s’est vu attribuer une note, 1000 points, qui évolue en fonction de ses actions. Elle jette un papier par terre, c’est une incivilité qui lui coûte 50 points. Elle traverse au feu rouge, moins 100 points. Mais si elle décide d’aider son prochain, par exemple en donnant son sang, sa note remonte, 900 points. Elle signale la présence d’un délinquant à la police et la voilà qui atteint le niveau supérieur, 1100 points. De cette note dépend sa place dans la société. En dessous d’un certain seuil, elle risque de ne plus avoir d’existence sociale.
Ça vous parait incroyable et pourtant, ce système de notation existe déjà. Il est testé dans 43 villes en Chine pour ficher et classer les habitants. Son nom : le crédit social.

Fin de l’extrait

Daniel Schneidermann : Première question avant d’en venir à la France. C’est vrai que là on a davantage l’impression d’être dans un numéro de la série d’anticipation Black Mirror que vraiment dans un reportage d’information. Je m’adresse au journaliste et à la chercheuse, je ne sais pas avec quelle précision vous connaissez la situation chinoise. Là on est en présence d’un reportage dramatisant où, en effet, ça se passe comme ça dans, je crois, dans 43 villes test, c’est ce qui est dit dans le reportage.

Olivier Tesquet : Il y a un peu d’extrapolation de la réalité, notamment le système de crédit social dont il est question dans le reportage, s’il est déployé dans un certain nombre de villes et de provinces en Chine, n’est pas un système aussi unifié qu’on veut bien le présenter parfois. C’est vrai que quand on regarde la Chine d’ici, on a toujours cette espèce de prisme à travers lequel on voit ça comme un tout indivisible, on voit le Parti communiste chinois.
Or, le crédit social c’est une série d’expérimentations qui sont assez disparates ; les systèmes marchent aussi assez mal finalement, en tout cas moins bien que ce qu’on veut bien dire. Le couplage avec la reconnaissance faciale n’est pas systématique. Il y a tout un tas de réserves ou d’observations à apporter à ce qu’on voit.

Daniel Schneidermann : L’impulsion est gouvernementale ou elle est municipale ?, c’est-à-dire que ce sont les communes chinoises qui décident de tester ?

Olivier Tesquet : Ce sont les provinces qui décident de le faire. Après c’est évidemment quand même sous une impulsion assez forte de l’État et des entreprises qui sont, elles-mêmes, sous perfusion de fonds publics. Effectivement en Chine, c’est aussi pour ça que c’est vu comme l’horizon suprême de la reconnaissance faciale et de la technologie en général aujourd’hui, en tout cas l’horizon sécuritaire de la technologie, c’est parce que vous avez des entreprises qui sont largement financées par l’État qui, du coup, ont les moyens de développer tout un tas de technologie plus futuristes les unes que les autres.

Daniel Schneidermann : Et on va y revenir. Asma Mhalla, sur la Chine.

Asma Mhalla : Ce qui est intéressant dans le cas de la Chine, du crédit social, c’est que la raison initiale qui avait été avancée ce n’était pas du tout le flicage de la population c’était, en fait, comment on crée un indice de confiance pour les entrepreneurs étrangers. Donc initialement, une des raisons qui était avancée, c’est comment, de façon très objectivable, on crée un indice de confiance dans les commerçants.

Daniel Schneidermann : En quoi ce système était censé créer un indice de confiance pour les investisseurs étrangers ?

Asma Mhalla : La première cible c’était les commerçants.

Daniel Schneidermann : Chinois ?

Asma Mhalla : Chinois, donc les TPE, PME, l’ensemble du tissu entrepreneurial chinois et comment, par un système de notation, donc de crédit, on note la solvabilité, la confiance, le respect des délais, etc. C’était, en fait, la raison officielle, première, invoquée. On voit que ça a été très vite amplifié et, évidemment, appliqué à l’individu.
Ce qui est aussi intéressant dans le cas chinois c’est que d’ici, de France, ce qu’on dit souvent c’est qu’en réalité ça n’arrivera pas, et c’est ce que vous disiez, c’est dystopique parce qu’on n’est pas dans le même système de valeurs, parce que c’est le gouvernement panoptique, communiste, chinois, etc. En réalité, et vous nous éclairerez peut-être là-dessus [Asma Mhalla se tourne vers Didier Baichère, NdT] peut-être qu’en France on n’aura pas ou on n’aura pas exactement ce format-là, n’empêche que la question de la surveillance généralisée, quel que soit son format, pose question. Le cas chinois est intéressant parce que c’est le paroxysme du modèle. Se cacher derrière la question ou l’excuse de « nous n’avons pas les mêmes valeurs », c’est un peu trop rapide.

Daniel Schneidermann : Le cas chinois, le cas des 43 communes chinoises. 43 ce n’est rien à l’échelle chinoise.

Asma Mhalla : Bien sûr. Le crédit social mis en place dans les provinces chinoises.

Daniel Schneidermann : Le paysage de ces 43 communes, tel qu’il ressort de cet extrait qu’on vient de voir, c’est un objectif vers lequel vous croyez que la France doit aller ? Au contraire, c’est quelque chose qui vous épouvante ? Comment vous réagissez ?

Didier Baichère : Je pense que c’est important de montrer ce cas-là, parce que c’est probablement l’exemple de ce vers quoi on ne tend absolument pas, ça c’est extrêmement clair.

Daniel Schneidermann : On ne souhaite pas tendre.

Didier Baichère : Absolument pas ! Ce n’est pas le sujet et ce serait même dangereux. Je le dis souvent, la rapidité de la discussion autour de ça fait qu’on a la tentation, on a tendance à mettre un peu tout sur le même plan, comme si la Chine, la France, l’Europe ou les États-Unis pouvaient être exactement sur le même plan. Ce n’est pas le cas. Aujourd’hui, en Chine, on peut faire ce type d’expérimentation parce qu’ils n’ont pas la loi informatique et libertés [1], parce qu’ils n’ont pas le Règlement RGPD [2] [Règlement général sur la protection des données]. Ce qui n’empêche pas d’expérimenter aujourd’hui en France un certain nombre de choses. On en viendra probablement aux exemples précis de la France.

Daniel Schneidermann : C’est-à-dire que ce qui nous en prémunit c’est la CNIL ou le règlement…

Didier Baichère : Le Règlement RGPD. Ce qui nous en prémunit c’est la voie française, la voie européenne. Aujourd’hui on a une voix très forte, en tout cas c’est mon rôle en tant que parlementaire d’exprimer quelle est la voix française et quelle est la voix française au sein de l’Europe parce qu’on n’est pas tout seuls et je pense qu’il y a beaucoup de pays européens qui nous regardent avec beaucoup d’attention sur ce sujet.

Daniel Schneidermann : La voie, v, o, i, e ?

Didier Baichère : La voix. Finalement… Moi j’aime bien la voix parce qu’on ne sait pas si c’est la voie, le chemin, ou la voix, l’expression. Dans tous les cas c’est ça, c’est exprimer fortement qu’on se raccroche au Règlement RGPD, qu’il ne s’agit pas de faire n’importe quoi, qu’on n’a pas la volonté d’aller vers un système de surveillance généralisée, ce n’est pas ça. Sauf que le règlement, la loi que nous avons aujourd’hui, le système en place permet des expérimentations qui ne sont pas, de mon point de vue, ni académiques, ni scientifiques et c’est là où il faut arriver à remettre du scientifique et de l’académique sur les algorithmes ; le rapport [3] de Cédric Villani sur le sujet est extrêmement intéressant, Cédric a déjà posé un certain nombre de pré-requis. Finalement qu’est-ce que les collectivités locales comprennent de ce sujet-là ? Est-ce qu’elles ont la compréhension scientifique du sujet ou est-ce qu’elles ne le couplent pas naïvement avec la vidéo-protection alors qu’en fait on est sur des sujets très différents. On peut avoir de la vidéo-protection sans forcément avoir de la reconnaissance faciale.
Tous ces sujets-là nécessitent de reposer le cadre très calmement, donc d’expérimenter et aussi de consulter de manière effective la population.

Daniel Schneidermann : Comment peut-on reposer le cadre ? Quels sont les gardes-fous qu’on peut ou pas être mettre en œuvre, ça va être le sujet de l’émission.
L’accroche d’actualités en France sur cette question de la reconnaissance faciale c’est ce projet Alicem, Juliette.

Alicem, confort d’utilisation et accoutumance

Juliette Gramaglia : Alicem [4] qu’est-ce que c’est ? C’est une application gouvernementale dont la création a été décidée par un décret en mai dernier et qui doit permettre aux gens d’accéder, par un seul dispositif, à de très nombreux services publics en créant ce qu’on appelle une identité numérique.
C’est par Bloomberg que l’information a d’abord filtré fin septembre, début octobre, si je ne m’abuse, avec un certain nombre d’articles qui ont ensuite été écrits sur le sujet. Le site Bloomberg assurait que l’application devait être lancée fin novembre et l’une des raisons pour laquelle beaucoup se sont soudain intéressés à Alicem c’est l’utilisation de la reconnaissance faciale lors de l’inscription sur l’application. À quoi ça ressemblerait ? France 3 en faisait une démonstration le 17 octobre dernier.

Extrait France 3 – 17 octobre 2019

Voix off : Pour l’utiliser il faut s’inscrire, photographier son passeport, puis poser par-dessus son téléphone.

Jérôme Letier : Et là, pendant quelques secondes, l’application va lire la puce de votre passeport pour vérifier que c’est un passeport authentique et elle va en extraire la photographie que vous aviez remise lors de votre demande de passeport.

Voix off : Une photo que vous devrez comparer à vous-même, en train de sourire, cligner des yeux ou tourner la tête. Utiliser ce service ne sera pas obligatoire. Selon l’État les photos ne sont pas conservées. Ce n’est pas un fichage.

Jérôme Letier : Le projet Alicem ne porte en lui-même aucune possibilité d’utilisation abusive. C’est fait sous votre contrôle et à votre initiative et il n’y a aucune trace qui est gardée à l’extérieur de votre téléphone.

Fin de l’extrait

Daniel Schneidermann : On en est aujourd’hui ? Devant l’émotion suscitée, le gouvernement a reculé ? Je n’ai pas bien compris.

Juliette Gramaglia : En fait, du côté de l’Agence nationale des titres sécurisés, donc l’ANTS qui est celle qui gère le développement de cette application, on précise aujourd’hui qu’elle est encore en phase de test auprès des employés de l’ANTS et qu’aucune date de mise en accès pour le grand public n’a encore été fixée, c’est le gouvernement qui doit la fixer. Jérôme Letier, le directeur de l’ANTS qu’on a vu dans le reportage, qu’on a contacté, vise une sortie pour fin 2019/début 2020, mais pour le moment il n’y a pas de date plus précise.

Daniel Schneidermann : Alors que ça devait être fin novembre. On est sur un report ou deux mois. Pour l’instant c’est bien ça ?

Juliette Gramaglia : Oui. Bloomberg parlait de mi-novembre.

Daniel Schneidermann : Qu’est-ce qu’il y a à craindre dans cette application ? En quoi ce n’est pas un plus, pour les usagers, de pouvoir effectivement, quand ils se connectent au site de la Sécu, au site des impôts, à je ne sais quoi, être reconnus facilement plutôt que de rentrer un mot de passe compliqué ?

Asma Mhalla : Il y a plusieurs sujets. Le premier sujet c’est la question de l’efficacité, de la légitimité de type d’usage. Aujourd’hui on a déjà un certain nombre de moyens qui sont à disposition des citoyens pour accéder à leurs divers portails, e.gov ou même en physique.

Daniel Schneidermann : e-gov ?

Asma Mhalla : E-gouvernement, toutes les applications étatiques donc impots.gouv, Pôle emploi pour ceux qui ont au chômage, la Sécurité sociale, etc.

Daniel Schneidermann : Excusez-moi, mais la reconnaissance faciale c’est plus simple ! C’est-à-dire que moi, quand je me connecte sur impots.gouv.fr, il faut à chaque fois que je tape un code de 13 chiffres, je crois. Si j’étais reconnu par le site !

Asma Mhalla : Oui, et c’est souvent l’argument qui est avancé, c’est le confort d’usage, donc c’est le gain de temps, on le voit aussi avec le PARAFE [Passage automatisé rapide aux frontières extérieures] dans les aéroports, c’est la fluidité, c’est raccourcir le temps. C’est en permanence l’argument de l’expérience, du confort, de l’ergonomie.
En réalité, ce qui se joue et qui est un peu plus problématique, c’est l’accoutumance à ces usages et on le voit très bien. Tous les cas de reconnaissance faciale ont commencé par des paiements en ligne par applicaton mobile plus simple, retrouver des amis sur des réseaux sociaux qui sont tagués de façon automatique, c’est déverrouiller l’iPhone, le smartphone. Donc on commence par ce qu’on appelle pseudo-morphisme, on introduit des usages commerciaux, marketing ou pour des raisons, d’ailleurs parfaitement argumentées, de confort d’usage et la question c’est qu’est-ce qu’on fait demain ? Ce qui est intéressant avec Alicem c’est qu’on ne le met en assez en lien avec ce qui s’est passé un an auparavant, c’est-à-dire la validation du fichier TES [Fichier des titres électroniques sécurisés] qui est une base de comparaison absolument énorme de l’ensemble de la population française, qui consolide l’ensemble de nos données, y compris les données biométriques. En réalité, on a déjà mis en place la base de comparaison. Juste pour revenir, qu’est-ce que c’est que la reconnaissance faciale ?

Daniel Schneidermann : Excusez-moi, j’ai entendu dans le sujet de France 3 « les données ne seront pas gardées. Le gouvernement nous assure que les données ne seront pas gardées. »

Olivier Tesquet : Oui, il n’y a pas d’interrogation du fichier TES dans la comparaison faciale qui intervient. Par contre, là où je rejoins ma camarade sur la question de l’accoutumance, ce qu’on appelle l’accoutumance, le gouvernement l’appelle acceptabilité, c’est le mot qui revient perpétuellement sur les questions de reconnaissance faciale en ce moment. C’est le terme qui était utilisé lors du dernier congrès Technopolice qui réunissait un peu le gratin de la police, de la gendarmerie et des industriels. On en est à débattre des modalités.
Aujourd’hui, Alicem n’est pas pour moi l’usage le plus inquiétant de la reconnaissance faciale. Effectivement c’est présenté comme une simplification administrative.

Didier Baichère : Ce n’est pas une application de reconnaissance faciale, ça touche à l’identité numérique, ça n’a rien à voir.

Daniel Schneidermann : C’est quoi la différence ?

Didier Baichère : Le sujet de départ c’est qui est mieux à même que l’État peut-être – mais c’est un débat qu’on peut avoir avec les citoyens à un moment donné – de valider, de garantir votre identité numérique. Il se trouve que dans la validation pour dire c’est bien moi, Alicem s’est inspiré de PARAFE, c’est la déclinaison parfaite de PARAFE. Quand vous allez dans un aéroport, vous passez votre passeport et la caméra qui est en face vous dit « c’est vous ? », « oui c‘est moi, non ce n’est pas moi », le truc s’ouvre et toutes les données disparaissent. Là c’est la même chose.

Daniel Schneidermann : En quoi ce n’est pas de la reconnaissance faciale ?

Didier Baichère : On utilise la technologie de reconnaissance faciale pour authentifier à un moment donné une personne. On fait une comparaison entre un gabarit et...

Daniel Schneidermann : Je voudrais qu’on s’entende bien sur les mots. Si Alicem n’est pas de la reconnaissance faciale, en fait qu’est-ce qui lui manque pour être de la reconnaissance faciale ?

Asma Mhalla : C’est de la reconnaissance faciale.

Didier Baichère : Le problème c’est qu’on fait toujours des raccourcis, encore une fois ça va trop vite. Alicem n’est pas un dispositif de reconnaissance faciale, c’est un dispositif qui vise à garantir l’identité numérique.

Asma Mhalla : C’est l’objectif de la reconnaissance faciale.

Didier Baichère : Et qui utilise, pour valider que c’est bien vous, une technologie de reconnaissance faciale. Mais dans l’expérimentation, je pense que c’est important de redire qu’on est dans le cadre d’une expérimentation, d’ailleurs tous les débats vous nourrir les évolutions d’Alicem, on dit bien que dans la proportionnalité peut-être que finalement on ne sera pas obligé de passer par la reconnaissance faciale pour garantir son identité numérique. Peut-être qu’on gardera, c’est cette histoire de la proportionnalité, d’aller dans sa mairie pour valider qu’on est bien la personne.

Daniel Schneidermann : D’accord. Je voudrais qu’on s’entende sur les mots parce que sinon l’émission va être compliquée, pour l’instant on est bien dans un dispositif de reconnaissance faciale ?

Asma Mhalla : D’un point de vue technique oui.

Didier Baichère : On est un dispositif qui utilise la reconnaissance faciale pour valider que vous êtes bien réellement cette personne.

Olivier Tesquet : Je pense que c’est le moment d’opérer un distinguo qui est important. On a un ensemble qui est la reconnaissance faciale, là-dedans on a l’authentification. L’authentification c’est Alicem, l’authentification c’est PARAFE quand vous passez les contrôles aux frontières, que vous prenez l’avion. L’autre question, qui est la question qui me préoccupe peut-être davantage aujourd’hui quand on parle de reconnaissance faciale, c’est la question de l’identification, c‘est-à-dire identifier quelqu’un : on va avoir une caméra ici qui va déterminer que vous êtes bien Daniel Schneidermann en interrogeant, par exemple, une base de données. Ça c’est notamment l’application policière qui est un peu l’eldorado sécuritaire aujourd’hui quand on parle de la reconnaissance faciale. Donc il y a ce distinguo entre l’authentification d’un côté, l’identification de l’autre, mais dans tous les cas c’est de la reconnaissance faciale.

Daniel Schneidermann : Ce qui fait la limite c’est : est-ce qu’on a recours à une base de données ou pas ? C’est bien ça ?

Olivier Tesquet : C’est ça. C’est-à-dire qu’à partir du moment où on interroge une base de données, là on est dans l’identification, on change d’échelle, mais, encore une fois, les deux questions sont liées. À partir du moment où on crée cette accoutumance, où Alicem est une brique logicielle, après on peut la présenter comme on veut, en tout cas, on pose la question et je trouve qu’on doit se saisir de cette question-là : est-ce qu’en tant que société on veut être dans un univers et dans un milieu où on peut identifier les individus ?

Daniel Schneidermann : Vaste question. Avant de poser les questions, je voulais qu’on s’entende sur les mots. Juliette.

Juliette Gramaglia : Je voulais juste donner une précision parce que vous disiez qu’on pourrait peut-être utiliser autre chose que la reconnaissance facile. La CNIL a rendu un avis dans lequel elle critiquait notamment le fait que dans Alicem il n’y a aucune autre possibilité que la reconnaissance faciale pour confirmer son identité, ce qui irait à l’encontre du RGPD, le Réglement général sur la protection de données. Du coup, j’ai contacté Jérôme Letier de l’ANTS et, dans la phase de test qui est encore en cours, l’ANTS n’envisage pas de faire une alternative à la reconnaissance faciale à l’intérieur d’Alicem, considérant qu’il existe d’autres moyens, par ailleurs, d’accéder aux services publics qui seraient accessibles sur Alicem, donc il n’y a pas besoin à l’intérieur d’Alicem...

Daniel Schneidermann : D’accord.
On a démarré sur les chapeaux de roue sur les questions de surveillance, de flicage universel, etc., mais ce n’est pas la seule question que pose Alicem et que posent ces dispositifs. Il y en a une autre que je voudrais qu’on évacue tout de suite pour revenir ensuite à la surveillance et elle a été posée par le Défenseur des droits, Jacques Toubon.

Juliette Gramaglia : Oui, l’autre question que ça pose d’une manière plus globale c’est celle de la fracture numérique, puisqu’on est quand même sur une numérisation de l’intégralité des services publics demandée et voulue pour 2022. Est-ce que ça ne va pas conduire à mettre sur le carreau un certain nombre de Français ?, on pense notamment aux personnes âgées, aux zones blanches où l’accès à Internet est compliqué. On pense aussi aux immigrés qui n’ont pas forcément les compétences, les connaissances pour accéder aux services publics sur Internet et qui en ont besoin pour leurs démarches administratives. C’était effectivement l’inquiétude qui était exprimée par Jacques Toubon, le Défenseur des droits, le 12 novembre dernier.

Jacques Toubon, voix off : C’est plus qu’une fracture numérique. C’est une organisation des services publics, des procédures, des effectifs qui fait qu’il y a de moins en moins de présence humaine dans les services publics, dans les administrations en face des usagers, des prestataires, des justiciables, toutes les personnes, les hommes et les femmes, qui ont besoin des services publics.
À partir de ce moment-là, cela crée une inégalité profonde entre les personnes qui peuvent accéder aux services publics, donc à leurs droits, et celles qui ne peuvent pas. Et ce que j’ai dit en ce qui concerne la numérisation, c’est qu’il existe 20 à 25 % de la population qui ne peut pas accéder aux services publics, donc à ses droits, à travers des demandes en ligne. C’est une question qui est plus essentielle : est-ce que le service public va continuer à être universel, c’est-à-dire à s’adresser de manière égale à toutes celles et à tous ceux qui vivent dans notre pays, qui ont besoin du service public ou est-ce qu’il y aura des laissés pour compte ?

Daniel Schneidermann : Est-ce qu’un des objectifs d’Alicem, je ne dis pas le seul, un des objectifs est de contribuer à la réduction du nombre de fonctionnaires en France ?

Didier Baichère : Absolument pas.

Daniel Schneidermann : Ah bon ! Mais ça risque d’être un effet. Ça peut être un effet.

Didier Baichère : Non, non. On n’a pas attendu Alicem pour numériser les services publics. Cette question de l’accès au numérique est posée de manière générale. Ce que pointe Jacques Toubon est essentiel. C’est pour ça que vous avez les Maisons de services au public ou demain les Maisons France Service. Si vous ne pouvez pas déclarer vos revenus avec Internet il n’y a pas de question de reconnaissance faciale dans ce sujet-là. Tout simplement aujourd’hui, quand vous devez commander un billet même de train, on peut prendre cet exemple très concret, vous n’avez quasiment plus de guichets grandes lignes dans les villes, donc la question de la fracture numérique se pose. C’est pour ça qu’il faut qu’il y ait toujours dans le service public – et je pense que les mairies, de manière générale, sont le lieu où on peut faire ça – une possibilité d’accéder à ces services numériques, parce que, sinon, on va effectivement engager une fracture numérique qui n’est pas souhaitable.

Daniel Schneidermann : Sur ce point du risque de la fracture numérique, est-ce qu’il existe indépendamment de la reconnaissance faciale ? Est-ce que la reconnaissance faciale l’accentue ?

Olivier Tesquet : Sur le cas d’Alicem par exemple, c’est aussi l’argument que m’avait donné Jérôme Letier, le directeur de l’ANTS, qui était de dire vous pouvez toujours aller en mairie faire les démarches en accédant directement au site de la sécu, au site de la CAF ou que sais-je encore. Encore une fois, il y a quand même une prime à la littératie numérique, c’est-à-dire que si vous avez l’habitude de manipuler un smartphone, que vous savez vous en servir, que vous en possédez un, vous être privilégié, on va dire, c’est plus facile pour vous. Vous avez effectivement le choix de ces différents dispositifs. À partir du moment où, demain, peut-être que vous n’avez pas de connexion à Internet, où il n’y a plus de service public près de chez vous, est-ce que vous allez avoir le choix d’utiliser ou non cette technologie ?, la question peut se poser. Donc la question du consentement, qui était le point soulevé par la CNIL, est effectivement une réalité dans un certain nombre d’endroits en France, et il en existe beaucoup, où les alternatives ne sont peut-être pas aussi évidentes qu’ici à Paris ou dans une grande ville.

L’interpénétration public-privé

Daniel Schneidermann : C’est clair.
La surveillance, le risque que fait peser la reconnaissance faciale de flicage universel, on va dire, on va aborder le débat à travers l’exemple de la radieuse ville de Nice.

Juliette Gramaglia : Oui, parce qu’en matière de reconnaissance faciale, comme d’ailleurs auparavant en matière de vidéosurveillance, l’un des politiques qui pousse le plus pour adopter cette technologie dans un usage sécuritaire, c’est Christian Estrosi, le maire LR de Nice. Parmi les dispositifs qu’il a, avec d’autres, défendus, l’introduction de la reconnaissance faciale dans deux lycées, l’un à Nice et l’autre à Marseille, TF1 en parlait en novembre 2018.

Extrait TF1 – novembre 2018

Voix off : La CNIL surveille de près un projet de la région PACA digne d’un film de science-fiction. Dans ce lycée, les élèves ne seront plus seulement surveillés mais identifiés par reconnaissance faciale, des portiques devraient être installés en début d’année.

Philippe Albert, proviseur du lycée les Eucalyptus de Nice, voix off : Le système va être installé dans cette partie-ci de la cour avec trois couloirs qui vont distribuer le passage des personnes qui sont volontaires pour participer à cette expérimentation.

Voix off : Les élèves pris en photo disposeront d’un badge biométrique et devront se présenter devant une caméra pour entrer au lycée. Si le visage n’est pas reconnu, les surveillants seront immédiatement alertés sur leur tablette.

Philippe Albert, proviseur du lycée les Eucalyptus de Nice, voix off : C’est un dispositif qui se veut complémentaire par rapport au rôle du surveillant, mais en aucun cas il ne saurait le remplacer.

Voix off : Les professeurs, eux, ne sont pas concernés par le dispositif mais certains s’interrogent sur l’utilisation des données de leurs élèves.

Didier Giaufer, professeur, secrétaire départemental SNES Alpes-Maritimes, voix off : Ce fichier va être donné à une entreprise extérieure, privée, et derrière il y a toute l’utilisation des données personnelles. Ça pose un problème d’éthique par rapport à notre public d’élèves mineurs.

Fin de l’extrait

Juliette Gramaglia : Il faut savoir que La Quadrature du Net [5] qui est une association de défense des libertés numériques, avec d’autres organisations, a déposé un recours contre ce projet. Fin octobre la CNIL a rendu un avis indiquant que le dispositif, je cite, « ne saurait légalement être mis en œuvre, notamment parce que le projet n’était pas conforme au principe de proportionnalité », c’est-à-dire pour faire rentrer des élèves dans un lycée, il y a peut-être d’autres moyens que la reconnaissance faciale. L’avis de la CNIL n’est pas contraignant en soi et le recours devant le tribunal administratif n’a pas encore été examiné. Christian Estrosi continue à défendre le projet comme il le faisait encore cette semaine au micro de France Info.

Extrait France Info

Christian Estrosi, voix off : Nous avions décidé une expérimentation dans un lycée de Nice et un lycée de Marseille. D’ailleurs ce n’est pas de la reconnaissance faciale, c’est de la comparaison faciale. C’est d’autant plus incompréhensible de la part de la CNIL.

Voix off : C’est quoi la différence ?

Christian Estrosi, voix off : La comparaison faciale c’est ce que vous faites avec votre passeport lorsque vous passez au contrôle aux frontières.

Voix off : Un lycée n’est pas une frontière.

Christian Estrosi, voix off : Si ce n’est que nous avions choisi avec des élèves volontaires, l’accord parental, l’accord du conseil d’administration, simplement qu’avec le badge d’accès on vérifie que ce ne soit pas un badge volé, que ce soit bien le vôtre par de la comparaison faciale. C’est donc inexplicable de la part de la CNIL de prendre une décision qui, pourtant, s’applique aux frontières avec nos passeports.

Fin de l’extrait

Daniel Schneidermann : Si je comprends bien, Estrosi est raccord avec vous, c’est-à-dire qu’il faisait le distinguo reconnaissance-comparaison et dans le dispositif mis en œuvre dans les lycées, on voyait que la comparaison.

Didier Baichère : Il a raison et il a tort. Là où il a raison c’est qu’on pourrait se borner à se dire « le lycée est un endroit privé, j’ai les badges de mes élèves de toute façon, je pourrais avoir aujourd’hui un badge papier avec la photo et un humain qui regarde si c’est bien la bonne personne ». Lui dit : « J’ai le droit de faire ce que je veux dans un environnement privé, le RGPD ne m’interdit pas le faire, donc je vais juste remplacer l’homme par une machine qui comparera. » Là où il a complètement tort, c’est déjà que les élèves sont mineurs, donc comment ils peuvent donner un consentement à un moment donné.

Daniel Schneidermann : On parle d’élèves volontaires dans le sujet.

Asma Mhalla : Ce sont des mineurs.

Olivier Tesquet : Leur consentement n’est pas très éclairé.

Didier Baichère : Ils sont mineurs. De toute façon ils ne peuvent pas, au sens juridique du terme, donner un consentement clair et précis. Là on dépasse complètement le cadre légal. Le cadre légal interdit de le faire, ils arrêtent et on n’ira pas au-delà avec cette expérimentation, bien sûr.

Asma Mhalla : Ce qui est encore plus gênant dans le cas de l’expérimentation sur un public mineur, outre la question du consentement en particulier, c’est la question des entreprises privées qui était évoquée dans le reportage. En réalité l’expérimentation dans les deux lycées, à Nice et à aussi Marseille, Ampère et Eucalyptus, a été donnée à une entreprise privée. On transfère progressivement et petit à petit des questions régaliennes, de sécurité en fait, sous format de partenariats privé-public qui génèrent des millions, des dizaines de millions d’euros à chaque fois, sur chaque projet. Sur Alicem je crois que c’était trois millions et demi d’euros, etc.
En réalité, on vide petit à petit l’État de droit de sa substance, on vide petit à petit les compétences de l’État et on les transfère vers des méga-industriels privés. C’est ce truchement permanent entre privé et public qui pose réellement question, qu’on voit depuis quelque temps, et Snowden [6] l’a beaucoup documenté. Ce sont en permanence des collusions entre l’État et les intérêts privés où le punitif et le divertissement s’interpellent en permanence. Tout à l’heure on parlait d’accoutumance par les usages : on commence par l’iPhone, on commence par Facebook et, en fait, on s’anesthésie, on dépolitise le sujet et, petit à petit, on arrive à ce que Macron lui-même appelait la co-gouvernance.

Didier Baichère : Il faut qu’on s’arrête deux secondes là-dessus, parce que c’est vraiment essentiel. Il y a ce que vous dites, bien sûr, je suis très soucieux de la dimension souveraineté régalienne, etc., mais il y a aussi, quand on fait des expérimentations qui ne sont pas des expérimentations scientifiques, académiques, donc avec un cadre qui a été validé par des gens dont c’est le métier.

Daniel Schneidermann : Du genre Nice ?

Didier Baichère : Du genre Nice, ce n’est pas une expérimentation académique et scientifique. En fait on donne des données à un industriel, il fait travailler son algorithme avec des données, des images, etc., et on ne sait pas ce qu’il en fait après.
Quand on appelle à de l’expérimentation scientifique et académique, et c’est d’ailleurs ce que dit la CNIL dans sa note du jour, elle explique très clairement qu’il faut dire comment sont bornées les données, comment on les utilise et comment on les détruit. La reconnaissance faciale ne marche que parce que les algorithmes se sont entraînés et si on veut diminuer les bais on sait bien qu’il faut, à un moment donné, avoir des photos françaises et européennes, ce qui n’est absolument pas le cas aujourd’hui. Sauf que circonscrire une expérimentation avec 3000 personnes à Nice par exemple, le cas des élèves, ne permet pas d’entraîner correctement les algorithmes.

Daniel Schneidermann : Vous appelez de vos vœux des expérimentations encadrées. Mais encadrées par qui ?

Didier Baichère : J’appelle à deux choses.

Daniel Schneidermann : Encadrées par qui ?

Didier Baichère : Un Conseil national scientifique, un Conseil national d’éthique [7] qui existe dans le cadre des lois de bioéthique, qui est étendu parce qu’il vient d’être nommé aujourd’hui à l’extension sur l’intelligence artificielle de manière générale, donc un collège de scientifiques, de gens qualifiés qui, à un moment donné, vont pouvoir dire ce qu’est un algorithme ? Comment on peut vérifier que l’algorithme qui est utilisé pour des sujets qui vont toucher au public, aux collectivités locales, à l’État, etc., est un algorithme qui a mis la transparence, l’éthique en premier lieu. Ça veut dire que les industriels qui seront qualifiés à un moment donné auront ouvert les codes sources sur ces sujets-là.

Olivier Tesquet : Je voudrais juste revenir sur les expérimentations menées à Nice et à Marseille. Il faut quand même un peu rappeler ce qui s’est passé. C’est une entreprise américaine, Cisco, qui a démarché la région pour venir expérimenter son dispositif de reconnaissance faciale dans les lycées. Je suis allé à Marseille. Ce n’est pas n’importe quel lycée dans lequel ils expérimentent ça. Ils ne vont pas mettre ça dans un lycée du 7e ou du 8e arrondissement marseillais. Ils vont mettre ça dans un lycée professionnel du 10e arrondissement, qui est un quartier populaire, où ce sont des élèves qui sont majoritairement issus des quartiers nord. Vous avez une population extrêmement racisée et c’est sur cette population-là qu’on va décider de tester ces dispositifs. C’est déjà quand même un premier point qui m’interpelle. Le fait qu’on le fasse à l’école, je trouve que c’est tout sauf un hasard. L’école est une institution disciplinaire au sens où la décrivait Foucault, c’est une institution disciplinaire avec une population qui est homogène, c’est-à-dire que d’une année sur l’autre l’échantillon des élèves va toujours être semblable. Vous avez déjà des écoles et des établissements scolaires, et en particulier dans la région sud, qui collectent un certain nombre d’informations. Ils ont les photos des élèves. Il y a des bases de données biométriques dans les collèges de la région sud parce que, maintenant, on n’utilise plus les badges de cantine, mais on utilise son empreinte digitale pour aller se restaurer le midi. Tout ça intervient quand même dans un contexte assez particulier.
À Nice, les portiques ont été installés pendant les vacances scolaires, en douce, sans que personne ne soit au courant. Les associations de parents d’élèves, les syndicats de professeurs, n’étaient pas conviés on va dire aux interventions et aux réunions pour mettre en place le dispositif et les pouvoirs publics de la région sont allés jusqu’à invoquer le risque d’attentat pour justifier la mise en place de ces dispositifs auprès des parents d’élèves et des enseignants.
Quand on parle de transparence, juste refaire cette petite histoire-là montre à quel point, aujourd’hui, on est dans une espèce d’hybridation public-privé assez mortifère et d’une opacité assez effrayante.

Daniel Schneidermann : Vous avez des explications sur les raisons pour lesquelles ça a été expérimenté dans des lycées populaires, accueillant essentiellement des élèves racisés ?

Didier Baichère : Si vous n’avez pas de cadre, aujourd’hui vous faites ce que vous voulez, la collectivité locale fait ce qu’elle veut du moment qu’elle respecte le RGPD. Encore une fois il faut s’exprimer fortement sur ces sujets-là en disant que ce n’est pas la voie qu’on veut prendre et que ce n’est pas ça qu’on encourage, par contre, quand je me mets dans leurs chaussures deux minutes, le cadre légal qui permettrait de contrôler ce qu’ils font et de le faire de manière scientifique et académique, n’existe pas. Pourquoi on appelle à une régulation sur ces sujets-là ?, pour éviter que les collectivités locales, qui ont été beaucoup dans L’Apprenti sorcier sur la vidéo-protection, débordent à un moment donné de leurs compétences et se mettent à faire ces types d’expérimentations qui ne sont pas souhaités.

Daniel Schneidermann : Asma Mhalla.

Asma Mhalla : Quand on parlait justement des cibles qu’on utilise pour les expérimentations, donc des populations racisées, défavorisées, ce qu’on voit aussi dans les biais des algorithmes de reconnaissance faciale et des algorithmes de façon générale, ce sont les biais. C’est, en fait, une reproduction des discriminations. On se rend compte que typiquement les bases de comparaison, TES ou peu importe, toutes les bases de comparaison qu’on peut avoir, en réalité ont des taux de fiabilité très élevés quand ce sont des hommes caucasiens, donc blancs. On a des taux d’erreur qui peuvent monter à plus de 30 % quand ce sont des femmes noires, par exemple.

Daniel Schneidermann : Comment ça se fait ?

Asma Mhalla : Ça se fait parce que techniquement les bases de comparaison ne consolident pas suffisamment, en fait, d’images de femmes et de noirs, puisque les bases sont essentiellement nourries, donc les algorithmes sont essentiellement entraînés sur des hommes blancs. En réalité ils sont parfaitement entraînés et, en effet, on a des taux de succès, des taux de fiabilité plutôt élevés sur des cibles blanches et on a des taux d’erreur qui sont beaucoup plus élevés, donc inacceptables, quand on est sur des taux d’erreur à 30 %, sur des personnes noires, des femmes, etc.

Daniel Schneidermann : Est-ce que ce n’est pas contradictoire avec le fait de craindre que ces dispositifs visent en premier lieu les racisés ? Si ça vise en premier lieu les racisés, les bases de données de racisés devraient être mieux fournies, si j’ose dire, que les bases d’hommes blancs.

Asma Mhalla : En l’occurrence non. En l’occurrence aujourd’hui, par ailleurs, l’algorithme est une boîte noire, donc Cisco, etc. On n’a aucune façon, aujourd’hui, d’auditer comment les algorithmes et les arbres de décision qui sont injectés dans les logiciels sont construits, ce qui est une des clefs du sujet…

Didier Baichère : C’est une des clefs du sujet. Dans le rapport de Villani, souvenez-vous, il y a le point essentiel.

Asma Mhalla : Absolument. Que vous avez vous-même repris. La question c’est comment on va plus loin.

Daniel Schneidermann : C’est quoi la clef du sujet ?

Didier Baichère : L’audit des algorithmes.

Asma Mhalla : L’audit des algorithmes, comment on ouvre la boîte noire pour comprendre quels sont les biais sont intégrés.

Daniel Schneidermann : Bien sûr.

Didier Baichère : Le rôle d’un État, à un moment, c’est celui-là.

Asma Mhalla : Juste sur la question de l’expérimentation, je terminerai là-dessus, de ma compréhension, quand même, de ce qu’est un pilote, une expérimentation, ce sont toujours des phases 0 avant une généralisation. On est bien d’accord ? On n’expérimente pas pour l’amour de l’expérimentation ou pour l’amour de la science, on expérimente pour tirer des premières conclusions, pour généraliser. Si l’idée c’est d’expérimenter on ne sait pas trop quoi, sur on ne sait pas trop quel périmètre, pour généraliser.

Didier Baichère : On sait précisément. On sait quoi expérimenter, quels cas d’usage, quelle région, quelle durée, etc. Ça on le sait. Désolé. Je ne suis pas un sachant.

Asma Mhalla : Quels sont-ils ? Typiquement, quelles expérimentations appelez-vous de vos vœux ?

Didier Baichère : Très simplement aujourd’hui il y a trois cas d’usage qu’il faut tester : les aspects de sécurité, on en a parlé ; les aspects de gestion de flux, on en a parlé aussi rapidement ; et il y a surtout tous ces cas d’usage commerciaux – je ne donne qu’un avis personnel mais c’est à la lumière de toutes les auditions que j’ai pu faire depuis 12 mois sur le sujet – tous ces cas d’usage commerciaux qui, mon avis, vont probablement être rejetés en masse par les citoyens.
Quand vous arrivez, à un moment donné, dans une expérience commerciale où quand vous allez rentrer dans un magasin qui vend des cosmétiques et que, compte-tenu de votre morphologie, on va vous proposer de l’antirides ; quand vous rentrez dans un restaurant et qu’on va vous proposer la version XXL versus la version normale parce que votre morphologie semble plus importante que celle d’une autre personne, on atteint la limite de ce qui est le respect de la liberté individuelle. Et ça, en termes de pédagogie sur ces sujets, il y a un énorme travail à faire. C’est pour ça que j’appelle à une consultation citoyenne effective pour s’assurer qu’à travers cette consultation on fasse cette pédagogie.

Olivier Tesquet : Oui et non. Parce que, en récupérant les attendus du Congrès de Technopolice qui s’est tenu au mois de septembre, je lisais un colonel de la Gendarmerie qui était, par ailleurs, un colonel de la Gendarmerie qui avait écrit une note du Centre de recherche de l’École des officiers de la Gendarmerie nationale, qui appelait de ses vœux la reconnaissance faciale en disant justement que si on arrivait à réduire les biais dont il était question, on résoudrait le problème des contrôles au faciès par un contrôle d’identité permanent et général. Je laisse à tout un chacun le soin de se faire une idée.

Didier Baichère : Ce qui légalement n’est pas possible. Encore une fois c’est important de redonner sur le cadre.

Asma Mhalla : Ce qui légalement n’est pas possible aujourd’hui.

Olivier Tesquet : C’est important de redonner le cadre légal mais c’est aussi important de préciser que c’est quand même la parole d’un colonel de Gendarmerie.

Daniel Schneidermann : J’ajoute qu’on a tenté d’inviter ce colonel de Gendarmerie qui n’a pas répondu à notre invitation.

Juliette Gramaglia : Le colonel Schoenher, qui n’a pas souhaité venir s’exprimer.

Daniel Schneidermann : On aurait adoré entendre ce colonel de Gendarmerie.

Olivier Tesquet : Ce colonel de gendarmerie disait aussi qu’en Chine, on est toujours face à ce repoussoir chinois, qui est un repoussoir mais qui est quand même aussi quelque chose sur lequel on peut s’appuyer, y compris parce qu’on aura peut-être l’occasion d’y revenir, on rechigne au modèle chinois mais pas forcément à l’achat de technologies chinoises. Ce colonel de Gendarmerie disait qu’en Chine les usages commerciaux de la reconnaissance faciale avaient été admis et qu’il ne voyait pas pourquoi chez nous, où on peut estimer qu’on suit un peu la même pente – effectivement aujourd’hui vous pouvez déverrouiller votre téléphone avec votre visage, il y a déjà des usages commerciaux de la reconnaissance faciale qui se sont démocratisés – on serait réfractaires à une utilisation régalienne, au nom de la sécurité, de ces types de dispositifs.
Je pense qu’il est quand même important de garder à l’idée que cette articulation entre les usages commerciaux, qui préparent justement le terrain, sont ensuite utilisés comme des prétextes et comme des arguments par les tenants de cet eldorado sécuritaire.

Daniel Schneidermann : Ce colonel de Gendarmerie raisonne comme un colonel de Gendarmerie !

Asma Mhalla : La première brique de l’expérimentation c’est la sécurité.

Didier Baichère : Aujourd’hui, quand vous demandez à accéder à des bandes de vidéos dans le cadre d’une affaire c’est un juge qui précise, dans le cadre d’une enquête, qu’on va pouvoir consulter. Il n’est pas question de déroger à ça aujourd’hui. Qu’il y ait une technologie qui, à moment, permet d’accélérer quand il y a une commission rogatoire pour retrouver plus rapidement les gens, oui, certainement. Mais aujourd’hui il n’y a aucune possibilité avec une technologie de dire « tiens on va croiser des fichiers ». Non, c’est n’existe pas.
Les gens ont l’impression que parce que c’est possible on le fait. Non, aujourd’hui la loi interdit strictement de croiser des bases de données numériques.

Asma Mhalla : Vous venez de le dire : la loi aujourd’hui. Or la loi ce sont des textes malléables qu’on peut réécrire, qu’on peut annoter en permanence, etc. D’ailleurs on le voit même sur le fichier TES, l’article 4 est très vague, c’est-à-dire qu’il donne quand même aux agents de sécurité, de police, etc., accès à ces bases de données, à ces bases de comparaison dans les cas d’intérêt suprême de la nation et de terrorisme. On sait parfaitement que la définition de ce qu’est un terroriste aujourd’hui ne sera peut-être pas la même demain ; qu’en fonction de entre les mains de qui on va mettre ces outils-là on peut avoir un cas chinois qui peut se profiler, etc. Donc la loi n’est pas une espèce ce garde-fou absolu puisque c’est un texte qui est absolument malléable.

Daniel Schneidermann : On est bien d’accord. On comprend bien que vous êtes sceptique sur la technologie elle-même en disant finalement aujourd’hui il a des lois protectrices et demain une autre majorité arriverait au pouvoir ou la même majorité, une loi ça se change. Mais alors qu’est-ce qu’on fait pour empêcher que se développe cette technologie, pour empêcher la recherche sur cette technologie, pour empêcher qu’elle progresse, qu’elle s’affine ? On fait quoi ? On interdit la recherche ? On fait comment ?

Asma Mhalla : Non, on n’interdit pas la recherche. Ça c’est très intéressant. Évidemment qu’il faut innover ! Ce qu’on entend aussi beaucoup dans le discours, en tout cas l’impression que j’ai, c’est « on innove pour innover », donc l’innovation devient une fin en soi. Or, pendant très longtemps, l’innovation était un moyen pour une forme de progrès social. En réalité, on voit très aujourd’hui que les nouvelles technos ne sont pas du tout vecteurs de progrès. Elles sont vecteur de nouveaux usages, elles sont vecteur de confort d’utilisation, on le met souvent en avant. Ce qui est très embêtant c’est que l’Europe, avec le RGPD, s’est mise ou s’est positionnée sur l’échiquier mondial comme la championne de l’éthique. Pourquoi est-ce qu’on n’innoverait pas sur la question des libertés, sur la question de l’éthique ?

Daniel Schneidermann : Vous n’avez pas répondu à ma question : on fait pour empêcher une technologie de se développer, de progresser et de s’affiner. Est-ce que quelqu’un a une réponse à cette question ?

Didier Baichère : C’est toute la contradiction.

Olivier Tesquet : Il faut spatialiser le problème.

Daniel Schneidermann : C’est-à-dire ?

Olivier Tesquet : Il faut spatialiser le problème, il faut regarder ce qui se passe dans les villes. Tout à l’heure on parlait d’Alicem. C’est pour ça que je regarde de beaucoup plus près ce qui est expérimenté à Nice, ce qui expérimenté à Marseille, ce qui sera expérimenté demain ailleurs.
Gardons l’exemple de Nice, c’est un bon cas d’étude. Pour le coup Nice qui est une espèce de showroom sécuritaire, qui est la ville la plus vidéo-surveillée de France, offre effectivement un certain nombre d’informations intéressantes sur ce qui pourrait ensuite s’étendre à un certain nombre de municipalités. À Nice vous avez, du coup, un centre de supervision urbaine, CSU. Il y en a dans d’autres villes de France, il y a tout un tas de villes de France qui disposent d’un réseau de vidéosurveillance, qui veulent se doter elles-mêmes de leur propre CSU parce qu’elles voient ce qui se fait dans ce type de ville.
Quand Christian Estrosi décide de mener cette expérimentation dans les lycées, si la CNIL n’intervient pas ou s’il décide de passer outre – et Renaud Muselier, le président de la région, était un peu sur la même ligne en disant « on y retournera » –, qu’est-ce qui va demain les empêcher, ou avec quel contrôle on va s’assurer que le flux d’informations extraites de la reconnaissance faciale dans lycées ne va pas être couplé au centre de supervision urbain, au réseau de vidéosurveillance, à la vidéosurveillance intelligente ? Je veux bien que ça ne soit pas de la reconnaissance faciale à proprement parler, il y a un distinguo, mais ça procède quand même de la même réflexion.

Daniel Schneidermann : Vous dites exactement la même chose que notre député. Il y a effectivement des expérimentations sauvages qui ne sont pas acceptables et qu’il faut les encadrer, qu’il faut les encadrer avec des garanties. Vous dites la même chose.

Olivier Tesquet : Là-dessus, ce serait difficile de ne pas être d’accord.

Didier Baichère : Si on peut s’arrêter sur le citoyen. On est tous d’accord sur le sujet, sauf que nous on est un peu éclairés, c’est-à-dire qu’on est dedans, on a cherché, etc. Si vous ne faites de la pédagogie avec le citoyen lambda... J’ai eu accès à Nice, dans le cadre de mes auditions, de manière très transparente je dois le dire, il n’y a pas eu de volonté de la ville de Nice, d’essayer de cacher des choses, de manière extrêmement transparente.

Olivier Tesquet : Je me permets quand même : il n’y a pas eu de volonté de Nice de cacher des choses. On a parlé de l’expérimentation dans les lycées, on pourrait peut-être revenir deux minutes sur l’exemple du carnaval.

Didier Baichère : Bien sûr. Je vais juste aller au bout.

Daniel Schneidermann : Allez au bout et on va parler du carnaval.

Didier Baichère : Si, à un moment donné, les habitants de Nice ne connaissent pas, au sens pédagogique du terme, la finalité de ce qui est en train de se passer, ils vont décider comment ? Ils vont décider en fonction des usages. Ils vont dire « je ne comprends pas, ça va vite, ça me permet de gagner du temps ». Vous avez tous les cas d’applications, on n’en a pas parlé, mais une personne âgée, une personne handicapée peut avoir une expérience utilisateur honnêtement extrêmement positive – extrêmement est peut-être un bien grand mot – en tout cas différente de ce qu’elle est aujourd’hui ; on peut gagner une forme d’autonomie avec la reconnaissance faciale. Donc il ne faut pas se priver de ces évolutions-là.

Asma Mhalla : La question sur les usages. L’usage qui est embêtant c’est l’usage sécuritaire.

Daniel Schneidermann : Un mot sur le carnaval puisqu’on a parlé du carnaval. Il y a effectivement ce qui a été fait et il y a la manière dont c’est présenté. On va vous raconter comment ça a été présenté sur TF1, c’est ça ?

Juliette Gramaglia : Il me semble. Oui, c’est TF1.
Pour revenir sur l’histoire : en février dernier la ville de Nice a mené sur trois jours une expérimentation de reconnaissance faciale pendant ce fameux carnaval. Elle concernait exclusivement des personnes volontaires, quelques milliers, et visait à tester plusieurs scénarios dans lesquels la reconnaissance faciale pouvait être utilisée. On peut d’ailleurs voir la manière dont TF1 en parlait.

Extrait télévisé

Voix off : Appel. Une maman vient de perdre sa petite sa petite fille. La maman nous a donné une photo, on vous l’envoie.

Voix off : Pouvoir retrouver un enfant perdu à partir d’une photo et en quelques minutes seulement. [Bruit de sirène].

Voix off : Saturne, la petite fille a été localisée.

Voix off : C’est l’une des fonctions de ce logiciel de reconnaissance faciale testé aujourd’hui et demain au carnaval de Nice. Au total 1000 volontaires vont se fondre dans la foule. Parmi eux, le système recherchera des faux suspects ou alors des faux enfants égarés. Une innovation qui fonctionne avec des caméras de surveillance déjà existantes.
Une expérimentation pour laquelle la Commission nationale de l’informatique et des libertés a donné son feu vert le 15 février.

Patrick Allemand, élu PS d’opposition, voix off : Dès l’instant où effectivement ce sont des volontaires et, qu’en plus, ce n’est connecté à aucun fichier, la CNIL ne peut que dire oui à une expérimentation de ce type. Ce qui sera efficace c’est la jonction entre ça et des fichiers, on ne sait pas quels fichiers et c’est bien là le fond du problème.

Voix off : Les résultats de l’expérience seront adressés sous la forme d’un rapport aux parlementaires, au gouvernement et à la CNIL.

Fin de l’extrait télévisé

Daniel Schneidermann : Ce n’était pas du tout TF1, c’était BFM. On voit que BFM présente l’expérience sous un jour tout à fait choupinou, pour arriver à retrouver des petites filles perdues dans le carnaval.
Vous disiez que vous avez remarqué qu’à Nice l’expérience s’était déroulée dans une certaine opacité.

Olivier Tesquet : Je ne sais pas si on peut parler d’opacité, mais c’est surtout dans un déni de réalité que je trouve assez flagrant. Là aussi il faut quand même repréciser le contexte. On a une entreprise monégasque, qui s’appelle Confidentia, qui travaille avec un logiciel israélien qui s’appelle Anyvision, qui est par ailleurs le logiciel utilisé par les autorités israéliennes pour garder la population cisjordanienne sous contrôle ; on eut s’interroger sur fait choix de cette société, passe encore.

Daniel Schneidermann : Vous avez enquêté pour savoir comment cette société a été choisie ?

Olivier Tesquet : Je gratte un peu, mais on sait que c’est une société qui est, par exemple, financée par Microsoft, il y a quand même beaucoup d’argent derrière, mais surtout, on nous vend une expérimentation ; à la fin du reportage on parle des résultats, on dit que les résultats ont été transmis à la CNIL. Les résultats qui ont été transmis, rendus publics, montrent que le logiciel a eu raison dans 100 % des cas. Moi qui suis ces sujets-là depuis quand même un certain temps, je me souviens d’une expérimentation au carnaval de Notting Hill à Londres, il n’y a pas si longtemps, où le logiciel s’est trompé 35 fois sur 35. À technologie relativement équivalente, j’ai du mal à imaginer comment on passe de 100 % d’erreur à 100 % de réussite.

Daniel Schneidermann : On a fait des progrès !

Olivier Tesquet : On peut se dire qu’on a fait des progrès technologiques. Qu’on ait un fait un bon de cette ampleur me laisse un peu perplexe ! Quand on regarde d’un peu plus près, on se rend compte que c’est l’entreprise en question qui a réalisé elle-même le bilan de l’expérience ; quand on parle d’auditabilité des dispositifs je pense qu’ici on en est quand même relativement loin ! On a des gens qui sont interrogés, on nous dit 90-91 % de la population trouve ça génial ! C’est un échantillon de volontaires, on peut estimer que déjà, à la base, ils ne sont pas forcément hostiles à la reconnaissance faciale. Là aussi l’échantillon est un peu biaisé ! Mais surtout, les résultats ne possèdent aucune donnée scientifique, c’est-à-dire qu’on n’a pas du tout de taux de faux positifs. On nous dit : « Le logiciel a réussi à distinguer deux jumeaux monozygotes ; le logiciel a réussi à identifier une personne alors que la photo qu’elle avait fournie – c’était un employé de la ville de Nice – datait d’il y a 25 ou 30 ans. Donc regardez cette technologie merveilleuse capable d’identifier les individus ! », sauf que la réalité c’est que le logiciel utilisé a eu raison dans 100 % de cas où il ne s’est pas trompé. Moi je veux bien, mais c’est un peu comme au loto, comme on disait avant l’enregistrement de l’émission : tous les gagnants sont des vainqueurs !

Didier Baichère : Et c’est là la limite de l’exercice. Encore une fois, la ville de Nice est dans le cadre du RGPD, le maire de Nice tire sa légitimité du vote, les gens ont voté pour lui, ils ont voté pour la vidéo-protection. Il faut faire attention, en démocratie c’est aussi chacun qui choisit.

Olivier Tesquet : J’entends tout à fait cet argument.

Didier Baichère : Si vous n’êtes pas éclairé correctement, si on ne vous a pas dit effectivement pourquoi on fait ça, quel est le cadre, ce qu’est un cadre scientifique, ce qui n’en est pas un. C’est pour ça que j’appelle à cette expérimentation nationale, pour décider avec des scientifiques, avec le Comité national d’éthique et consulter de manière générale la population pour qu’elle comprenne le sujet.

Daniel Schneidermann : On a bien compris.

Olivier Tesquet : Ce que je crains c’est que ces résultats-là soient ensuite brandis – en plus, il n’aura pas échappé à personne qu’on arrive quand même dans un contexte d’élections municipales – pour justifier des mutations technologiques de villes qui sont déjà suréquipées technologiquement. Si on regarde la ville de Nice, la vidéosurveillance, on va nous dire demain on met la vidéosurveillance intelligente qui est déjà à Nice et qui commence à arriver dans d’autres municipalités, alors que le bilan de la vidéosurveillance est quand même assez largement contesté.

Daniel Schneidermann : C’est-à-dire d’ailleurs ? Est-ce que depuis que Nice fait de la vidéosurveillance intensive… ?

Olivier Tesquet : Il y a un exemple malheureusement assez dramatique : après les attentats de 2015 à Paris, Christian Estrosi avait dit : « À Nice, les frères Kouachi n’auraient pas passé trois carrefours ». Hélas, on a vu ce qui s’est passé sur la Promenade des Anglais. On peut dire que la déclaration un peu truculente, comme ça, de Christian Estrosi n’a pas très bien vieilli.

Daniel Schneidermann : Et sur la délinquance quotidienne ?

Olivier Tesquet : Sur la délinquance il y a toujours des chiffres : « Nous avons réalisé tant d’interpellations ». Les chiffres d’interpellations c’est quand même…

Asma Mhalla : C’est déclaratif.

Daniel Schneidermann : Sur la baisse de la délinquance, on a des données ou pas ? Ou pas la baisse d’ailleurs.

Olivier Tesquet : On a aussi des expérimentations à l’étranger où on se rend que non, ça ne fait pas beaucoup baisser la délinquance, que le taux d’élucidation des affaires n’est pas augmenté par la vidéosurveillance. Là, je ne fais que paraphraser les études de gens bien plus sérieux que moi, notamment Laurent Mucchielli qui suit quand même ces questions-là depuis très longtemps.
Est-ce qu’en se disant demain on va automatiser la vidéosurveillance ou mettre de la reconnaissance faciale et ça va permettre, tout à coup, de blanchir ce bilan-là par une espèce de logique saint-simonienne où on se dit que, finalement, la technologie améliore nécessairement la politique publique qu’on mène à l’intérieur de la ville, moi je trouve que ça pose un certain nombre de questions.

Un « cheval de Troie » de la société de vigilance ?

Daniel Schneidermann : Vous parliez tout à l’heure de cette interpénétration public-privé qui prend des formes tout à fait nouvelles et préoccupantes, je voudrais qu’on y revienne à propos d’un exemple très concret qui est l’exemple d’Amazon et de ce qu’on a récemment appris sur les pratiques d’Amazon.

Juliette Gramaglia : En fait, il y a beaucoup d’entreprises privées qui travaillent sur le développement de logiciels de reconnaissance faciale, elles ont une certaine importance, notamment aux États-Unis il y en a un certain nombre, par exemple Amazon qui joue un rôle important sur le sujet en lien même avec des administrations gouvernementales. C’est ce que rappelait BFMTV fin août.

Extrait BFMTV – fin août 2019

Journaliste : Les États-Unis, d’ailleurs comme la Chine, utilisent de plus en plus la technologie pour surveiller la population.

Journaliste : Exactement, et avec la gracieuse aide de géants du Web comme Amazon. Amazon, par exemple, vend des caméras connectées à installer devant sa porte. C’est en prévision de la livraison par drone. C’est pour que les gens n’aient pas peur de se faire voler leurs paquets. En plus, ils peuvent utiliser cette caméra pour la surveillance, plein d’Américains s’équipent déjà de cette caméra, sauf qu’Amazon a aussi un partenariat avec la police des villes où il y a ces caméras et propose à la police d’exploiter les images des caméras individuelles des gens. Ils vont aller encore plus loin, ils vont proposer à la police de mettre une technologie de reconnaissance faciale dans ces caméras, par exemple pour repérer des gens qui sont recherchés par la police et tout ça. La presse américaine dénonce qu’Amazon aurait aussi essayé de vendre ce service au Département de l’immigration américain. Je ne sais pas pour vous, moi je trouve que ça commence à sentir vraiment très mauvais.

Fin de l’extrait

Daniel Schneidermann : Et tout ça est vrai, c’est-à-dire qu’Amazon a reconnu.

Olivier Tesquet : Le fait qu’ils l’ont reconnu c’est qu’ils le commercialisent.

Asma Mhalla : C’est un produit commercial.

Daniel Schneidermann : À l’origine c’est une fuite. Non ?

Olivier Tesquet : Non, non.

Asma Mhalla : C’est officiel.

Juliette Gramaglia : Avec le Département de l’immigration ça passe d’abord par une fuite de mails par une association et après c’est reconnu par Amazon.

Olivier Tesquet : Il y a beaucoup de tensions en ce moment autour de la politique migratoire menée par Trump et au fait que les entreprises américaines l’aident largement.

Daniel Schneidermann : À l’origine il y a eu une fuite et aujourd’hui Amazon assume parfaitement, comme vous le dites, cette commercialisation de ces données auprès de la police et auprès du Département de l’immigration.

Olivier Tesquet : Il y a deux aspects qui sont intéressants. Il est question de deux choses, en fait, dans le reportage.
D’un côté, ces sonnettes connectées, on va appeller ça comme ça, c’est une entreprise qui s’appelle Ring, qui a été rachetée par Amazon en fait, on voit bien qu’il y a un investissement de toute façon de ces très gros acteurs industriels vers la sécurité, la collaboration avec la police. Ce qui se passe avec Ring c’est que, déjà, il y a des incitations financières pour l’équipement, c’est-à-dire que dans un certain nombre d’États américains, par exemple l’État de Washington, on vous dit : « Si vous achetez une sonnette intelligente Ring on va vous rembourser 500 dollars », comme si c’était un vélo électrique. Ensuite, une fois que vous avez installé cette sonnette intelligente, vous avez une application qui s’apparente à cette espèce de comité de voisins vigilants qu’on connaît aussi sous nos latitudes, et on va vous inciter à partager les données que vous collectez avec les forces de police. Amazon avait noué des partenariats avec 400 forces de police locale pour transmettre, justement, les informations de ces caméras.

Daniel Schneidermann : Ses clients étant parfaitement au courant ? Ou pas ?

Olivier Tesquet : Les clients, c’est-à-dire ?

Daniel Schneidermann : Les clients d’Amazon. Les gens qui installaient chez eux ces sonnettes connectées ?

Olivier Tesquet : On leur dit « vous décidez de collaborer ».

Didier Baichère : Au courant, c’est un bien grand mot.

Olivier Tesquet : Là on peut aussi s’interroger, effectivement, sur le consentement, ce qu’il recouvre, etc., on leur dit « vous transmettez ces informations aux forces de police locale parce que, grâce à ça, on va pouvoir réduire la criminalité, mieux vous protéger, etc. » Sauf que ce qui se passe avec ce type de dispositif, c’est que la collaboration se faisant entre des voisins vigilants et des forces de police locale par le truchement d’une entreprise privée, on a une espèce de privatisation du contrôle, on ne peut plus soulever le capot, on ne peut plus du tout voir ce qui se passe.
Donc il y a ça d’un côté et, de l’autre, il y a effectivement Rekognition qui est ce logiciel de reconnaissance faciale qu’Amazon a développé depuis maintenant quelques années et qu’ils écoulent, là aussi, auprès de tout un tas de forces de police américaine. Et si demain on a une commutation — je ne suis pas en train de faire de la science-fiction à la petite semaine — entre ces sonnettes intelligentes et ces dispositifs de reconnaissance faciale…

Daniel Schneidermann : Tout à l’heure j’avais envie de vous demander, quand vous évoquiez cette interpénétration, ce qui était à vos yeux le plus inquiétant entre le fait que nos données se baladent dans les mains de toutes sortes d’entreprises privées qui les commercialisent et en tirent du profit hors de tout contrôle et, d’un autre côté, qu’elles soient entre les mains de l’État qui en profite pour faire de la surveillance, mais je me rends compte que ma question est stupide parce que ce sont les deux. C’est fromage et dessert, et c’est fromage et dessert dans la même assiette !

Asma Mhalla : Ce sont les deux. En réalité, ce qui est en train, à mon sens, d’advenir ce sont ces nouvelles formes de pouvoir autour, vous le disiez en introduction, de l’action de la donnée et en particulier de la donnée personnelle qui est une manne. Ce qui se joue pour l’État au-delà de la doxa hyper-libérale qu’on voit advenir évidemment un peu partout, c’est la question de la compétence. C’est-à-dire qu’on a une répartition des questions de souveraineté où les méta-plateformes, les Amazon, Google, Facebook, mais aussi tous les industriels qui sont en train de développer ce type de technologie, en fait récupèrent des fonctions qui étaient initialement dévolues à l’État. Ils sont en train de reconstruire, de façon privatisée, des souverainetés fonctionnelles – les applications, les usages divers et variés où, en fait, ils captent de la donnée personnelle – et l’État, qui est exsangue en termes de compétences et d’infrastructures informationnelles, a fondamentalement besoin de ces mégas industriels, de ces méta-plateformes pour se nourrir aussi sur la question sécuritaire.
Et là, j’aimerais apporter une information supplémentaire. On le voit, y compris en France, c’est qu’on parle beaucoup de technologie, d’infrastructure, de données, etc., mais il y a une ambiance, en ce moment, qui est la question du discours politique et de la rhétorique sur la peur, la menace, les antagonismes divers et variés, le terrorisme brandi, les immigrés, etc. En réalité, on anesthésie aussi l’opinion publique, donc on crée un climat de peur qui fait que les usages commerciaux vont passer progressivement et très tranquillement vers des usages sécuritaires parce qu’on fait en sorte que ça soit la demande des citoyens, anesthésiés, pris par ce discours politique sur la question sécuritaire, donc sur la question de la peur.

Daniel Schneidermann : Est-ce qu vous partagez ce terme d’anesthésie ? Vous avez aussi l’impression qu’on anesthésie les gens ?

Asma Mhalla : C’est une demande fondamentale.

Didier Baichère : L’anesthésie c’est une perception. Dans mon travail de parlementaire, j’ai fait un rapport [8] sur la reconnaissance faciale justement pour ça, pour sortir de l’anesthésie.
Deux choses par rapport à ce que vous dites, qui me semblent vraiment essentielles. La première, ce que je recommande dans le rapport, c’est la formation à l’économie de la donnée c’est : est-ce que, de manière consciente, quand j’arrive peut-être en CM2 ou en 6e, je peux aujourd’hui être en capacité de comprendre que je donne gratuitement des données à des entreprises qui gagnent énormément d’argent avec ces données gratuites ? Peut-être qu’un jour je vais vouloir être rétribué ou pas. En tout cas cette question n’est pas présente dans l’éducation, donc on a un travail à faire avec l’Éducation nationale. Je dis toujours que je ne suis pas inquiet sur la formation aux algorithmes, le codage, tout ça, ça va vivre sa vie, il n’y a aucun problème. La formation à l’économie de la donnée c’est beaucoup plus compliqué, on n’est pas bons.
Et le deuxième axe qui est, à mon avis, très important aussi c’est : est-ce qu’on va être capable, demain, de lever l’ensemble de ces biais ? Est-ce qu’un biais humain est meilleur qu’un biais technologique ? La ville de Nice, on est passé rapidement, on peut parler pendant des heures des biais humains quand on fait de la vidéo-protection. Est-ce que finalement on ne peut pas gagner quelque chose si les biais technologiques, et c’est en sens-là qu’on aura du progrès, sont moins mauvais que les biais humains.

Daniel Schneidermann : J’ai une question économique. Depuis le début de l’émission on se rend compte que derrière toutes ces questions il y a des entreprises qui fabriquent ces programmes, qui essayent de les vendre, qui essayent de se développer, etc. On imagine bien que ces entreprises poussent à ce qu’on fasse de plus en plus de reconnaissance faciale. Est-ce que, dans votre travail de parlementaire, vous êtes l’objet de lobbying, de tentatives de lobbying de toutes ces boîtes qui viennent vous voir et qui vous disent « il faut pousser parce qu’il y a des emplois à la clef, il y a la recherche. Si la France ne devient pas un champion mondial, ce sont les autres vont prendre la place », enfin tous les arguments qu’on connaît ? Est-ce que vous êtes l’objet de ce type d’approche ?

Didier Baichère : On ne vient pas me voir, c’est moi qui vais voir les gens. C’est très différent. C’est-à-dire que j’ai besoin de comprendre ce qui se passe et d’aller sentir les technologies. Il y a des champions français, européens dans ces domaines-là.

Daniel Schneidermann : On vous dit quoi ? Vous allez voir les gens, on vous dit quoi ?

Didier Baichère : Une présentation marketing, commerciale, extraordinaire, tout le monde a gagné à la fin. Est-ce que pour autant je suis dupe ? Non, je ne suis pas du tout dupe. J’essaye de me faire ma propre idée.

Daniel Schneidermann : On vous invite à des colloques ?

Didier Baichère : Personnellement on ne m’invite nulle part, j’ai une vie transparente, c’est assez simple à retrouver.
Par contre, ce qui est important c’est d’arriver à amener, à un moment donné, quelque chose qui est assez original, c’est le travail qu’on fait avec le Conseil national du numérique et The World Economic Forum, où on est autour de la table, sur une réflexion sur ces cas d’usage, des industriels, des académiques et des politiques. C’est la première fois où on a une espèce de triptyque comme ça, qui essaye de se contraindre mutuellement pour essayer de voir comment, à un moment donné, on peut sortir. C’est ce triptyque en fait, ce travail qu’on a fait avec eux qui nous amène à dire oui il va falloir une loi d’expérimentation, oui il va falloir que l’État sorte, peut-être, de ce qu’il a proposé jusqu’à maintenant et redonner un cadre très clair à l’expérimentation.

Daniel Schneidermann : Les deux observateurs que vous êtes du travail parlementaire de notre invité, Didier Baichère – moi je vous découvre, donc le travail que vous faites je ne le connais pas vraiment – est-ce que vous avez l’impression que ce travail parlementaire prémunit efficacement, à ce stade, la France contre des dérives à la chinoise ou des dérives à la Amazon ?

Asma Mhalla : J’entends parfaitement la bonne volonté de Monsieur Baichère et je crois parfaitement à votre authenticité sur le sujet. Néanmoins, j’ai un problème sur la temporalité des choses. C’est-à-dire que l’expérimentation est toujours en avance de phase, donc est déjà lancée, et on débat après sur des décisions qui, visiblement, sont déjà prises. On met du débat public partout, mais, en réalité, de démocratie nulle part.

Daniel Schneidermann : Vous avez un exemple ?

Asma Mhalla : Là en l’occurrence. C’est-à-dire qu’on a lancé Alicem puis on va peut-être débattre, mais sans jamais lancer les termes du débat. L’enjeu est fondamentalement démocratique. L’enjeu n’est pas du tout technologique. La question, et vous le dites très bien et vous insistez à juste titre [Asma Mhalla s’adresse à Didier Baichpère, NdT], est comment est-ce que, en réalité, on aligne l’ensemble de la population sur les enjeux politiques, sociétaux, démocratiques des usages sécuritaires.

Daniel Schneidermann : Ce qu’on est en train de vous dire gentiment c’est que vous êtes en train de courir derrière des décisions déjà prises.

Didier Baichère : Non pas du tout, parce que quand on lit mon rapport et j’écoute aussi ce que dit Cédric O qui lit avec attention, intérêt tout ce qu’on fait.

Asma Mhalla : Pourquoi on ne le fait pas ?

Didier Baichère : Attendez ! J’ai posé une question il y a 12 mois et j’ai fait un rapport derrière. Vous savez, au temps de la loi, ce n’est rien du tout.

Asma Mhalla : On a lancé l’expérimentation mais pas encore le débat.

Didier Baichère : Moi je le dis bien : expérimenter et concerter en même temps, exactement par rapport à ce que vous dites. C’est-à-dire expérimenter d’un côté et ensuite interroger la population, ce n’est pas le bon chemin.

Asma Mhalla : Or, c’est ce qu’on fait !

Didier Baichère : Il y a plein d’expérimentations. Ce que je dis c’est un cadre conjoint, académique.

Asma Mhalla : Il y a plein d’expérimentations, c’est bien ce que je dis

Didier Baichère : Oui, mais qui n’ont pas de valeur scientifique. Ce que je dis : un cadre expérimental, scientifique, avec un collège d’experts, le Conseil national d’éthique qui pourra valider l’ensemble de choses, prendra d’ailleurs les conseils avisés et très pertinents de la CNIL pour s’assurer que ce qu’on fait, à un moment donné, rentre dans le cadre de ce que la CNIL peut recommander, en tout cas dans les meilleures pratiques, et faire cette consultation avec la population.

Asma Mhalla : À condition qu’elle soit faite sur les bons termes et les bonnes hypothèses du débat.

Didier Baichère : Si vous posez un cadre scientifique c’est bien pour vous adjoindre les services de gens dont c’est le métier et qui vont pouvoir valider. Je prends souvent l’exemple des lois de bioéthique parce que je trouve que c’est quelque chose qui caractérise la France dans sa manière de vouloir avancer en termes de progrès.
Il y a plein de scientifiques qui peuvent vous expliquer comment faire une consultation effective : en ligne, physiquement, tirer des Français au sort. On sait comment faire. On sait aussi qu’une consultation citoyenne n’est pas un référendum, mais ça permet de prendre des orientations politiques courageuses, ce qu’on a fait dans le cadre des lois bioéthiques.

Olivier Tesquet : Je suis d’accord avec vous sur la nécessité de déterminer si collectivement on veut ce que la science peut. Je pense que c’est effectivement une question très importante, mais il ne faut surtout pas sous-estimer la pression économique qu’il y a quand même derrière toutes ces avancées, en particulier sur la reconnaissance faciale. On l’a entendu à plusieurs reprises, Renaud Vedel qui est le coordinateur de l’intelligence artificielle au ministère de l’Intérieur insiste lui aussi sur la nécessité de développer un écosystème européen parce que sinon, de toute façon, on va se faire damer le pion par les Chinois ou d’autres. C’est aussi ce qu’on entend d’ailleurs au cabinet de Cédrid O. On a des champions français, de fait, ou européens. Il y a Idemia en France, il y a Thalès.

Didier Baichère : L’imprimerie nationale, IN Groupe.

Daniel Schneidermann : Elle se manifeste comment cette pression économique ? Monsieur Baichère nous explique que les industriels ne viennent même pas le voir, c’est lui qui va les voir. Comment elle se manifeste concrètement ?

Olivier Tesquet : Cette pression économique se manifeste justement à l’échelle des villes, je trouve. Pour le coup ce sont des gens à la CNIL qui disent ça aussi en off , donc ce n’est pas complètement une vue de l’esprit. Vous avez des industriels qui pendant des années ont vendu du matériel de vidéosurveillance à tout un tas de municipalités, aujourd’hui c’est quand même difficile de trouver une municipalité qui ne soit pas équipée en vidéosurveillance. Vous l’avez même dans des petits villages où ça peut poser question. Maintenant qu’on leur a vendu toute cette gamme de caméras, qu’on a augmenté le parc, etc. – d’ailleurs c’est l’augmentation du parc qui justifie son automatisation, on a tellement de caméras qu’il nous faut une aide logicielle pour pouvoir gouverner la ville.

Didier Baichère : Ou le niveau moyen des résultats où on vous dit « si vous pluggez une science par-dessus, vous allez voir, vous aurez de meilleurs résultats ».

Olivier Tesquet : C’est aussi ça l’argument, c’est effectivement dire « on vous a vendu les caméras, maintenant on va vous vendre les logiciels pour les mettre à jour », quelque part, donc vous avez tout un tas de démarchage. On a des exemples très concrets qui ne sont pas, d’ailleurs, des choses pleinement opérationnelles. À Valenciennes vous avez Huawei, entreprise chinoise, qui a proposé à la ville de déployer gracieusement de la vidéosurveillance intelligente dans la ville. Il se trouve que, après, Jean-Louis Borloo devait entrer au conseil d’administration de Huawei, le hasard fait bien les choses ! Vous avez comme ça tout un tas d’expérimentations. On le voit bien : dans les lycées à Nice et à Marseille c’est Cisco qui propose. L’expérimentation du carnaval à Nice c’est encore une entreprise qui vient proposer sa solution, à Valenciennes, vous en avez à Toulouse, vous en avez à Marseille, vous en avez un peu partout et vous allez en avoir de plus en plus.

Daniel Schneidermann : Ce que j’entends depuis le début de l’émission c’est que les collectivités locales sont en train de vous déborder. Il y a d’une part les collectivités locales qui font leur truc dans leur coin.

Didier Baichère : Attention, c’était Valenciennes.

Daniel Schneidermann : Je n’en sais rien, il y en a peut-être d’autres ! Et vous qui dites que le truc n’est pas réglementé.

Olivier Tesquet : Il y en a de plus en plus. Pour vous donner un exemple, quand je faisais mes recherches j’écumais un peu le moteur de recherche des appels d’offre sur les marchés publics en cherchant, justement, un certain nombre de municipalités qui avaient pu ouvrir des marchés pour la reconnaissance faciale. La ville de Parthenay, ce n’est pas une capitale Parthenay, dans les Deux-Sèvres, la ville de Parthenay avait passé un appel d’offres – finalement ils ont abandonné l’idée me disent-ils – pour éventuellement se doter d’une brique logicielle de reconnaissance faciale. Là encore on est dans un cadre qui échappe, quand même, je trouve, au débat public, qui est soustrait aux citoyens. Quand demain vous allez déployer de la vidéosurveillance intelligente dans une ville, comme c’est déjà le cas à Nice et comme ce sera bientôt le cas dans d’autres villes, est-ce que vous allez vraiment informer vos citoyens de ce qui se déploie ? Est-ce que vous allez leur dire où sont les caméras ? Est-ce que vous allez leur dire ce qu’elles sont capables de faire ?

Didier Baichère : C’est un point de mon rapport. Quand on a auditionné l’Association des maires de France, c’est la question que je leur ai posée, c’est-à-dire comment vous, aujourd’hui, vous garantissez que la formation des élus intègre le fait qu’ils doivent former les citoyens sur ce qu’ils sont en train de déployer. Là il y a une sorte de grand vide qui s’installe dans cette discussion. Encore une fois, dans les recommandations, c’est aussi être en capacité de former les élus à ces sujets. Peut-être que certains comprendront mieux les enjeux donc n’iront pas et les citoyens, au moment de voter, verront que l’artifice de sécurité n’est probablement pas une garantie de démocratie. Mais certains iront quand même.

Daniel Schneidermann : Je vais poser une question qui est peut-être stupide : est-ce que le législateur ne pourrait pas avoir un rôle dans le domaine pénal, c’est-à-dire adopter des lois qui pénaliseraient les collectivités locales procédant à des expérimentations.

Olivier Tesquet : La CNIL les encadre.

Didier Baichère : Elles ont le droit dans le cadre du RGPD dès l’instant qu’il y a une étude d’impact, elles peuvent le faire.

Daniel Schneidermann : Elles ont le droit jusqu’au moment où on passera une loi disant qu’elles n’ont plus le droit.

Didier Baichère : Peut-être. Ça, c’est un truc très français : on va faire une loi comme ça on va pouvoir interdire. Non ! Moi je pars du principe qu’il y a un écosystème, j’ai besoin de comprendre cet écosystème, j’ai besoin de comprendre ce que les Françaises et les Français veulent, on met ça ensemble et on voit si on veut avancer. Si tout le monde veut ralentir – encore une fois je tire mon élection de la légitimité du suffrage universel, des gens qui ont voté pour nous – si on veut ralentir, je suis d’accord pour ralentir, mais ce n’est pas forcément toujours ce qu’on entend des citoyens.

Daniel Schneidermann : Donc ma question était bien stupide.

Asma Mhalla : Votre question n’était absolument pas stupide. Asma Mhalla

Daniel Schneidermann : Merci.

Asma Mhalla : Et je vais tenter d’y répondre tout de suite. Ce qui joue aussi c’est l’air du temps. Et l’air du temps c’est quoi en ce moment ? Par rapport aux collectivités locales, ce sont les smart cities, ce sont les territoires intelligents, c’est l’ensemble des programmes qui sont déployés à tous les échelons de comment est-ce qu’on rend un territoire plus intelligent, augmenté, avec de l’Internet des objets, des plateformes d’hyper-vision qui vont avoir une vision transverse sur l’ensemble des métiers des collectivités, le nettoyage, les espaces verts, etc. Et par facilité, par simplisme, on ne comprend la question du territoire intelligent que par l’angle de la technologie, donc aussi par la rentabilisation des infrastructures de caméras, parce que la vidéosurveillance, initialement, ce sont des machines, c’est de la robotique, donc c’est le logiciel qui la rend intelligente, donc c’est aussi une manière d’amortir et de rentabiliser des infrastructures qui jusque-là ne l’étaient pas vraiment. Donc c’est aussi la compréhension qu’on a de ce qu’est une Smart City qui, à force d’infrastructure, de techno, de surveillance, en réalité devient plus de la <em<Safe City, donc des villes ultra-sécurisées là où en réalité on doit repenser aussi la question de l’intelligence par la complémentarité avec l’humain, par un usage beaucoup plus raisonné de la techno et pas cette outrance dans la techno de surveillance. Il y en a qui sont très conscients de ça.

Didier Baichère : Mais pour l’écologie, la ville connectée… Aujourd’hui, par rapport à notre mode de vie, on ne progressera pas sur la transition écologique si on n’a pas de meilleures données sur notre manière de consommer par exemple l’électricité. On ne va pas le débat sur l’écologie.

Olivier Tesquet : J’adore cet exemple.

Didier Baichère : Il y a un merveilleux plantage, alors qu’on aurait pu mieux expliquer, en fait, pourquoi on a besoin d’avoir de la donnée ; on a besoin d’avoir de la donnée pour savoir comment on consomme.

Asma Mhalla : Souvent les agents des collectivités n’ont pas du tout conscience de ces enjeux.

Olivier Tesquet : L’argument écologie je veux bien, sachant que si on veut vraiment faire de la reconnaissance faciale à la volée, ce dont rêvent un certain nombre de municipalités, ça demande une puissance de calcul qui n’est pas d’une écologie folle. Je ne suis pas sûr que la reconnaissance faciale industrialisée soit très compatible avec la transition écologique.

Didier Baichère : L’économie de la donnée de manière générale.

Olivier Tesquet : L’économie de la donnée c’est sûr.

Asma Mhalla : C’est extrêmement polluant.

Olivier Tesquet : Au-delà des questions au niveau des collectivités territoriales, de cet attrait manifeste pour la ville sûre, bardée de capteurs, en fait tout le monde regarde Singapour qui est un peu le modèle en la matière, en plus, comme c’est une cité-État, ça se met en place plus facilement, d’ailleurs je note qu’il y a un certain nombre d’expérimentations de reconnaissance faciale avec des sociétés françaises qui ont été délocalisées à Singapour, comme ça, ça évite de passer par la CNIL c’est pratique ! Donc chacun veut un peu son mini Singapour et finalement tout ça est aussi un peu excité, quelque part, par le discours qui est tenu au plus haut sommet de l’État. Quand j’entends Emmanuel Macron parler de la société de vigilance, de traquer les comportements suspects – depuis la loi renseignement de 2015 on est quand même obsédé par les signaux faibles, on est obsédé par des signes annonciateurs de passage à l’acte terroriste, criminel, etc. Je vois très bien comment, dans un discours sécuritaire, la reconnaissance faciale va permettre, selon ceux qui la mettent en œuvre, de détecter justement ces signaux faibles. Ce matin la CNIL fait notamment un distinguo entre la reconnaissance faciale d’un côté, la vidéosurveillance intelligente de l’autre, en disant que ce n’est pas la même chose, que ce sont deux modes de traitement des images qui sont différents. Je ne suis pas complètement d’accord avec ça parce que la vidéosurveillance intelligente qui peut, d’ailleurs, embarquer de la reconnaissance faciale, est là pour détecter les comportements suspects, c’est-à-dire qu’elle ne va pas faire de la reconnaissance faciale, elle ne va pas déterminer que vous êtes Daniel Schneidermann, que vous êtes Didier Baichère, mais elle va déterminer que là, peut-être, vous êtes en train de commettre un délit. Donc elle va détecter des comportements. Par ailleurs c’est pratique parce que, sans se perdre en argutie technique, ça permet d’évacuer le taux de faux positifs, on n’est plus à dire « est-ce que cet individu est bien, oui ou non », on en est à évaluer un comportement suspect. Tout de suite ça devient beaucoup plus flou et ça participe quand même d’un tour de vis sécuritaire où il y a un effet de cliquet démentiel parce qu’on se rend bien compte que ces dispositifs-là, une fois qu’on les a installés, on n‘en revient jamais. On verse dans une espèce d’état d’exception permanent, on renverse la charge de la preuve et je trouve qu’aujourd’hui, dans cette question de la société de vigilance, de la détection systématique des signaux faibles, etc., la reconnaissance faciale est justement une espèce de cheval de Troie principal.

Daniel Schneidermann : Est-ce qu’en préconisant la société de vigilance Emmanuel Macron participe à l’emballement général ?

Didier Baichère : Tout un chacun, à un moment donné, a envie d’un environnement qui est sécurisé. Donc ce serait faire semblant de ne pas comprendre ce que les Françaises et les Français disent.

Daniel Schneidermann : Chacun peut avoir envie que ses libertés soient préservées aussi.

Didier Baichère : Bien sûr. Là ça ne tient qu’à vous d’expliquer ce que c’est que préserver ses libertés. Et ça commence, je crois vraiment de manière très simple, par ne pas tout mettre sur le même plan. C’est-à-dire que si on veut comparer, si on veut vous faire croire que les États-Unis et, encore une fois, la Chine, sont sur le même plan que la France et l’Europe, on n’avancera pas, parce que les gens vont penser que la Chine c’est ce que nous préparons. Pas du tout ! Encore une fois, cette voix française et européenne est extrêmement importante.

Olivier Tesquet : Pour le coup je vais rester sur une voix très française, qui a toujours été historiquement très française. Quand on se dit, effectivement, trouver cet équilibre entre sécurité et liberté, etc., il y a quand même quelque chose qui permet de constater le glissement qui s’est opéré et l’accoutumance qu’on a développée qui est aussi liée, à mon avis, à un sentiment de dépossession, qui est lié à plein de choses et notamment l’opacité des dispositifs qui sont des espèces de boîtes noires sur lesquels on n’a pas de prise. Quand Alphonse Bertillon invente les fiches anthropométriques à la fin du 19e, une perle de l’identité judiciaire qui détermine qu’on va pouvoir traquer les criminels récidivistes à partir d’un certain nombre de mesures, 13 mesures, la distance entre vos yeux, la longueur des pieds, etc., aujourd’hui quand je vois la reconnaissance faciale, pour moi c’est la mise en signal, la transformation en signal informatique des fiches anthropomorphiques de Bertillon. Ce faisant, on a une généralisation potentielle à l’ensemble de la population de dispositifs qui, originellement, étaient quand même réservés à la traque des criminels récidivistes. Il faut quand même se souvenir de l’histoire de la construction de l’identification en France, on va dire l’histoire de l’identité. Il y a toujours eu des oppositions très fortes au déploiement et à la généralisation ne serait-ce que d’un titre d’identité universel. Il a quand même fallu attendre la France de Vichy pour que tous les Français soient dotés d’une carte d’identité et que celle-ci ne soit pas réservée aux nomades, aux criminels ou aux pauvres, parce que c’était quand même souvent les trois cas de figure qui nécessitaient de justifier son identité. Je trouve que ce parallèle historique, je force un peu le trait, il ne s’agit pas de faire une transposition homothétique, mais cette transition-là mérite quand même, à mon avis, qu’on l’interroge un peu et qu’on se souvienne un peu de ce temps long.

Daniel Schneidermann : Très bien. Je pense qu’on n’a pas épuisé le sujet parce qu’il est impossible de l’épuiser, mais qu’on en a, en tout cas, abordé les différents aspects. Je vous remercie tous les trois d’avoir participé à cette émission. Merci de l’avoir suivie. À la semaine prochaine.