Technosurveillance en France : entre sécurité et liberté Trench Tech

Reconnaissance faciale, police prédictive, Chat Control : quel prix pour nos libertés ? Caméras intelligentes, reconnaissance faciale, police prédictive : la surveillance algorithmique s’installe partout en France. Promises comme des outils de sécurité, elles posent pourtant une question centrale : jusqu’où peut-on sacrifier nos libertés au nom de la protection ?

Félix Tréguer, voix off : La caméra de vidéosurveillance est devenue une espèce d’alibi politique pour rassurer la population, en gros, gérer le sentiment d’insécurité instrumentalisé par ailleurs et prétendre protéger la population en installant des caméras. Le coût financier est largement pris en charge par l’État, sans parler de surcouche algorithmique, depuis 10/15 ans ça se compte en plusieurs milliards d’euros.
L’enjeu politique c’est de se poser la question de ce qu’il advient d’une société massivement surveillée. En fait, glisser d’un régime libéral où la police surveille à titre légitime, en respectant le droit, à un régime fasciste qui abuse de ce pouvoir, la frontière est fine.
Je pense que politiser, se mobiliser ça marche, mais je suis aussi obligé de constater que nous sommes trop peu à le faire et que, globalement, le contexte politique, médiatique, dans lequel on mène ces luttes, se détériore. Donc quoi qu’il arrive, participer à ces mobilisations, participer à résister, se mobiliser, ça compte, ça compte même dans ce contexte très adverse, c’est important de le faire.
Bonjour. Je suis Félix Tréguer. Retrouvez-nous dans Trench Tech pour parler de technosurveillance.

Voix off : Connectons nos esprits critiques pour une tech éthique.

Diverses voix off, extrait de Demolition Man : Où sont ces putains de flingues !
— Vous avez une amende d’un crédit pour infraction au code de moralité du langage.
— Va te faire foutre !
— Vos infractions répétées au code de moralité du langage m’ont contraint à prévenir les services de police de Los Angelès. Veuillez, s’il vous plaît, rester où vous êtes pour recevoir votre blame.
— Oui, c’est ça.

Voix off : Trench Tech – Esprits critiques pour Tech Éthique.

Cyrille Chaudoit : Salut à toi, à toi, à toi et puis aussi à toi. Cyrille Chaudoit au micro, toujours accompagné de Mick Levy.

Mick Levy : Salut à toi. Salut à toi. Salut à tous

Cyrille Chaudoit : À toi qui nous écoutes peut-être dans la rue, dans ton salon, toi qui nous regardes aussi derrière ton écran, et peut-être le fais-tu toi-même devant une caméra de surveillance. Et si on te disait que cette caméra n’est pas juste posée là, mais qu’elle t’analyse, qu’elle anticipe ton prochain geste, qu’elle te classe, voire qu’elle te colle direct une amende quand tu jures « bordel de merd… ». Hou là, là ! L’extrait de Demolition Man, qui ouvre cet épisode, avait de quoi nous faire sourire en 1993, librement inspiré du Meilleur des mondes d’Huxley. La technosurveillance s’invitait partout, y compris pour faire respecter un code de moralité du langage. Tu te rends compte Mick !

Mick Levy : Rien que ça !

Cyrille Chaudoit : Mais aujourd’hui, on ne parle plus ni de science-fiction ni de tes dernières vacances en Chine, au Venezuela ou encore en Géorgie. Non ! Je te parle de la réalité, mon gars, la tienne, la mienne, la nôtre et, dès aujourd’hui, y compris ici en France.
Les outils de surveillance algorithmique sont déjà déployés et leurs industriels, comme certains de nos politiques, rêvent même de reconnaissance faciale en temps réel, comme en Russie. Alors pourquoi ? Pour notre sécurité pardi ! Aujourd’hui, on ouvre les capots, on dévoile les deals publics/privés et on pose la vraie question : en tant que citoyen, peut-on encore choisir entre sécurité algorithmique et libertés individuelles ? Et pour ça, eh bien qui de mieux que Félix Tréguer, chercheur, militant, et auteur entre autres de Technopolice aux éditions Divergences en 2024.
Bonjour Félix.

Félix Tréguer : Bonjour à tous les deux.

Mick Levy : Salut Félix.

Cyrille Chaudoit : Comment vas-tu ?

Félix Tréguer : Ça va pas mal malgré les temps qui courent !

Cyrille Chaudoit : Ça va pas mal, oui, par les temps qui courent. Ça donne le ton !
Je vais rapidement faire les présentations. Félix tu es à la croisée des luttes numériques et du droit, tu viens des sciences sociales, tu intègres La Quadrature du Net [1] en 2009. Pour celles et ceux qui ne connaîtraient pas encore La Quadrature du Net, c’est une association bien connue de défense et de promotion des droits et des libertés sur Internet. Tu es aussi chercheur associé au Centre Internet et Société du CNRS et tes travaux portent notamment sur l’histoire politique d’Internet, les pratiques de pouvoir comme la censure ou encore la surveillance des communications et la gouvernementalité algorithmique de l’espace public. J’ai bon ?

Félix Tréguer : C’est ça. Tout à fait.

Cyrille Chaudoit : Pas d’infraction au code moral du langage, ni de ta bio ? Nickel.
Juste avant de nous lancer, j’ai deux dernières recommandations pour toi qui transpires d’avance de savoir à quel point ton quotidien est fliqué ou non. D’abord, au cœur de cet épisode, tu pourras souffler avec la nouvelle chronique de Gérald Holubowicz, pas sûr que tu souffles des masses, « On refait la tech », qui refait surtout le portrait des hypocrites commentateurs de la tech. Et deuxièmement, reste bien avec nous jusqu’au bout de l’épisode, peut-être le sais-tu, on fera un debrief, juste Mick et moi-même, des grandes idées qui auront été débattues pendant cet épisode.

Mick Levy : Je sens qu’on va encore se régaler.

Cyrille Chaudoit : Exactement et c’est parti pour le grand entretien « Technosurveillance : notre sécurité vaut-elle la démolition de nos libertés ». Vous êtes bien dans Trench Tech et ça commence maintenant.

Voix off : Trench Tech – Esprits critiques pour Tech Éthique.

Sous les pavés, les pixels

Mick Levy : Félix, peut-être pour démarrer, est-ce que tu pourrais nous faire un petit tour d’horizon de la boîte à outils de la technosurveillance ? Je crois qu’en France, en l’occurrence, on n’est pas très en retard dans ce domaine-là, finalement ?

Félix Tréguer : Non. Si on parle du contexte français, ces dernières années, en effet, on a vu le déploiement de nouvelles technologies de surveillance dans les pratiques de la police. Celle qui est sans doute la plus notable et la plus importante, c’est la vidéosurveillance algorithmique, c’est-à-dire le croisement de l’intelligence artificielle avec les caméras de vidéosurveillance. Il n’y en a pas loin de 100 000 dans les rues françaises, installées par les pouvoirs publics, ça exclut les caméras privées installées par les commerces. En France, les communes ont installé environ 90 000 caméras sur la voie publique. De plus en plus, on voit ces caméras couplées à l’IA pour analyser les flux de vidéosurveillance pour tout un tas d’applications, l’une d’entre elles, même si, à l’heure actuelle, elle n’est pas autorisée, c’est la reconnaissance faciale en temps réel, on y reviendra sans doute.

Mick Levy : En fait, c’est ça qui change. Il y a toujours eu des caméras sur la voie publique, mais il y a visiblement une inflation du nombre de caméras et puis, surtout, il y a la capacité à traiter toutes ces images de façon algorithmique, automatisée, et parfois en allant jusqu’au temps réel. C’est cela qui change par les temps qui courent ?

Félix Tréguer : Tout à fait. Après tu dis « ça a toujours été le cas », non, la vidéosurveillance c’est depuis les années 90, en réalité ce n’est pas si vieux, mais, depuis les années 90, en effet, entre les différentes formes de suivi biométrique, de fichage biométrique mises en place notamment après les attentats de 2001, l’arrivée de l’IA en lien avec la vidéosurveillance, donc cette vidéosurveillance algorithmique qu’on appelle aussi VSA, en lien aussi avec le développement des drones qui s’installent dans les pratiques de la police, ce sont près de 800 arrêtés d’autorisation en 2024 par les forces de l’ordre, notamment pour surveiller les manifestations, c’est vraiment un usage qui se banalise alors qu’il avait été présenté, là encore, comme censément exceptionnel pour des situations d’ampleur.

Mick Levy : Tu allais parler de police prédictive, je crois, juste avant.

Félix Tréguer : La police prédictive, ce sont des outils qui ont été expérimentés en réalité, qui, en France à l’heure actuelle, ne sont pas déployés à grande échelle. On a fait un rapport avec La Quadrature du Net [2] l’an dernier, qui portait notamment sur des expérimentations menées par la Gendarmerie nationale. L’idée de ces systèmes c’est, en général, de croiser des données sociodémographiques, les données de la délinquance, pour essayer d’orienter les patrouilles vers les zones censément à risque, là où on estime, en croisant tout un tas de données, qu’il y a un risque que des infractions soient commises. C’est très opaque. Il y a eu assez peu de communication sur la portée de ces expérimentations qui ont été conduites. Il y a aussi un vrai risque de renforcer la discrimination et la sur-policiarisation de certaines données parce qu’on connaît bien l’effet de feedback loop lié aux IA : plus de données concernant un quartier déjà en proie à des formes de sur-policiarisation fait que l’algorithme va recommander à la police d’aller patrouiller dans cette zone, donc ça renforce cet effet-là entre autres problèmes que cela pose.

Mick Levy : Ça crée des prédictions auto-réalisatrices qui, finalement, amènent les problèmes.

Cyrille Chaudoit : Pour qu’on comprenne bien, peut-être que celles et ceux qui nous suivent ont regardé Minoritary Report dans leur vie, on n’est pas tout à fait dans le schéma de Minoritary Report, on est plus dans une acception big data où on prend plein de data points qu’on croise entre eux pour pouvoir avoir une plus forte probabilité, en tout cas prédire avec une plus forte probabilité qu’il va se passer un truc, un cambriolage, etc. C’est très en vogue aux États-Unis depuis déjà des années. Tu nous dis que la Gendarmerie nationale, en France, a tenté d’utiliser ces algorithmes ou les utilise, mais c’est peu efficace.

Félix Tréguer : À priori, l’expérimentation a pris fin il y a deux/trois ans. Il y a eu des annonces sur le fait qu’elle allait être pérennisée. En fait, c’était une expérimentation d’un système dont l’acronyme était PAVED [Plateforme d’analyse et de visualisation évolutive de la criminalité] et ça concernait les vols de voitures et les cambriolages de maisons.

Cyrille Chaudoit : Donc ils envoyaient des patrouilles dans les quartiers ?

Félix Tréguer : Dans les zones. En fait, l’algorithme présentait en rouge des zones géographiques, à l’échelle d’un quartier par exemple, en disant « là, il y a un fort risque que des infractions de ce type soient commises ». On n’a jamais vraiment vu les rapports d’évaluation. Il y a des bruits, des remontées assez contradictoires sur l’efficacité de ces systèmes. Ça servait sans doute beaucoup d’outil de management. Il y a aussi des retours comme quoi ça a réinventé un peu l’eau chaude, c’est-à-dire que ça donnait un vernis scientifique et algorithmique à des savoirs que les policiers avaient déjà par expérience. Il y a quelques mois, l’ancien directeur de la Gendarmerie nationale avait annoncé le retour de ce système pour l’étendre à toutes les interventions de la Gendarmerie nationale. Donc la tentation est là, mais, en France, il y a encore, sur certains types de technologies, des réserves au sein même de l’État et des formes d’auto-retenue, de prudence, ce qui n’est pas franchement caractéristique de la mouvance et de la direction historique qu’on prend, mais il y a quand même encore quelques réserves qui font que des rapports de force internes, dans les administrations, empêchent le déploiement de certains de ces systèmes.
Le dernier outil que je voudrais mentionner dans ce panorama très large et pas exhaustif, mais qu’il est quand même important de mentionner, c’est ce qu’on appelle les spywares, les outils d’intrusion informatique. En fait, on envoie un virus sur votre smartphone ou sur votre ordinateur pour être en mesure de capter à distance tout un tas de fichiers, ce que captent vos périphériques – la caméra, le micro, ce que vous tapez sur le clavier. Ce sont des outils qui se développent depuis une dizaine d’années, qui ont été autorisés d’abord dans un cadre judiciaire, puis pour le renseignement, et en fait, du fait du recours croissant au chiffrement de bout en bout dans nos messageries – Signal, même WhatsApp et des systèmes comme ça où la capacité à intercepter les communications, alors qu’elles traversent le réseau, a été un peu empêchée ou freinée par le déploiement de ce chiffrement –, il y a de nouvelles approches qui consistent à infecter les téléphones pour aller à la source, avant même que les contenus soient chiffrés et transmis sur le réseau, pour espionner nos communications ou nous géolocaliser.

Mick Levy : On a beaucoup entendu parler des technologies israéliennes, en particulier, sur ce sujet-là, que ces technologies étaient même utilisées par des gouvernements. Est-ce qu’on a des preuves que, en France, les spywares, ce type de technologie qui est assez avancé et assez secret par essence, soient utilisés et peut-être aussi utilisés à grande échelle ? Est-ce qu’on sait des choses, finalement, par rapport à ça ?

Félix Tréguer : Ça fait partie des choses sur lesquelles assez peu d’informations transparaissent, mais on sait, notamment du fait des rapports de la Commission nationale de contrôle des techniques de renseignement, qui est, j’allais dire, une espèce de CNIL, mais qui a encore beaucoup moins de pouvoirs que la CNIL, la Commission de contrôle des services de renseignement et des mesures de surveillance qu’ils mettent en place, par exemple l’an dernier, dans le champ du renseignement, ce sont 4000 autorisations d’installations de spywares, c’est donc quand même assez massif et, dans le cadre des enquêtes pénales, ça s’est aussi développé.
De ce qu’on sait pour la France, en tout cas de ce que disent les personnes en fonction au sein de l’État, la différence c’est que l’idée c’est de rester sur des solutions souveraines, donc, à priori, c’est la DGSI, les services de renseignement intérieur qui développent ces outils, parfois en lien avec des prestataires externes, mais ils n’achètent pas directement à des entreprises comme NSO, l’entreprise israélienne à laquelle tu faisais référence ou à d’autres. C’est effectivement un marché énorme qui s’est constitué ces dernières années.

Cyrille Chaudoit : On sait que la DGSI a bossé avec Palantir, ce n’est pas forcément plus rassurant !

Félix Tréguer : Non ! Là encore on voit des mouvements un peu contradictoires.

Cyrille Chaudoit : Justement, venons-en peut-être aux décisionnaires : des commanditaires et des décisionnaires, qui décide ? Si on récapitule ce que tu viens nous dire :

  • globalement vidéosurveillance et augmentation par l’IA, et il faudra qu’on revienne sur cette notion d’IA en temps réel, en tout cas de reconnaissance faciale en temps réel ;
  • quelque chose qui est totalement invisible, les fameux spywares,
  • et puis autre chose, mais qui semble un petit peu bancale, la police prédictive.

À un moment donné, qui commande l’installation de caméras, je pense qu’il faut repartir de là ? Qui décide que ces caméras vont être connectées à un système de reconnaissance faciale ? Et idem pour l’utilisation de drones, de spywares, qui prend ces décisions ? Est-ce que c’est à l’échelle très locale ? Est-ce que c’est plus national ? Comment ça se passe ?

Félix Tréguer : Il faudrait dépiauter, déplier selon les différents cas les différentes technologies parce que, à chaque fois, les schémas sont un peu différents.

Cyrille Chaudoit : Si on prend, par exemple, la vidéosurveillance et la reconnaissance faciale ?

Félix Tréguer : La vidéosurveillance, typiquement, c’est beaucoup à l’échelle des villes que ça se fait.
J’allais revenir sur l’aspect programmatique, c’est-à-dire qu’on voit, notamment dans les livres blancs du ministère de l’Intérieur, qui sont publiés tous les cinq/six ans, une mise à l’agenda de l’idée qu’on va déployer des nouvelles technologies de surveillance dans les pratiques de la police. Par exemple en 2011, dans un livre blanc piloté par un préfet, Michel Gaudin, et par Alain Bauer [3], le criminologue assez célèbre, on appelle à l’usage de la reconnaissance faciale en lien avec les fichiers de police. En fait, ça va ensuite ruisseler, quelque part, dans les programmes de financement de la recherche, par exemple des organismes comme l’Agence nationale de la recherche, comme les programmes de recherche de la Commission européenne. Ensuite, tout un tas d’agences parapubliques ou publiques vont financer, subventionner des expérimentations de ces technologies une fois qu’elles sont sorties des laboratoires. Donc en réalité, dans la fabrique disons technique et scientifique, la mise à l’agenda, il y a déjà une grande partie de la décision finale qui, quelque part, est prise. En réalité, une fois qu’on a inondé le secteur de l’industrie de la surveillance de dizaines, de centaines de millions d’euros pour développer des technologies, il faut les rentabiliser, ça suppose donc, en aval, que le législateur, que le gouvernement fassent le job de prévoir un minimum de base juridique, en tout cas encouragent le déploiement opérationnel de ces technologies.
Pour revenir à l’exemple de la vidéosurveillance, de la VSA, ça se passe beaucoup à l’échelle des communes. En France, le modèle de déploiement de la vidéosurveillance s’est construit autour de la commande publique, des marchés publics des communes, des municipalités. Le parc de 90 000 caméras de vidéosurveillance à l’échelle du territoire français est administré directement par les communes, avec tout un tas d’accords pour que la Police nationale ou la Gendarmerie nationale aient accès à des images, mais ces infrastructures sont déployées à l’échelon local par les villes.

Cyrille Chaudoit : C’est donc monsieur ou madame le maire qui commande les caméras. Qui finance, du coup ?

Félix Tréguer : Qui finance ? L’État à hauteur d’environ 50 %. Sous Nicolas Sarkozy, à la fin des années 2000, tout un programme de subvention de la vidéosurveillance est mis en place, qui va abaisser le coût budgétaire pour les communes et faire en sorte que la caméra de vidéosurveillance devienne une espèce d’alibi politique très commode pour les élus, en gros pour rassurer la population, gérer le sentiment d’insécurité instrumentalisé par ailleurs, et prétendre protéger la population en installant des caméras. Le coût financier est largement pris en charge par l’État, d’ailleurs avec beaucoup d’opacité sur les sommes. En gros, si on extrapole un peu les quelques chiffres qui sont donnés justement en lien avec ces marchés publics locaux, la vidéosurveillance en France, sans parler de la surcouche algorithmique, ça se compte en plusieurs milliards d’euros depuis 10 ou 15 ans, ce sont donc des sommes colossales.

Cyrille Chaudoit : On voit bien que c’est un gros marché, un gros business derrière. Et si on rajoute la couche algorithmique, à quel moment intervient-elle ?

Félix Tréguer : Depuis cinq six ans, la manière dont on a commencé, à La Quadrature du Net, à documenter l’arriver de la VSA, c’est en s’intéressant justement à des marchés publics lancés par les communes. En faisant des demandes d’accès aux documents administratifs, on se rendait compte que les marchés publics autour la maintenance ou de l’extension des parcs de vidéosurveillance s’accompagnaient souvent de propositions de la part de ce qu’on appelle les intégrateurs, en gros les boîtes qui installent et qui s’occupent du parc de caméras de vidéosurveillance. Ils achetaient à des prestataires externes, souvent une boîte israélienne, par exemple BriefCam [4], les algorithmes et les proposaient comme un service supplémentaire dans le cadre de la passation de marchés publics ou du renouvellement de contrats existants.

Cyrille Chaudoit : Oui. C’est d’ailleurs ce que tu expliques dès le début ton livre, Technopolice, on est plongé directement dans ce sujet-là.
Revenons à BriefCam, c’est un nom qu’on entend depuis quelque temps, qui revient assez régulièrement. Sauf erreur de ma part, je crois qu’un certain nombre de commune avaient fait des tests justement de vidéosurveillance algorithmique il y a déjà quelques années, je crois notamment que c’était Nice.

Mick Levy : Je crois que Nice fait partie des champions de la vidéosurveillance. Nice est chère à mon cœur, c’est ma ville de naissance, c’est encore ma ville de cœur. Je peux te dire que quand tu vas à Nice, tu vois bien qu’il y a de la vidéosurveillance, effectivement omniprésente.

Cyrille Chaudoit : Peut-être peux-tu nous raconter comment ce test grandeur nature a eu lieu ? Je parle de ça simplement parce que je crois que BriefCam était derrière. D’ailleurs, je précise que BriefCam est, je crois, une filiale de Canon.

Félix Tréguer : C’est ça. À la base, c’est une boîte israélienne qui a été rachetée par le groupe Canon qui est principalement japonais, je crois.
BriefCam équipe environ 200 villes françaises, c’est donc quand même colossal, c’est le leader du secteur. Ils ont tout un tas d’applications qui permettent, par exemple, de concaténer tout un tas d’informations. Imaginons une caméra à une intersection, qui a 24 heures d’archives, le logiciel va permettre de faire une requête : on va isoler toutes les scènes où des véhicules rouges, même de tel modèle de voiture, flashent sous la caméra. Ça fait gagner un temps fou, ça permet aussi de retrouver des individus à partir de critères comme la couleur de leurs vêtements, leur taille, leur sexe, leur âge, sans même faire de la reconnaissance faciale qui est aussi une fonctionnalité intégrée dans le logiciel mais, à priori, normalement pas utilisée en France, même s’il y a des indications sur le fait qu’elle l’a été de manière ponctuelle et complètement dérogatoire au droit. Donc 200 villes françaises. Pour Nice, ce n’est pas clair. Je crois que ça a été expérimenté à un moment, une autre société israélienne fournissait aussi un système de vidéosurveillance algorithmique, AnyVision, qui a aussi été utilisé pour une expérimentation de la reconnaissance faciale en temps réel, lors, du carnaval de Nice en 2019.

Mick Levy : On en avait beaucoup parlé.

Félix Tréguer : On a vu aussi BriefCam installé dans un petit village d’Isère, de quelques centaines d’habitants, dans le cadre justement du renouvellement du contrat public. On est vraiment dans une panoplie de municipalités très diverses qui s’équipent de ces systèmes. Et dernier point, Disclose, le média d’investigation, révélait il y a deux ans désormais, que le système BriefCam avait été utilisé, à notre avis illégalement depuis 2015, par le ministère de l’Intérieur, par la police judiciaire dans le cadre d’enquêtes pénales [5]. Nous pensons que c’est illégal parce que, en fait, il n’y a aucune base juridique pour l’utilisation de ces systèmes qui font gagner énormément de temps à la police. On peut penser que c’est une bonne chose, en tout cas, quoi qu’il en soit, une mesure de surveillance doit être prévue en droit, c’est un critère de la Convention européenne des droits de l’homme. En l’espèce, le Parlement n’a jamais discuté d’une loi en la matière et, en plus, on peut même estimer qu’il y a un détournement de fonds publics parce que les licences ont été achetées avec de l’argent qui était normalement budgété pour la lutte contre le narcotrafic.

Mick Levy : On reviendra juste après aux problèmes que pose toute cette vidéosurveillance, cette technosurveillance si on élargit aux autres dispositifs. Mais j’ai une question clé à ce stade : si on déploie tout cet arsenal-là c’est pour améliorer la sécurité globalement en France et puis, éventuellement aussi, l’efficacité des services publics, tu commençais à le citer. À Nice, je vois que ça a résolu un problème de façon drastique qui était le fait de se garer en double voire triple file ; à Nice, il y avait les champions du monde, c’était génial. Tu arrivais quelque part, tu arrivais devant là où tu voulais arriver, tu te mettais là où tu voulais, tu tirais le frein à main, c’était bon. Depuis, grâce à la vidéosurveillance avec verbalisation automatique des double et triple files, ça a résolu le problème de manière drastique, chacun peut le voir très nettement. Au-delà de ce petit exemple très anecdotique, que je viens de vous citer, j’en conviens, mais concret, ça marche ou ça ne marche pas ?

Félix Tréguer : C’est très compliqué d’avoir un débat, aucune évaluation n’a été faite par le ministère de l’Intérieur malgré les milliards d’euros dépensés sur ces technologies, comme je le rappelais. La Cour des comptes, en 2020, a fait un rapport qui rappelle qu’il n’y a aucune corrélation entre l’installation de la vidéosurveillance et la lutte contre la délinquance. Quelques études locales ont été menées en France qui estiment, à partir des dossiers jugés par les tribunaux judiciaires, que dans 1 à 3 % des enquêtes les images de vidéosurveillance apportent des éléments significatifs qui aident à la résolution d’enquêtes, qui ne sont même pas forcément déterminants, qui contribuent à la résolution de l’affaire. C’est quand même très faible en rapport du coût colossal dépensé pour ces technologies.

Mick Levy : C’est une action de com’ par les collectivités pour rassurer les habitants. Typiquement, à Nice, ils n’arrêtent pas de dire que c’est la ville la plus sûre de France, notamment grâce à cet arsenal de vidéosurveillance, c’est donc de la communication en fait.

Félix Tréguer : Absolument. Dans le bouquin, j’évoque cette idée d’un solutionnisme techno-sécuritaire, parce qu’on entend beaucoup parler du solutionnisme technologique, cette idée qu’on va régler les problèmes politiques, par exemple la délinquance, par exemple le fait de se garer en double file, et d’autres choses de ce genre, à travers la technologie. En fait, on voit dans plein de champs sociaux, plein d’applications, plein de secteurs de la société, que ce solutionnisme technologique se double d’un solutionnisme techno-sécuritaire dans la mesure où on pense que la police est toujours la réponse à des problèmes d’incivilité, de délinquance, de violence, sans s’interroger sur les causes profondes.

Mick Levy : On va y venir. C’est amusant, ce que tu dis rappelle Soizic Pénicaud [6] qui, de mémoire, nous avait indiqué qu’il n’y a pas du tout assez d’évaluation des tests technologiques. Elle nous avait notamment parlé de déploiement de l’IA pour les agents et qu’il n’y a pas du tout eu d’évaluation, pour savoir si c’était effectivement bien utile ou pas.

Cyrille Chaudoit : Les critères d’évaluation n’avaient même pas été posés, n’avaient pas été prévus, de fait il n’y avait pas de suivi. Quelque part, ça fait penser aussi à ce dont on entend parler depuis quelques mois sur le fléchage des subventions, le crédit d’impôt recherche, etc., pour les grandes entreprises, il n’y a pas de tableau de suivi. C’est quand même assez étonnant, voire déroutant, de se rendre compte de cela.

Mick Levy : Attends, j’avais pris la priorité.

Cyrille Chaudoit : En double file !

Mick Levy : Non ! Maintenant la verbalisation automatique me fait trop peur, j’ai arrêté !
Je résume. Tu nous dis qu’il y a un arsenal de malade mental qui s’est déployé en l’espace de quelques décennies, qui a coûté des milliards, dont les gains n’ont pas été mesurés et, finalement, tu sembles plutôt dubitatif sur l’efficacité. À La Quadrature du Net qu’est-ce que vous dénoncez ? Quel est le problème que ça pose par rapport à tout cet arsenal ? Quel est le souci du jour ?

Félix Tréguer : Il y aurait plein d’aspects. Déjà, ce qu’on évoque là sur l’aspect gabegie budgétaire, subvention d’un secteur industriel sans évaluation, sans retour.

Mick Levy : C’est le rôle de la Cour des comptes, à La Quadrature vous ne jouez pas ça.

Félix Tréguer : Effectivement, ce qui nous intéresse c’est la défense des droits humains et c’est rappeler que les quelques règles juridiques qui encadrent ces dispositifs ne sont, de fait, pas respectées, je mentionnais l’exemple de BriefCam. Concrètement, dans le Code pénal, un article prévoit que si tu surveilles une population illégalement tu es passible de peine de prison. Le ministère de l’Intérieur, le préfet de police de Paris, ont autorisé le vol de drones en manifestation avant l’adoption de la loi sécurité globale, donc sans base juridique, ils ont été mis en demeure, il y a eu quelques remontrances de la CNIL ou du Conseil d’État suite à certains de nos recours, mais jamais ils n’ont été inquiétés. En fait, il y a une impunité totale et systémique qui, déjà, pose question et, en fin de compte, l’enjeu politique, c’est de se poser la question de ce qu’il advient d’une société massivement surveillée. Je pense qu’on tend à oublier, dans le petit confort des sociétés modernes, à quel point glisser d’un régime libéral où la police surveille, à titre légitime, en respectant le droit, à un régime fasciste qui abuse de ce pouvoir, la frontière est fine. Pour le faire sentir, je l’avais notamment expliqué dès 2019 lorsque nous avions été invités à parler de reconnaissance faciale à la Direction générale de la Gendarmerie nationale, j’avais pris l’exemple de la résistance dans les années 40 en France. Il est impossible d’organiser des réseaux clandestins de dissidence, face à un régime fasciste, dans un territoire massivement surveillé, où la vidéosurveillance et la reconnaissance faciale sont installées à tous les coins de rue.

Mick Levy : Je vais me faire deux minutes l’avocat du diable, je vais me transformer en madame Michu pendant deux minutes : « Il y a des problèmes d’insécurité fous en France, [prononcé avec une voix aiguë, NdT] – parce que madame Michu parle comme ça – il faut bien les résoudre et ça me rassure beaucoup d’avoir des caméras. Je ne vois pas où est le problème, moi je n’ai rien à me reprocher donc tant pis si je passe toujours devant des caméras. » On l’entend ce discours-là !

Félix Tréguer : Oui, on l’entend, mais, en même temps, on voit venir, quelque part, cette doxa qui est complètement installée par un champ politique, des politiciens qui instrumentalisent le sentiment d’insécurité, alors que, en gros, le taux de délinquance est à peu près stable depuis 20 ans ; on entend parler d’ensauvagement, de plein d’anecdotes, de faits divers qui sont là pour faire peur. En fait, il y a eu une rupture assez importante dans l’histoire de nos régimes politiques à partir des années 60/70, c’est la manière dont le sentiment d’insécurité, la notion même de sécurité est devenue justement un enjeu policier. Avant on parlait de sécurité sociale, on parlait de protéger les gens face au capitalisme, aux inégalités, à la précarité, etc., à partir des années 60/70/80, la sécurité c’est uniquement un problème policier. Du coup, on a aussi toute une classe politique qui est devenue super forte dans le fait d’instrumentaliser les peurs, une émotion très forte qui ne nous rend pas spécialement rationnels, nous les êtres humain, pour imposer des mesures, pour se faire élire. Il y a donc tout un jeu politique et politicien qui installe cette doxa alors même qu’elle est souvent en décalage avec ce que peuvent dire les sociologues de la sécurité, ce que peuvent mesurer les statistiques nationales. C’est donc très dur d’avoir un débat rationnel, fondé en raison, sur ces sujets et surtout, je reviens à cet exemple historique, cette hypothèse contrefactuelle : est-ce qu’on aurait pu faire la résistance en 1940 s’il y avait eu la reconnaissance faciale en temps réel ? Je ne le crois pas ! Alors que le fascisme monte partout dans le monde, je pense que ce sont des questions qu’on devrait se poser, sans les écarter d’un revers de main et sans s’appuyer sur une espèce de doxa installée, nourrie par les politiciens.

Cyrille Chaudoit : Tu as, en plus, cette qualité de pouvoir aller loin dans le passé, tu as ces capacités historiques, tu avais sorti un livre, dont le titre m’échappe, qui étudiait tout ça carrément du 15e siècle jusqu’à aujourd’hui, néanmoins ce désir de sécurité a toujours été là, les populations se mettaient sous la protection d’un seigneur et après d’un État. Si on continue de se faire l’avocat du diable, qu’est-ce qui change véritablement aujourd’hui ? Est-ce que ce ne sont pas simplement les technologies mises à disposition pour assurer cette sécurité ? Quels sont les enjeux derrière les justifications politiques qui parlent de neutralité technologique voire de vidéo-protection plutôt que vidéosurveillance, etc. ? Dit autrement, est-ce que ce n’est pas simplement l’histoire de l’humanité que de vouloir se mettre sous la protection de quelqu’un, quitte à laisser un petit peu de côté ses libertés individuelles ?

Félix Tréguer : Je ne suis pas sûr qu’on puisse bien traiter cette question-là dans cette discussion. Là, tu renvoies à des enjeux presque philosophiques, savoir si la nature humaine est foncièrement fan de l’autorité, de la mise sous tutelle.

Cyrille Chaudoit : Simplement, pour ne pas tomber dans le champ philosophique, est-ce que ce n’est pas le sens de l’histoire, pour le dire autrement, que de se mettre sous tutelle, y compris avec des technologies qui, aujourd’hui, nous paraissent effectivement peut-être un problème parce qu’on pourrait les utiliser pour d’autres usages ? Peut-être que c’est justement cela qu’il faut évoquer. Tant qu’on est surveillé par des caméras pour détecter des problèmes, entre guillemets, « où est le problème ? ». En revanche, quels sont les autres usages qu’on pourrait en avoir et à partir de quand ça devient véritablement un problème par rapport à cette volonté de protection depuis des années ?

Félix Tréguer : Pour revenir à l’aspect historique, la capacité de l’État à administrer l’ensemble d’une population très nombreuse, très mobile, c’est quand quelque chose de très nouveau en réalité. Pour l’instant, je laisserais de côté le rapport à l’autorité, mais avant, il y a 300/400 ans, même moins que ça, les gens faisaient leur vie en étant assez loin des institutions, souvent assez loin d’un rapport policier. La police est quelque chose de très moderne, la police, telle qu’on la connaît, date du 19e siècle. On est donc dans une conjoncture qui, je dirais, n’est pas forcément la suite logique d’une histoire de temps long, c’est la construction de rapports de force, c’est le fruit d’une histoire, certes, mais, si on est moderne, on pense qu’on peut aussi prendre les choses en main. Et la grande promesse du libéralisme politique, des grandes révolutions censément démocratiques du 18e siècle, c’est justement la capacité de modeler une société conforme à nos valeurs, notamment conforme aux droits humains avec un horizon démocratique. C’est cela qui est en cause, in fine, dans le déploiement de ces technologies : quel type de société politique construit-on ?
Pour rebondir sur un autre aspect de ta question, certes ces technologies nous donnent l’illusion d’une sécurité, je pense qu’elles permettent aussi, dans la tête de beaucoup de gens qui nous gouvernent et qui président à l’administration de ces sociétés très complexes de par le monde aujourd’hui, l’idée qu’ils ont besoin de ces technologies pour administrer les sociétés, pour faire en sorte de les faire tenir alors même que les inégalités explosent, que la crise écologique menace, qu’il y a tout un tas de désordres. On est sur un fil, on sent à quel point l’ordre politique est très précaire et quelque part, dans la rationalité des gens qui nous gouvernent, je pense que ces technologies sont un outil pour faire tenir tout ça. L’histoire nous le dira.

Mick Levy : Une grande question c’est finalement celle des dérives qu’il pourrait y avoir, c’est cela qu’il y avait en creux. Je pense qu’on va voir ça sur la deuxième partie, on va creuser cette question qui est passionnante et bouillante. Mais, avant cela, c’est l’heure de retrouver Gérald Holubowicz pour « On refait la tech ».

Chronique « On refait la tech » – « La tech, intouchable ? »

Synth : Est-ce que la tech bénéficie d’un régime d’exception ? Est-ce qu’on la traite avec plus d’indulgence que d’autres secteurs, comme si ses excès étaient plus pardonnables, presque inévitables au nom du progrès ? Face aux géants de la Silicon Valley, est-ce qu’on observe souvent une forme de retenue, comme si la fascination ou la peur de freiner l’innovation empêchait d’aller au bout de l’indignation ? Gérald, qu’est-ce qui se joue ici ?

Gérald Holubowicz : Est-ce que vous rappelez de cette séquence d’Apostrophes du 2 mars 1990 ? On y retrouve un Bernard Pivot en pleine forme, veste en tweed, chemise bleue et cravate à motifs, qui s’adresse à un Gabriel Matzneff, écrivain à succès et pédophile auto-documenté. Sur le plateau, semble légère, on glousse, on pouffe et on est tout sourire à la lecture des meilleures feuilles du torchon de Matzneff.
Dans cette chronique, ce n’est pas tellement la nature de l’horreur décrite qui m’intéresse, non, c’est plutôt la réaction distraite et badine de la quasi-totalité des invités du plateau à l’exception de Denise Bombardier [7], écrivaine canadienne, qui avait saisi pleinement l’enjeu de ce qui se tramait. Seule, elle avait jeté un froid quand elle avait dénoncé l’hypocrite présentation de l’écrivain, renvoyant les personnalités présentes à leur conscience. L’exercice télévisuel, à l’époque, les avait conviés à critiquer la forme et doctement toutes et tous s’étaient lancés dans un débat intellectuel, justifiant à grands coups d’arguments les fondements littéraires de l’œuvre coupable. Cette séquence pourrait illustrer les errements intellectuels d’une époque, une façon d’aborder un problème particulièrement tabou pour nos sociétés, mais je crois que ça peut nous aider à comprendre quelque chose du commentaire de la tech contemporaine. Car oui, il me semble qu’en matière de critique, nombre d’observateurs de la Silicon Valley font preuve de la même badinerie, de la même distance que sur ce plateau, que le rire remplace trop souvent l’indignation et que les Denise Bombardier se font malheureusement trop rares.

Synth : Mais alors, comment se concrétisent ces ricanements de plateau quand on les transpose à nos vies sur les plateformes numériques ?

Gérald Holubowicz : Rappelle-toi qu’en 2017, les premiers deepfakes sont apparus ; 99 % d’entre eux étaient des pornos dans lesquels les visages des actrices étaient remplacés par le visage de comédiennes du grand ou du petit écran, ou de femmes plus anonymes. Sur les réseaux et sur Twitter notamment, la moindre alerte sur le sujet était immédiatement trollée par les relativistes de service qui brandissaient la liberté d’expression et la liberté d’entreprendre ou d’innover dans un même argument pour ridiculiser tout appel à la régulation des logiciels qui permettaient de faire ces deepfakes pornos. Les humiliations et les vies brisées ne valaient jamais grand-chose face à l’impérieuse nécessité de satisfaire les fantasmes les plus crades ou de présenter un écosystème numérique libre de toute régulation. Dans ce système, la responsabilité se décale à mesure que les arguments deviennent précis. Pour paraphraser un chercheur américain, Julius Doyle, qui travaille précisément sur un modèle similaire pour les questions racistes, ça donne en gros quelque chose comme ça : « Bien sûr, il y a des deepfakes pornos, mais pas sur cette plateforme, pas dans mon réseau. Et s’il y en a, je ne regarde pas et si, par hasard, je suis tombé dessus, c’est par erreur. Et même si c’était intentionnel, ça ne me plaît absolument pas. » On décale toujours la responsabilité un peu plus loin pour ne pas avoir à gérer les conséquences de la nôtre et on peut appliquer cette chaîne logique à tous les événements qui mériteraient une critique solide.
Par exemple cet été, la mort de Jean Pormanove, le streamer martyrisé en direct sur la plateforme Kick [8], a déclenché bien sûr beaucoup d’émoi, mais aussi toute une vague de réactions relativisant l’implication des deux autres partenaires streamers avec lesquels Jean Pormanove travaillait. Malgré les alertes, malgré l’enquête de Mediapart un an auparavant, malgré les plaintes et les visites de gendarmes, rien n’a vraiment permis d’enrayer la dynamique. « Bien sûr, il y a de la violence sur Kick, mais, sur cette chaîne c’est un jeu ! Et puis, si ce n’est pas un jeu, je ne regarde pas ! Et s’il m’arrive de regarder, je ne participe pas ! Et si je participe, c’est très peu, etc. ». Vous avez compris le principe, on éloigne le problème le plus loin possible.

Synth : Du coup, qu’est-ce que ça dit de notre rapport collectif à la technologie ?

Gérald Holubowicz : Il me semble que nous traitons la tech trop légèrement, sans jamais réellement nous sentir responsables de notre consommation ou de notre rapport à elle. Et ce phénomène est amplifié par nombre de commentateurs spécialisés qui prennent la fâcheuse habitude de traiter le sujet sur un ton léger, pour faciliter les collabs commerciales ou par simple fascination. Par exemple, si on revient à la dernière actualité, l’assassinat de l’influenceur MAGA, Charlie Kirk, a déclenché un débat de société particulièrement véhément sur la question de la liberté d’expression, sur la nature raciste, violente ou misogyne de ses propos, sur la prolifération des armes aux États-Unis, mais très peu de commentateurs tech ont souligné le rôle des plateformes et des algorithmes de recommandation dans son succès ou même pointé la responsabilité des entreprises qui abritent ces débats dans la radicalisation des discours politiques depuis une dizaine d’années. Et c’est une constante quel que soit le sujet. La tech est présentée comme une forme d’innovation naturelle et inévitable, un objet de désir et de consommation, un moteur du progrès qui peut échapper aux règles habituelles du jugement critique en vertu d’un exceptionnalisme technologique absurde, cynique et complètement assumé. Les discours d’accompagnement de la tech se développent et proposent une vision distancée, rieuse et décontractée, à cela ne manque plus que la veste en tweed, la chemise bleue et la cravate à motifs, comme les rires convenus du plateau de télévision d’Apostrophes. Cette distance doit être questionnée férocement parce que, vu ses effets dans le réel, il y a un véritable enjeu et le soutien aveugle à la Silicon Valley doit changer de statut et ne plus être un marqueur de modernité absolue. Heureusement que quelques voix lèvent pour s’indigner. Il faut les soutenir.

Voix off : Trench Tech – Esprits critiques pour Tech Éthique.

Techno-surveillance : mode d’emploi pour en sortir ?

Cyrille Chaudoit : Je ne sais pas si on a vraiment soufflé avec la chronique de Gérald, en tout cas merci beaucoup.
Félix, la machine est en marche, mais normalement, comme toute machine, on devrait pouvoir l’arrêter, du moins l’encadrer, l’ajuster, voire la réorienter. On va essayer de voir ensemble à quelles conditions et, s’il n’est pas déjà trop tard pour empêcher les algorithmes de dicter seuls la loi, peut-être même la leur, ou, dit autrement, quels sont nos derniers remparts pour nous protéger de ceux qui disent agir pour nous protéger ? On va donc parler de garde-fous face à cette montée en puissance sécuritaire. Est-ce qu’on peut encore parler d’un contrôle démocratique ? Et d’abord, j’aimerais te poser cette question dans la droite lignée de la fin notre première séquence : n’est-ce pas un peu caricatural d’opposer deux camps, sécurité et liberté de l’autre côté ? Est-ce que la société civile est prête à faire un choix de société entre sécurité ou liberté ?

Félix Tréguer : Non. En fait on devrait avoir les deux. Je ne dirais pas que la sécurité est la première des libertés, c’est vraiment un retournement.
Juste un petit détour historique. À la base, le mot « sécurité » est issu du terme « sûreté » dans les déclarations des droits du 18e siècle dont je parlais tout à l’heure, c’est l’idée qu’on va protéger l’individu, la collectivité, la population d’ingérence, d’immixtion et de formes de violence de la part de l’État. C’est donc vraiment dans le rapport des citoyens à l’État que se joue cette notion. Ensuite, elle rebondit beaucoup au début du 20e siècle dans l’entre-deux-guerres, après la crise de 29, justement pour parler de la sécurité sociale et garantir la sécurité des gens face aux méfaits du capitalisme. C’est seulement dans l’après-guerre qu’on commence à voir ce terme réutilisé pour parler de sécurité nationale d’un côté et de sécurité, disons physique, ou face à des problèmes de délinquance, d’infraction, de violence, qui traversent la société. En fait, la sécurité devrait être comprise de manière beaucoup plus large que simplement le fait de ne pas être victime d’infractions ou d’incivilités. Le vivre ensemble devrait passer par des questions autour de notre santé, notre capacité à être hébergés dans des logements dignes, à respirer un air sain, à avoir notre alimentation garantie, qu’elle soit de bonne qualité. Bref, tout un tas d’aspects.

Cyrille Chaudoit : L’ancien sens de sécurité tel que tu viens de nous le décrire ? En fait, c’est ça ?

Félix Tréguer : Oui. Il faudrait pluraliser cette notion de sécurité, revenir à une acception beaucoup plus large et se rendre compte que, dans nos sociétés actuelles, on n’est peut-être pas dans un régime politique qui permet de penser toutes ces dimensions, ou trop mal à mon avis.

Cyrille Chaudoit : Ça veut dire qu’à cette époque-là, on était libre parce qu’il y avait un cadre qui nous sécurisait, tu le disais toi-même, de la maladie, qu’aujourd’hui on pourrait transposer au réchauffement climatique, donc demander des comptes : en quoi l’État me protège du réchauffement climatique ? Ça a donc été déporté sur la sécurité on va dire interpersonnelle, on a déplacé le curseur et c’est là, en réalité, qu’on ne peut plus associer directement sécurité et liberté ? C’est ça ? Puisque dès lors, assurer sa sécurité contre autrui dans la rue pour éviter de se faire agresser ça peut nous priver de nos propres libertés individuelles, parce qu’on est obligé d’être traqué. C’est ça ?

Félix Tréguer : C’est surtout que cette insécurité-là est aussi le fruit de tout un tas d’autres problèmes sociaux dont on parle trop peu et vis-à-vis desquels on se donne beaucoup moins de moyens budgétaires, financiers, collectifs, pour les gérer. Je ne dis pas qu’il n’y a pas de politique du logement, qu’il n’y a une sécurité sociale. Évidemment, nous sommes aussi les héritiers et héritières de luttes passées. Il y a des politiques publiques autour de ces aspects, mais on est aussi obligé de constater que depuis 20 à 30 ans, ce sont des choses qui sont en train d’être délitées. On parlait tout à l’heure des aides aux entreprises, il y a une réorientation massive des finances publiques vers la perfusion d’un capitalisme parfois très toxique, qui contribue à notre insécurité, et par ailleurs, nos services publics qui créent du vivre ensemble, qui créent une forme de sécurité collective, sont en mauvaise santé. On peut penser à l’hôpital, à l’éducation, à l’université, etc.

Cyrille Chaudoit : Justement pour en revenir à ma question, est-ce que tu crois qu’en termes de momentum, aujourd’hui la société civile est prête à faire un choix de société, à choisir entre sécurité dans son acception la plus contemporaine et liberté, par rapport à ce qu’on entend actuellement dans les infos et les discours politiques ?

Félix Tréguer : Je ne sais pas mesurer, c’est compliqué. Il y a tellement de formes de manipulation de notre écosystème médiatique à base d’algorithmes ou de médias fascistes sous la coupe de Bolloré et de politiciens qui instrumentalisent la délinquance et la violence à des fins politiciennes que s’en tenir au sentiment de l’opinion publique tel qu’il est mesuré dans des sondages, souvent biaisés, c’est un peu compliqué. J’aimerais qu’on ait un vrai débat. Par exemple à Marseille, avec le groupe Technopolice Marseille, on veut aller voir tout un tas d’associations, tout un tas d’acteurs militants, que ce soit les familles de victimes du narcotrafic, que ce soit les gens qui militent pour la sécurité sociale alimentaire, et essayer de penser comment on garantit une sécurité collective sans en passer par la police, autrement en fait, en construisant du lien social, en finançant des services publics et en trouvant des solutions qui soient un peu différentes que simplement la répression et la mise sous surveillance de l’espace public.

Mick Levy : En fait une sécurité by design qui amènerait à ne même pas avoir de questions sur la répression. On peut le dire comme ça.

Félix Tréguer : Exactement.

Mick Levy : J’ai envie de t’interroger : Ces dispositifs qui sont faits pour la sécurité, je reprends ce que disait Cyrille, au sens contemporain du terme, pourraient eux-mêmes nous amener de l’insécurité ? Quels sont les risques de dérive ? Tu en as déjà pointé quelques-uns aujourd’hui, mais qui ne sont finalement pas si clairs que ça, en tout cas pas si forts que ça. Admettons que ça aille plus loin et que ces dispositifs se retournent finalement contre la population, quels pourraient être ces risques de dérive ? Est-ce qu’on arrive à les imaginer ?

Félix Tréguer : Je pense qu’on a le miroir que nous tend le régime chinois, ce qui se passe actuellement aux États-Unis où la police politique de l’immigration, ICE, utilise à la fois les spywares et la reconnaissance faciale pour ficher les opposants politiques qui manifestent lors des opérations d’enlèvement de personnes avant de les déporter à l’étranger. On voit comment se combine toute cette surveillance numérique avec des pratiques coercitives qui portent directement sur les corps. Évidemment, en France on n’en est pas encore à ce degré-là, mais on sent à quel point ce basculement pourrait aller très vite. Malgré tout, il y a déjà des formes d’abus récurrents. Normalement, la police n’a pas le droit de vous forcer à vous identifier dans la rue. On a aujourd’hui des anecdotes sur le fait que la reconnaissance faciale, qui est déjà légalisée par un décret, je ne vais pas rentrer dans les détails, qui, à notre avis est là encore illégale : en gros, ils sont capables de prendre une photo, de la comparer à un fichier, le principal fichier de police qui est le fichier TAJ [fichier de Traitement d’antécédents judiciaires], qui a un système de reconnaissance faciale pour retrouver des fiches. Cela permet d’identifier des gens parce qu’il y a quand même près de dix millions de personnes qui sont fichées dans le fichier TAJ.

Mick Levy : C’est un détournement. La reconnaissance faciale en temps réel, sur la voie publique, est interdite, mais là ils utilisent une espèce de zone grise, finalement, pour aller faire de la reconnaissance faciale, pas en temps réel, et dirigée sur certaines personnes qui sont sur la voie.

Félix Tréguer : Normalement, c’est autorisé simplement pour des enquêtes pénales, par un décret de 2012 qui est passé complètement en soum-soum. Mais effectivement, cette fonctionnalité de reconnaissance faciale est utilisée dans d’autres cadres avec très peu de contrôle.
Un autre exemple dont je parle dans le bouquin. Un avocat nous racontait qu’une jeune femme a été arrêtée pour vol à l’étalage, mise en garde à vue avec sa comparse. Elle refuse de donner son identité. Les flics la prennent en photo, la comparent au fichier TAJ, et le premier résultat c’est la photo d’une personne qui lui ressemble très vaguement, le taux de correspondance affiché par l’algorithme est de 64 %. Sauf que la personne fichée est d’origine roumaine, sous OQTF, obligation de quitter le territoire français. Le procureur, puis les juges, vont accepter l’idée qu’en fait c’est la même personne et que, du coup, il faut déporter la personne gardée à vue. Elle va rester en centre de rétention avant que son avocat parvienne à la faire sortir.

Mick Levy : C’est incroyable. Je m’arrête sur cet exemple. J’avais des exemples comme ça aux États-Unis, tout à fait similaires, je ne savais pas qu’on avait eu ce type de cas en France, de personnes qui sont accusées à tort à cause de la reconnaissance faciale.

Félix Tréguer : Et ce sont quelques cas dont on entend parler par des avocats, mais si on faisait des études un peu systémiques, on se rendrait sans doute compte que ce n’est pas du tout un cas isolé, que ça arrive assez régulièrement.

Cyrille Chaudoit : Félix, pour rester sur cet exemple-là, qu’est-ce qu’on fait ? Quels sont nos droits ? On a le droit de dire aux flics « vous ne pouvez pas me prendre en photo parce que vous n’avez pas le droit de faire de la reconnaissance faciale » ?

Félix Tréguer : Dans le cas d’un contrôle d’identité, on a le droit et on devrait, mais malheureusement le droit est rarement connu et c’est vrai que quand tu es menacé par un policier qui peut t’emmener au poste pour une vérification d’identité pendant plusieurs heures, ce n’est pas toujours facile de faire valoir ses droits, ça fait partie des choses qu’on aimerait faire.

Mick Levy : Ce n’est pas facile d’être dans la négo à ce moment-là.

Cyrille Chaudoit : C’est certain, mais ce n’est pas mal de le rappeler : pas le droit de faire de reconnaissance faciale en temps réel, ça c’est une certitude et on reviendra sur les textes, notamment à l’échelle européenne, pour voir à quel point ils sont résistants ou pas ; pas le droit de faire de la reconnaissance faciale, même a posteriori, hormis dérogation spécifique, si je comprends bien.

Félix Tréguer : Dans le cas d’enquête pénale, sur autorisation du juge.

Cyrille Chaudoit : C’est-à-dire que ce n’est pas tous les jours que les mecs peuvent te prendre en photo, que ce soit avec une caméra, que ce soit avec leur propre smartphone ou un drone, ce n’est pas normal donc tu as le droit de t’y opposer. Vas-y, je te laisse continuer sur ton troisième exemple.

Félix Tréguer : Les autres exemples qui, je pense, montrent un peu comment ces systèmes peuvent mener à une forme de sur-vigilance de la part de la police et mener à des drames, en Belgique ou à Londres. À Londres, une voiture de police utilise un système de LAPI, de reconnaissance de plaques d’immatriculation, en gros c’est de la VSA appliquée à la reconnaissance de plaques, qui est d’ailleurs légalisé en France depuis environ 2012.

Cyrille Chaudoit : Je me prends des FPS en permanence.

Mick Levy : Arrêtez avec vos acronymes : VSA, vidéosurveillance algorithmique, tu l’as dit tout à l’heure mais je le rappelle, et FPS forfait de post-stationnement] ?

Cyrille Chaudoit : C’est simplement l’amende, c’est le PV.

Félix Tréguer : Les systèmes d’API, c’est pour lecture automatisée de plaques d’immatriculation. À Londres, en 2023, la voiture de police avait cela. Elle flashe une voiture qui est impliquée dans un incident avec arme à feu, elle est alertée, pour le moins, sauf que la voiture est conduite par personne qui n’a rien à voir avec le schmilblick, un jeune homme noir. Les policiers décident de lui entraver la route, de mettre leur voiture en travers de sa trajectoire. Les policiers descendent et tirent quasiment à bout portant sur l’individu au volant qui n’avait rien à voir avec cet incident avec arme à feu. Là on voit à quel point la force létale et le meurtre policier peuvent être encouragés, déclenchés par le caractère faillible des informations fournies par ces systèmes numériques.

Cyrille Chaudoit : Du coup ça soulève une question, Félix. Est-ce là le problème est technologique ou est-ce qu’il est humain ? Il y a tout de même de la fébrilité de la part…

Félix Tréguer : Les deux. À mon sens, c’est toujours l’articulation d’une technologie plus ou moins fiable, plus ou moins précise, il y a des vrais enjeux. Et là, le problème, c’est que des technologies viennent se greffer à des pratiques policières violentes, à une institution policière elle-même, comme d’autres institutions, on pourrait parler justement des caisses d’Allocations familiales, de France Travail et d’autres où on a aussi vu comment les algorithmes pouvaient avoir des impacts discriminatoires sur les précaires.

Cyrille Chaudoit : On en a parlé avec Hubert Guillaud [9], Soizic Pénicaud.

Félix Tréguer : S’agissant de la police c’est le racisme policier et les discriminations structurelles.

Cyrille Chaudoit : Sauf que là, c’est la combinaison des deux, on est d’accord.
Juste une petite anecdote dans le domaine privé, puisque là on était plutôt sur le domaine public. J’ai lu qu’en Angleterre une femme qui allait faire ses courses dans un magasin de biens de consommation courante s’est fait retoquer au moment de payer, on lui a dit « vous êtes fichée chez nous parce qu’on vous a reconnue facialement » et puis elle va dans un autre magasin et c’est pareil. Elle est complètement blacklistée de ces magasins, alors qu’en réalité ce n’est pas elle, et, en plus, la personne avait été fichée parce qu’elle avait piqué pour 10 euros de papier toilette !

Félix Tréguer : Au Royaume-uni, les commerçants ont mis en place un système, un réseau mutualisé pour reconnaître des shoplifters, comme on dit là-bas, et ça passe par la reconnaissance faciale. En l’occurrence, l’algorithme a dû la reconnaître à tort et ça conduit à ces décisions et à ces formes d’exclusion. C’est terrifiant !

Mick Levy : J’aimerais qu’on fasse un petit point « réglementaro-juridique », je ne sais pas si ça se dit comme ça, amis avocats et autres juristes vous allez vous régaler, maintenant c’est votre séquence. Explique-nous un peu. Il y a eu beaucoup de lois en France, en particulier suite aux attentats, je crois que la loi sur la surveillance en a remis une couche ; en Europe, je pense qu’on est protégé à la fois par l’AI Act [10], mais une loi arrive, qui s’appelle Chat Control [11], on va faire un point dédié. Que dit cet arsenal juridique ? Est-ce qu’il va finalement vers toujours plus de renforcement de cette surveillance technologique voire algorithmique ?

Félix Tréguer : Oui, clairement. Même si, en Europe, il y a des signes contradictoires puisque notamment après les révélations d’Edward Snowden [12], en 2013 dans les années qui ont suivi, il y a eu tout un débat sur justement comment se protéger de la surveillance numérique. Il y a eu quelques avancées bien insuffisantes, notamment le RGPD, le Règlement général dédié à la protection des données à caractère personnel, qui apporte quelques armes pour se prémunir au plan juridique, que nous avons notamment utilisé.

Mick Levy : Je pense surtout à l’AI Act, parce qu’il y a des choses qui sont interdites dont la reconnaissance faciale en temps réel sur la voie publique.

Félix Tréguer : Permettez-moi d’expliquer, parce que c’est plus compliqué que ça. Typiquement, on avait pu utiliser le RGPD, en 2019, pour faire interdire, à Nice et à Marseille, une expérimentation de la reconnaissance faciale à l’entrée de lycées, une expérimentation voulue par la région. La justice administrative a estimé que c’était contraire au RGPD. Donc en gros, ce texte adopté en 2016, mis en place en 2018, n’interdisait pas explicitement la reconnaissance faciale mais en faisait une condition de dernier recours qui faisait qu’il était très compliqué de justifier l’utilisation de cette technologie.
L’AI Act, qui a été introduit en 2021 par la Commission européenne, a été complètement marketé notamment avec cette idée d’une interdiction de la reconnaissance faciale. Sauf que quand on lit l’article 5, qui porte sur l’interdiction de la reconnaissance faciale en temps réel seulement, immédiatement après, donc tout ce qui est à posteriori, notamment les usages du fichier TAJ, qu’on évoquait tout à l’heure, sont autorisés. Pour la reconnaissance faciale en temps réel, c’est censément interdit sauf que, immédiatement après, il y a une liste de dérogations. Elle est donc autorisée pour rechercher des suspects de terrorisme, des personnes disparues, et un petit alinéa explique que c’est aussi autorisé dans le cadre d’enquêtes pénales pour toute infraction punie par plus de quatre ans de prison, ce qui concerne quand même une grosse partie du Code pénal.

Mick Levy : Du coup, il y a plein de zones grises.

Félix Tréguer : Même plus que ça. On a expliqué que cet AI Act, quelque part, vient défaire ou contourner les protections qu’avaient apporté le RGPD et son équivalent dans le champ policier et judiciaire.

Mick Levy : Ça amène des contradictions.

Félix Tréguer : En fait plus que ça. Disclose a montré l’hiver dernier que la France avait joué des coudes à Bruxelles pour obtenir des dérogations très larges, il y a même une disposition qui explique qu’on peut utiliser les systèmes de VSA pour déduire l’orientation sexuelle, l’appartenance syndicale d’une personne, des choses assez terrifiantes qui rappellent les pseudo-sciences physionomistes du 19esiècle.

Mick Levy : Et qui vont clairement à l’encontre du RGPD, puisque ces types d’information sont des données dites sensibles.
Est-ce que tu peux nous faire un petit point sur un sujet qui est actuellement bouillant à la Commission européenne et dont, à mon avis, on parle beaucoup trop peu compte-tenu des enjeux, qui est la réglementation Chat Control. Qu’est-ce que c’est et qu’est-ce qui est en train de se jouer en ce moment à l’Europe ?

Félix Tréguer : Chat Control, c’est le surnom qu’on a donné à une disposition dans une directive qui concerne la protection de l’enfance, donc une cause évidemment très consensuelle et très légitime. En gros, c’est une mesure qui a été notamment poussée par les services de police et de renseignement, en lien avec un pan de l’industrie qui est là pour vendre des solutions techniques et pour les mettre en œuvre. Comme on l’évoquait tout à l’heure, c’est avec l’idée que le chiffrement s’est démocratisé, une grande partie de nos communications sont désormais chiffrées, elles sont difficiles à surveiller.

Mick Levy : Des messageries comme WhatsApp, mais aussi celle d’Apple, celle d’Android, Signal, etc. Tout est chiffré de bout en bout donc personne ne peut accéder au contenu de nos communications.

Félix Tréguer : Normalement non ou alors c’est très coûteux, ça demande beaucoup de ressources. L’idée c’est que, plutôt que de surveiller en cœur de réseau, on va permettre de surveiller avant que les messages soient chiffrés, au sein des messageries. En fait, Chat Control c’est l’idée de ce qu’on appelle en anglais le client-side scanning : on va scanner les communications avant qu’elles soient chiffrées, comparer les contenus à une base de données ou à des modèles prédictifs pour voir s’ils relèvent, dans le cadre de cette directive, de contenus pédopornographiques. L’idée c’est qu’à terme ce dispositif puisse être étendu à tout un tas d’autres catégories de contenus pour analyser des communications, les bloquer ou déclencher des alertes en cas de communication suspecte.

Mick Levy : Donc il n’y aurait plus de possibilité de communications réellement privées, confidentielles. Edward Snowden doit se régaler !

Félix Tréguer : C’est ça. Du coup, là on en est à un stade où on avait obtenu, avec la société civile européenne et aussi beaucoup d’experts en cybersécurité qui expliquaient qu’introduire des backdoors de ce type c’était très dangereux, un vote plutôt positif du Parlement européen qui allait à l’encontre de la proposition de la Commission européenne. Le texte est en train d’être examiné par les États membres dans le cadre du Conseil de l’Union européenne. Ce n’est pas très clair, c’est très opaque, c’est assez dur de savoir ce qui se passe. Il y a un vrai enjeu parce que le vote du Parlement européen c’était avant la dernière élection européenne, et là le centre de gravité politique a vraiment basculé à droite, voire à l’extrême-droite au Parlement européen, en tout cas l’extrême droite est très influente, on a donc un peu peur que les États membres reviennent sur la proposition initiale et tentent d’imposer cette mesure très attentatoire à la confidentialité des communications [13].

Mick Levy : C’est réjouissant !

Cyrille Chaudoit : Félix, je suis quand même un petit peu tracassé depuis tout à l’heure parce que, malgré tout, l’AI Act est probablement le seul rempart qui existe aujourd’hui au monde pour protéger les citoyens de ces dérives, quand bien même on t’entend, il y a des zones grises, il y a des télescopages avec le RGPD qui font que c’est peut-être contre-productif. Mais est-ce qu’on ne peut pas aussi voir aussi le verre à moitié plein et se dire qu’aujourd’hui précisément la reconnaissance faciale en temps réel n’existe pas dans notre pays, est interdite, quand pas très loin de chez nous, par exemple en Géorgie, tu es obligé de t’affubler de masques de carnaval quand tu veux manifester pour éviter de te faire pécho et quand bien même, je suis d’accord, la reconnaissance faciale en temps réel a ses limites puisque, dans certains pays toujours, on fait de la reconnaissance faciale et on va choper les mecs deux/trois jours après, c’est quasiment pareil ? J’aimerais quand même savoir si on a des raisons non pas de se réjouir mais quand même de se consoler un tout petit peu et ce qui te fait personnellement encore espérer que cette trajectoire puisse être inversée ?

Félix Tréguer : Ça dépend des jours. J’avoue qu’en ce moment l’actualité fait que je ne déborde pas de l’espoir de renverser la table et que les choses aillent pour le mieux. Malgré tout, avec la campagne Technopolice [14] que j’ai oublié de rappeler en préambule, un vaste effort collectif qu’on a mené depuis 2019 pour documenter ces technologies policières en France, en lien avec d’autres groupes en Europe, et organiser aussi des formes de résistance locale ou à l’échelle du pays ou en Europe, pour défendre nos droits et lutter contre la propagation de ces technologies, on a quand même réussi, justement, à faire en sorte que la reconnaissance faciale en temps réel, à ce jour, n’est pas autorisée en France, alors même qu’il y a eu des de nombreux essais ces dernières années. On a contribué, avec plein d’autres, à créer un climat politique pour augmenter le coût politique de passer ces mesures. C’est cela qui explique que Darmanin et Retailleau reviennent à la charge en tentant de légaliser et justement d’exploiter les failles dans le règlement IA, le AI Act, pour autoriser la reconnaissance faciale en temps réel, mais, à ce jour, ça n’est pas le cas. On a aussi cloué au sol, pendant plusieurs années, les drones du ministère de l’Intérieur pour défaut de base légale. Il y a donc encore quelques outils juridiques, mais, en fait, on arrive seulement à retarder les choses, ce n’est pas satisfaisant.
Pour revenir à ta remarque, c’est vrai qu’on est obligé de constater qu’en Europe c’est un peu moins pire qu’ailleurs, on a des lois qui nous protègent un peu mieux. En réalité, ça me rend triste parce que, du coup, ça veut vraiment dire qu’au royaume des borgnes les aveugles sont rois.

Cyrille Chaudoit : Est-de que les digues peuvent tenir ?

Félix Tréguer : Est-ce à dire qu’on peut en retirer une fierté ou être content ?

Cyrille Chaudoit : Non, ce n’est pas ce n’est pas l’idée, il ne faut pas se contenter de se dire que c’est un peu moins pire qu’ailleurs. Le sens de ma question c’était plutôt : est-ce que ces espèces de digues vont tenir longtemps ? Tu nous cites des noms de politiques qui reviennent à la charge. Penses-tu que ces digues peuvent tenir parce que, justement, il y a l’engagement de La Quadrature et pas uniquement, d’ailleurs, tu peux peut-être citer deux/trois autres camarades qui essaient de lutter contre ça ? Quels sont nos moyens de résister et d’aider, en tant que citoyens, à ce que cette digue ne pète pas un jour.

Félix Tréguer : C’est se mobiliser, c’est politiser ces enjeux. On a essayé avec La Quadrature, avec La Ligue des droits humains, avec Amnesty International, avec d’autres acteurs partout en Europe, partout dans le monde, de visibiliser ces enjeux, de fournir un peu des clés pour documenter, lutter contre l’opacité systémique et montrer en droit, à partir aussi de valeurs politiques qui sont censées nous animer, à quel point ces évolutions sont dangereuses. Les contre-pouvoirs existent, la CNIL, les juges, mais c’est très dur de les activer, c’est très aléatoire, c’est-à-dire que très souvent on a des décisions en trompe-l’œil qui ne sont pas satisfaisantes. C’est rare qu’on obtienne des victoires. En, fait plus que des victoires ce sont juste des demi-victoires qui vont juste donner un peu de grain à moudre au ministère de l’Intérieur avant qu’il puisse pondre une loi qui autorisera, dans des conditions un peu plus encadrées, avant le prochain fait divers qui permettra d’exploiter un climat un peu plus anxiogène pour autoriser de nouveau ces mesures. On sent que ce n’est pas vraiment satisfaisant.
Je pense que politiser, se mobiliser, ça marche, mais je suis aussi obligé de constater qu’on est trop peu à le faire et que, globalement, le contexte politique, médiatique dans lequel on mène ces luttes, se détériore. Ça n’invite pas franchement à l’espoir. Après, quoi qu’il arrive, participer à ces mobilisations, participer à résister, se mobiliser ça compte. Même dans ce contexte très adverse c’est important de le faire.

Cyrille Chaudoit : Se serrer les coudes dans un élan collectif et commencer à préparer un stock de masques de carnaval pour ces prochaines années.
Merci Félix. C’était un moment évidemment trop court pour balayer tous les sujets en profondeur. En tout cas, je pense qu’on a bien défriché grâce à toi. D’ailleurs, je rappelle ton livre, Technopolice, paru aux éditions Divergences en 2024. Merci d’avoir passé ce moment avec nous, Félix.

Félix Tréguer : Merci à vous.

Mick Levy : Merci Félix. À bientôt.

Cyrille Chaudoit : Et pour vous qui nous écouter ou nous regardez, restez encore quelques minutes. Avec Mick, on va débriefer de toutes ces grandes idées et de tous ces points un peu terrorisants.

Voix off : Trench Tech – Esprits critiques pour Tech Éthique.

Le Debrief

Mick Levy : Eh bien, on ne s’ennuie pas quand on est bien accompagné !

Cyrille Chaudoit : C’est souvent le cas.

Mick Levy : Un bel invité, un sujet marquant, conduit de manière très chaude. J’ai bien aimé sa punchline : si on avait eu, dans les années 40, tout l’arsenal technologique qu’on a, on n’aurait pas pu faire de la résistance. C’est vrai qu’il y a des moments où on comprend de mieux en mieux, d’épisode en épisode, que tout l’édifice démocratique est en train de fortement vaciller. Je pense que c’est aussi à prendre en considération.

Cyrille Chaudoit : Ça fait flipper. D’ailleurs, si vous avez aimé cet épisode avec Félix, on vous renvoie par exemple vers l’épisode d’Irénée Régnauld [15], en saison 1, ça date déjà pas mal, et puis forcément vers l’épisode de Nastasia Hadjadji et de Olivier Tesquet sur le technofascisme [16] un terme qui est aussi revenu dans les mots de Félix.
J’ai bien aimé, je n’en avais pas conscience, je n’avais pas réfléchi à cette espèce de glissement de terrain du terme sécurité qui était, à la base, pour nous assurer une forme de sécurité vis-à-vis de l’État donc du Léviathan, mais aussi de la vie en général – sécurité sociale, etc. – jusqu’à ce que ça décline jusqu’à la sécurité interpersonnelle on va dire. On voit que, dans le discours politique, à tort ou à raison, il y a eu ce glissement qui nous amène aujourd’hui à opposer sécurité et liberté individuelle. Ça me fait un peu flipper.

Mick Levy : Tu as raison, c’est très marquant. Ça nous ramène, encore une fois, à constater à quel point tech et politique sont mixés ensemble, c’est énorme et on a l’impression, en tout cas à entendre Félix, que c’est quasiment un calcul politique d’utiliser cette peur autour de la sécurité qui est, en plus comme tu le disais, un glissement du terme initial pour déployer un arsenal technologique qui est fou. On pense tous aux caméras, mais il a parlé des drones, il a parlé des spywares, le truc totalement invisible. Ce qui est dingue, qui me marque, et ce n’est pas la première fois qu’un invité nous le dit, c’est que, derrière, il n’y a aucune évaluation de la performance de ces dispositifs et à l’entendre, il ne l’a pas dit comme ça, mais, pour lui, ça n’est pas utile, ça ne sert à rien, voire ça apporte d’autres dangers. Je pense que ça vaudrait quand même le coup de contrebalancer sa vision, peut-être avec des études, avec des chiffres, peut-être avec un invité qui aurait une tendance politique beaucoup plus à droite, qui ne dirait la même chose.

Cyrille Chaudoit : Oui. Faire venir quelqu’un de l’État ou simplement quelqu’un de la Gendarmerie nationale, de la DGSI, pourquoi pas.
C’est vrai que c’est assez étonnant, on peut entendre ce discours. Il y a une forme de « marketing », entre guillemets, des narratifs politiques sur « c’est plus facile de nous renvoyer vers la sécurité du quotidien plutôt que comment régler le réchauffement climatique » et en plus, matériellement, ça se voit, c’est objectivé, il y a des tas des caméras, etc.

Mick Levy : C’est mon histoire des doubles et triples files à Nice. Je te jure que ça a été résolu ! Ça se voit.

Cyrille Chaudoit : On voit ces caméras absolument partout. C’est vrai que j’avais entendu parler de ces histoires de drones, je crois même pendant le Covid. Certains maires du sud voulaient balancer des drones pour vérifier que personne ne sortait. C’est quand même assez inquiétant.
En revanche, on a l’AI Act, on est en Europe, on est en France, il existe quand même un certain nombre de garde-fous. On sent quand même que l’ami Félix n’est pas hyper chaud sur le truc. Je trouve qu’on a quand même quelques petites barrières à l’entrée. Ce qui m’inquiète le plus c’est combien de temps elles vont durer, qui va essayer de les démonter petit à petit. Tout à l’heure il nous a cité des noms, il nous a parlé de Darmanin, de Retailleau qui reviennent avec cette idée de reconnaissance faciale en temps réel.

Mick Levy : Il nous montre aussi que malgré ces barrières, il y a quand même des choses qui passent, ce sont des barrières un peu passoires, le cas de la personne arrêtée à tort, qui a failli être exclue du territoire alors que ce n’était pas la bonne personne, elle n’était pas responsable des faits. J’avais plusieurs exemples de ça aux États-Unis avec des personnes qui ont passé deux ou trois jours en prison.

Cyrille Chaudoit : Aux États-Unis.

Mick Levy : Je ne pensais absolument pas qu’on pouvait avoir ce type de cas en France, ça a été une vraie surprise pour moi, je trouve ça glaçant !

Cyrille Chaudoit : C’est fantastique. Si tu pars du principe que la techno peut effectivement se planter, et on a eu des exemples, que derrière, comme nous l’a raconté Olivier Sibony dans un autre épisode [17] , le juge s’appuie sur une IA pour savoir s’il y a des probabilités de récidive et que l’IA se plante, là on nage dans la science-fiction et dans une dystopie qui est totalement terrifiante. Je rappelle quand même que, encore aujourd’hui, il y a des barrières qui nous protègent, nous Européens, nous Français, et que la seule solution c’est peut-être d’en avoir conscience, d’en demander davantage et essayer rafistoler les trous pour éviter que ça soit complètement le raz-de-marée.

Mick Levy : Je fais un dernier petit commentaire qui est un peu à côté du sujet de notre épisode, mais quand même. Je voudrais présenter mes excuses auprès de madame Michu. En tout cas, je prends l’engagement que je ne ferai plus jamais référence à madame Michu. D’ailleurs, c’est quoi ce délire français avec cette expression !

Cyrille Chaudoit : Déjà, tu pourrais prendre monsieur Michu ou monsieur Dupont.

Mick Levy : Exactement, c’est bien ça le sujet. Pourquoi c’est toujours une madame, ça évoque la consommatrice cinquantenaire.

Cyrille Chaudoit : La responsable des achats, comme on dit en marketing.

Mick Levy : C’est ça qui est à côté du sujet. Je promets, j’arrêterai madame Michu, en même temps que je le disais, je pensais « mais où tu vas ! ». Je tenais à vous le dire.

Cyrille Chaudoit : On envoie un bisou à toutes les madame Michu de France et de Navarre

Mick Levy : Et les monsieur Dupont.

Cyrille Chaudoit : J’en connais en plus.

Voix off : Trench Tech.

Cyrille Chaudoit : Et voilà, plus ou moins 60 minutes viennent de passer pour décoder ensemble les mécanismes d’un monde qui se rêve plus sûr, mais à quel prix ! On espère que cet épisode vous permettra d’exercer votre esprit critique pour une tech plus éthique et à présent qu’allez-vous faire de ce que vous avez appris ?
Si vous aimez notre travail, faites un geste mettez-nous cinq étoiles sur les plateformes de podcasts, s’il vous plaît levez un pouce sur YouTube et surtout partagez cet épisode autour de vous.
Avant de nous quitter, je repense à Edward Snowden justement, qui nous avertissait : « Quand on se sait observé, on agit de manière moins libre, ce qui signifie effectivement que nous ne sommes pas libres. »
À la prochaine.

Voix off : Trench Tech – Esprits critiques pour Tech Éthique.