Quand la police prédictive entre dans nos vies - Félix Tréguer - Le mouton numérique

Titre :
Moutonery Report : quand la police prédictive entre dans nos vies
Intervenant·e·s :
Félix Tréguer - Andy Kwok - Stéphane Favereaux - Estelle
Lieu :
Le Mouton Numérique
Date :
mai 2019
Durée :
54 min 50
Écouter le podcast

Page de présentation de l’émission

Licence de la transcription :
Verbatim
Illustration :
Data Analytics Decision Making, deepak pal, Flickr - Licence Creative Commons CC BY 2.0

Les positions exprimées sont celles des personnes qui interviennent et ne rejoignent pas nécessairement celles de l’April, qui ne sera en aucun cas tenue responsable de leurs propos.

logo mouton numérique

Description

Félix Tréguer est chercheur associé au Centre Internet et Société du CNRS, post-doctorant au Centre de recherches internationales (CERI Sciences Po), et membre fondateur de l’association La Quadrature du Net.

Il nous a rejoints pour ce premier podcast qui interroge un sujet essentiel pour l’organisation de nos sociétés technologiques : la police prédictive et le pré-crime.

Qu’est-ce que les algorithmes prédictifs ont comme impacts sur la société ?

Va-t-on vers L’Empire du Moindre mal avec une totale déresponsabilisation à tous les niveaux de tous les humains ?

Est-ce que l’on prévient le crime en le prédisant ou est-ce que l’on est amené à le provoquer pour confirmer la prédiction de l’algorithme ?

Pourquoi la police prédictive est-elle réellement en place (fonte des effectifs des policiers, désengorger les tribunaux, solutionnisme technologique plutôt qu’investissement publics, réduction de la pauvreté, etc.) ?

Autant de questions (parmi d’autres) auxquelles Félix Tréguer apporte son éclairage.

Transcription

Estelle : Bonjour. Bonsoir à tous. Bienvenue sur Le Bêlement, le podcast du Mouton numérique. Aujourd’hui je suis avec Andy.
Andy Kwok : Hello.
Estelle : Stéphane, qui ne dit pas bonjour.
Stéphane Favereaux : Si, si, je suis là, bonjour.
Estelle : Et notre invité Félix Tréguer. Bonsoir Félix ou bonjour Félix.
Félix Tréguer : Bonsoir. Bonjour.
Estelle : Aujourd’hui nous allons parler « Surveillance et police prédictive », donc nous avons fait appel à Félix.

Tout d’abord Félix, si tu veux te présenter un petit peu. Aujourd’hui tu es donc chercheur post-doctorant. Est-ce que tu peux nous parler un peu de tes sujets de prédilection, tes sujets de recherche ?
Félix Tréguer : Oui. Je travaille principalement sur la censure et la surveillance d’Internet et, de plus en plus, la surveillance de l’espace public urbain au travers des technologies numériques dernier cri, donc pas mal de choses dont on parlera ce soir, même si ce sont de sujets de recherche encore émergents. J’ai beaucoup travaillé sur la surveillance d’Internet par les services de renseignement, l’histoire des débats sur la censure et la surveillance d’Internet de manière plus générale.
Estelle : OK. Qu’est-ce qui t’a amené aujourd’hui à faire le lien entre surveillance et tu disais les nouvelles formes de Smart City, Safe City comme tu l’appelles.
Félix Tréguer : Avant d’être chercheur j’ai été salarié dans une association de défense des droits dans l’environnement numérique qui s’appelle La Quadrature du Net [1], dans laquelle j’ai travaillé pendant trois ans entre 2009 et 2012 comme juriste. J’ai continué à y participer depuis bénévolement et c’est vrai que, du coup, nos sujets principaux ont longtemps été la surveillance et la censure d’Internet, donc les nouvelles modalités de régulation de ce qu’on appelle l’espace public médiatique et dans son penchant numérique qu’est Internet. En fait, on voit un petit peu des logiques de ce que d’autres ont appelé la gouvernementalité algorithmique, ne plus réguler simplement les communications internet, l’expression, la communication publique numérique mais, de plus en plus, l’espace public urbain dans les villes, dans l’espace physique où se meuvent nos corps.
Estelle : On en entend parler assez souvent depuis même très longtemps, c’est un imaginaire science-fiction qui existe depuis Minority Report, on peut dire, cette notion d’anticiper les actes et potentiellement la criminalité. Tu penses qu’il y a des vraies choses qui sont mises en place aujourd’hui, il y a une genèse de ce projet-là ? Est-ce que tu vois un peu d’où ça vient et vers quoi ça pourrait tendre ?
Félix Tréguer : Je pense que si on faisait l’histoire de ces technologies de police prédictive – c’est de ça dont tu parles – si on faisait son histoire, il faudrait sans doute remonter à, je ne sais pas, ce qu’on appelait les censeurs chez les Romains qui étaient les individus en charge de comptabiliser un petit peu ce qui se passait dans les foyers, les occupations des gens, le nombre de personnes vivant dans chaque foyer, etc., mais ça avait un rôle très important dans la régulation des mœurs dans la Rome antique. On pourrait parler des traités de police générale aux 17e et 18e siècles, où l’État moderne se constitue et va déployer des techniques policières pour construire des savoirs sur la population et mieux la gouverner. Donc ce n’est pas simplement réprimer des infractions au droit commun ou garantir l’ordre public dans une acception étroite, ce sont des choses beaucoup plus larges : on inclut la salubrité, l’éducation et des choses qui ne viennent pas forcément à l’esprit lorsqu’on pense à la police dans son volet répressif. Mais, là encore, on pourrait trouver des sources historiques dans les formes et dans les pratiques de la police prédictive et des technologies de surveillance policière qui se déploient depuis quelques mois et quelques années.

Je crois aussi que, et là encore ça mériterait d’être approfondi, ce sont plus des intuitions que des recherches très arrêtées pour le moment, mais je pense que dans la période coloniale et dans les stratégies de guerre contre-insurrectionnelle menées aux 19e et 20e siècles, là aussi il y a tout un tas de logiques de surveiller une population, détecter des signaux de radicalisation, des signaux faibles, et toutes ces théories au croisement des sciences sociales, comportementales et statistiques qui vont appuyer les dispositifs répressifs, là aussi sont sans doute une racine historique importante pour comprendre l’histoire de ces technologies.

Mais si on revient à une histoire beaucoup récente, ce sont les années 90 avec les nouvelles techniques et les nouvelles doctrines de management des forces de l’ordre principalement aux États-Unis et le primat mis dans ces doctrines sur le renseignement : on n’est plus simplement dans une police répressive qui va chercher à arrêter les auteurs d’infractions a posteriori, mais dans une démarche proactive d’anticipation où, du coup, ce savoir et le renseignement en amont de l’activité policière pour guider justement l’activité policière, manager les forces de police, devient central. Donc les technologies de police prédictive, en fait, sont une déclinaison, un outillage technologique qui découle de ces doctrines qui sont nées dans les années 90.
Andy Kwok : Je vais juste revenir sur ce que tu as dit, qui est très intéressant, justement qu’il y a une racine historique pour avoir une certaine prédiction. Tu citais les exemples de guérilla juste pour voir si une population peut se rebeller. La police prédictive à l’heure actuelle, je pense surtout que Minority Report a vraiment donné ce ton de dire qu’il y a un côté répressif, mais je me fais un peu l’avocat du diable : est-ce qu’il y a aussi une forme d’éducation on va dire, justement de contrôle de la société, mais pas forcément répressif ? C’est vrai qu’on voit le côté qui est ultra, mettre une population dans une boîte, mais est-ce que, au-delà de ça, ce serait possible de dire qu’il y a peut-être aussi un projet sociétal ? Je ne vois pas forcément les choses comme telles.
Estelle : Et qui ne serait pas forcément que dans la prévention du crime, plutôt dans l’éducation des masses et des populations ?
Andy Kwok : C’est ça.
Félix Tréguer : De quelle manière on les éduquerait ?
Andy Kwok : C’est vrai que le contrôle c’est pour éviter des débordements, mais est-ce que c’est possible de dire si jamais il y a un débordement qui se fait, si jamais il y a une insurrection qui se produit, c’est justement pour essayer de prévenir ça avec cette forme de police prédictive ? Voilà, je me fais un peu l’avocat du diable.
Estelle : Implanter des écoles par exemple dans les zones qui seraient potentiellement plus à risque ou, je ne sais pas, augmenter le nombre de professeurs dans des situations où on sait qu’il y a de zones scolaires un peu plus… Je ne sais.
Félix Tréguer : Vous ne m’entendrez pas dire que la technologie est neutre parce que c’est un poncif qui, en plus, est faux ; vous le savez bien et vous participez à le déconstruire. Bien évidemment, la statistique et les usages de ces systèmes, du système statistique assez classique somme toute pour, par exemple, adapter des politiques éducatives en fonction de ce que l’on parvient à mesurer de la criminalité, oui, pourquoi pas. Je ne sais pas si on en fera un projet de société, mais ça peut, sans doute, aiguiller les politiques publiques.

Après, ce qui se joue dans le déploiement de ces technologies, parce que ce sont des choses encore balbutiantes, notamment des systèmes comme PredPol [2] ou Hunchlab aux États-Unis, qui ne sont pas mal mentionnés dans la presse et qui ont fait un peu le buzz médiatique ces dernières années, ça reste encore des systèmes relativement limités. Ce sont des cartes de chaleur de la criminalité qui visent un peu à aiguiller les patrouilles de police ; ça a déjà des effets structurants et ça contribue à transformer des méthodes de travail des forces de l’ordre, mais ce ne sont pas encore des choses aussi dystopiques et effrayantes que le crédit social à la chinoise, par exemple, où les moindres interactions sociales sont mesurées, quantifiées et vont conditionner l’accès à certains droits ou à certains services publics, comme c’est donc expérimenté dans plusieurs villes chinoises.

Ces technologies de police prédictive qui ont essaimé aux États-Unis, de plus en plus prolifèrent à travers le monde et notamment en Europe ; les pays du Golfe ont fait partie des premiers à déployer sous couvert de programmes de Smart Cities, mais dans leur volet sécuritaire, des technologiques de type prédictif à des fins policières. Le Royaume-Uni fait également assez fort en la matière depuis quelques années, notamment à Londres au travers des JO de 2016, et on voit ces mêmes programmes arriver en France depuis un peu plus d’un an, avec des expérimentations. Là où je veux en venir, avec ce processus d’essaimage de ces technologies, c’est que c’est graduel, que c’est souvent à titre expérimental, soit sur des technologies relativement ciblées, délimitées, soit c’est un bouquet de technologies, donc au-delà des technologies de big data qui vont faire de la prédiction et des recommandations ; il y a aussi des choses de l’ordre de la reconnaissance automatique des flux d’images, donc de la reconnaissance faciale et de la détection des comportements suspects ; il y a la surveillance des réseaux sociaux, qui peuvent faire partie des couteaux suisses qui sont expérimentés dans certaines villes françaises par certaine polices municipales. Et même si on est encore largement dans le discours marketing – si on revient à la question du projet de société – ce discours marketing contribue non seulement à construire nos imaginaires et la manière dont on appréhende ces technologies, la manière dont ces technologies sont ensuite appropriées, utilisées par les forces de police et par les organisations auxquelles elles sont destinées. Et, encore une fois, ces discours qui nous vantent les mérites de la police prédictive pour résoudre catastrophes naturelles et crime organisé ou la délinquance de tous les jours, la petite délinquance de tous les jours, vantent du vent. On est encore dans le discours marketing, certes, mais ça transforme les appareils qui nous gouvernent et notamment les politiques policières.

Je fais partie des gens qui ont eu des discours très emphatiques à l’égard de la technologie et de sa promesse démocratique, notamment Internet. Clairement on est dans un climat ambiant beaucoup plus techno-sceptique, voire techno-critique depuis quelques années, mais je pense qu’on pourrait aussi se rassurer en se disant que c’est à la fois du discours marketing, que, du coup, ces technologies ne feront pas ce qu’on prétend qu’elles font et que, finalement, ce n‘est pas si grave et que la dystopie reste du domaine de la science-fiction.

Encore une fois, je pense que cette imaginaire dystopique qui est vraiment vu, pour le coup, comme une utopie par certains des promoteurs de ces projets, transforme notre monde et qu’il y a une vraie vision politique derrière. C’est aussi contre ça qu’il faut se mobiliser et qu’il faut avoir en tête lorsqu’on cherche à analyser les effets politiques et les conséquences de ces technologies.
Estelle : Tu disais qu’à la base tu étais plutôt sur des thématiques liées à la censure d’Internet et à la surveillance sur Internet, comment tu expliques un peu ce déplacement ? On parle de virtualisation, du coup c’est une dé-virtualisation, justement, des pratiques de surveillance qui ont pu être facilitées, je pense, notamment par les réseaux sociaux et l’engouement qu’il y a eu à l’essor d’Internet. Comment tu expliques cette transplantation un peu du virtuel dans le réel alors qu’on a tendance un peu à voir et à penser l’inverse ?
Félix Tréguer : Je pense qu’en fait il faut l’analyser dans l’histoire de l’informatique et de l’endroit où l’informatique se fixe, et elle s’est généralisée dans les réseaux de communication à partir des années 70/80 et des communications médiatiques. Aujourd’hui, parce que les capacités de calcul augmentent à un rythme très important et parce que le coût du hardware, du matériel physique, est de plus en plus faible, on est en capacité de mettre des capteurs ou des serveurs et des centres de calcul, de généraliser. Donc ce n’est pas surprenant de voir ces usages de contrôle social de la machine informatique migrer de l’espace public numérique et Internet vers l’espace public urbain. De la même manière qu’on est en capacité en fixant quelques sondes, quelques routeurs à des endroits clés du réseau de surveiller toutes les communications, dans les villes c’est un peu la même chose. On est en mesure de construire des infrastructures numériques et de les greffer dans l’espace public urbain, ce à quoi sert le projet Smart City.
Estelle : Justement, les Smart Cities c’est un peu la question qui se pose toujours avec cette notion prédictive. Si demain on construit, on est en phase de construction de Smart Cities ou du moins de les imaginer et de les penser, est-ce que, justement, les villes vont être, comment dire, construites en fonction des prédictions ? Ou est-ce que tu vas anticiper la construction d’une ville en fonction de prédictions sans avoir avant la matière et les données, puisque la ville n’aura pas encore existé ? Je ne sais pas si je suis très claire.
Félix Tréguer : Je crois que je vois que ce que tu veux dire. Effectivement, c’est un peu le risque avec le big data et cette machine à prédire qu’est l’informatique moderne, toute équipée de ces technologies d’intelligence artificielle, d’apprentissage automatique, etc., c’est que, quelque part, ça crée des corrélations, ça met en évidence des corrélations entre des phénomènes sociaux, naturels, etc., qu’on n’arrivait pas forcément à pointer du doigt auparavant avec les outils classiques de la statistique ou des sciences sociales. Et, en même temps, ça contribue à invisibiliser complètement les causes de ces corrélations et les facteurs explicatifs pour lesquels, pour le coup, je pense que la science sociale restera extrêmement importante y compris dans les dispositifs technocratiques qui nous gouvernent, et qui ont quand même un peu besoin de ces capacités à expliquer.

Je dis ça, mais en fait je crois que je suis un peu démenti par ce qui ressort de certains de ces projets de Safe Cities de Smart Cities sécuritaires qu’on voit poindre en France. C’est très clair, par exemple dans les documents à Nice : la mairie de Nice a conclu en juin 2018 un partenariat avec la société Thalès, grand acteur du monde de la sécurité et de la défense.
Estelle : Ils sont à côté de Nice.
Félix Tréguer : Ils sont partout, c’est une multinationale. Thalès est un consortium de 15 entreprises environ avec des startups, des gros groupes, des projets de recherche, des instituts comme l’Inria, l’Institut national de recherche en informatique appliquée, donc ils ont vendu un projet de Safe City, c’est brandé comme ça, à la mairie de Nice, pour faire un peu ce dont je parlais tout à l’heure. Là, pour le coup, c’est une espèce de couteau suisse sécuritaire avec de la reconnaissance faciale, détection des comportements suspects pour ce qui est de la version intelligente de la vidéosurveillance.
Estelle : On va rappeler que récemment, lors du carnaval de Nice en février dernier, justement la reconnaissance faciale a été testée sur des volontaires, apparemment, volontaires avec un couteau sous la gorge peut-être, mais des volontaires, on en parlera peut-être plus tard. Juste pour rappel, la ville de Nice a fait ça en février.Est-ce qu’il y a eu des résultats, de choses qui sont qui sont ressorties ? Ou pas encore ?
Félix Tréguer : Pas encore. On cherche justement à savoir puisqu’il va y avoir une étude d’impact faite, on a eu des « on dit » de la part de certaines sources proches du projet à Nice. Les responsables avaient l’air plutôt contents mais ça reste à confirmer. Avec La Quadrature du Net, on est en train de travailler une campagne [3] de recherche participative qui visera à documenter, justement, ces projets en faisant des demandes d’accès aux documents administratifs. Là c’est typiquement le genre de choses qu’on fait d’ores et déjà dans certains contextes et notamment là on est intéressés pour essayer d’avoir les documents qui ressortiront de cette expérimentation, mais bon ! On s’attend déjà à ce que la qualité scientifique de l’évaluation soit relativement faible, je veux dire que Cisco, qui est l’entreprise qui fournit ces solutions de reconnaissance faciale, fait cette expérimentation à titre gracieux, donc pour eux il y a un enjeu industriel très fort.

Il y a encore tout un débat sur l’efficacité de la reconnaissance faciale, sans parler des biais racistes des algorithmes de reconnaissance faciale. Mais même sur sa capacité à détecter sur la base d’images glanées dans l’espace public urbain, donc de corps en mouvement – on ne parle de photos d’identité calibrées – à partir de ce contenu vidéo-là très aléatoire savoir si les systèmes de reconnaissance faciale fonctionnent.

Au carnaval de Notting Hill à Londres, il y a deux ans je crois, il y avait eu plusieurs faux positifs donc des suspects détectés qui n’étaient pas, en fait, les personnes recherchées, ce qui tendait donc à montrer l’inefficacité de ces systèmes. Moi je crois que vu que les milliards d’euros de recherche et développement qui sont investis dans ces technologies, même si leur efficacité est encore limitée pour le moment, je pense qu’à terme ce seront des technologies qui fonctionneront pour les usages pour lesquels elles sont prévues. D’ailleurs en Chine il y a déjà des systèmes de paiement qui sont entièrement conçus sur la base de la reconnaissance biométrique et faciale, plus tous les systèmes liés au système de crédit social dont on parlait tout à l’heure qui, là encore, intègrent la reconnaissance faciale dans l’espace urbain et ça a l’air de marcher. Bref ! Du coup moi je m’attends à ce que l’expérimentation soit plutôt positive et si ça n’est pas encore le cas, à terme.

Et la deuxième brique, juste pour terminer sur ces couteaux suisses, ces analyses big data : surveillance des réseaux sociaux, d’une part, pour faire remonter des signaux faibles et des tweets qui paraîtraient préparer, par exemple, une insurrection, tout un tas de données issues de la police municipale, de prestataires de sécurité privés, d’opérateurs de téléphonie mobile pour avoir les cartes de chaleur de la population répartie sur un territoire donné, les statistiques de la délinquance du ministère de l’Intérieur, on passerait tout ça à la moulinette d’algorithmes pour tirer des prédictions.
Estelle : C’est un peu vertigineux comme prévision.
Andy Kwok : Au-delà de l’efficacité, pour l’instant, marketing, c’est vrai qu’il y a derrière un enjeu politique qui est assez fort de contrôle de la population. Comment, en fait, les pouvoirs politiques ont évolué avec cette vision du contrôle de la société ? Je pense que le pouvoir politique a toujours eu cette volonté de contrôler la population, mais, au-delà de ça, comment la démocratie évolue ? Clairement, ma vision des choses c’est que la démocratie régresse. Est-ce que c’est l’outil qui a créé l’opportunité ou ce sont les politiques qui ont vu l’outil et ont dit : « Il y a une possibilité, donc on va utiliser ça » et, au final, ça réduit de plus en plus les libertés ?
Félix Tréguer : J’ai réalisé ça, pour le coup, à travers mes recherches, parce que j’avais plutôt cette idée, il y a dix ans en arrivant à La Quadrature du Net, que la machine informatique était capable de nous émanciper. Il faut se rappeler quelque chose qui était souvent dit et redit dans l’histoire d’Internet : ses origines militaires, etc. Ce sont des choses qu’on a écartées un peu du revers de la main, que l’historiographie a permis de nuancer en montrant notamment l’influence de la contre-culture américaine sur la généalogie de l’informatique. Mais si on fait une vraie généalogie de l’informatique, c’est assez évident que son destin, son cheminement, l’imaginaire dont elle découle, sont tout entiers liés à la forme bureaucratique à partir du 19e siècle et en particulier aux bureaucraties d’État liées au recensement de la population par exemple au tournant du 19e avec les machines d’Hollerith et plus récemment les calculateurs modernes pendant la Seconde guerre mondiale avec l’usage militaire pour faire les calculs en matière de cryptanalyse, avec Alan Turing par exemple. Mais dès 1945 ou 1946, les calculs qui débouchent sur la bombe nucléaire sont aussi réalisés à partir des toutes premières machines informatiques. Donc il y a quand même une proximité très forte, historiquement, entre l’ordinateur et cette bureaucratie en charge du contrôle social. Je pense que, du coup, à la fois les imaginaires et les discours construisent la technologie de la même manière que la technologie les informe ; il y a, comme ça, un processus de va-et-vient entre les deux, donc ce n’est pas étonnant que l’informatique nous apparaisse aujourd’hui, en tout cas de plus en plus clairement, comme un instrument de contrôle social.

Quant aux motifs qui sont mis en avant pour défendre ces projets, on voit à la fois l’aspect sécuritaire et de contrôle social que tu soulignais et sur lequel je mets aussi l’accent parce que je pense que c’est clé et avec cette idée qu’on va chercher à gérer la criminalité comme si elle était un phénomène naturel sans jamais s’interroger sur ses ressorts sociaux, économiques, etc., ça c’est assez frappant justement quand on voit les documents administratifs autour de ces projets. On parle du réchauffement climatique et surtout des risques naturels sur le même plan que les risques humains et sociaux.
Estelle : Ça me fait penser à ça en fait. Par exemple l’étude des plaques tectoniques pour, justement, éviter des tremblements de terre ou, au moins, les prévenir pour pouvoir s’en prémunir et là on a l’impression que c’est exactement les mêmes logiques derrière.
Félix Tréguer : Tu fais référence à PredPol dont l’algorithme d’orientation des patrouilles et des cartes de chaleur liées à la criminalité était basé sur un algorithme utilisé pour la prédiction des séismes.
Estelle : J’avais oublié cet aspect-là !
Félix Tréguer : Ça a été sorti par un des chercheurs sismologues qui a conçu cet algorithme-là et qui explique toutes les raisons mathématiques pour lesquelles, en fait, utiliser ces techniques de calcul pour prédire un phénomène social tel que la criminalité est une aberration parce que les délinquants s’adaptent.
Estelle : On ne peut pas déplacer un foyer sismique, par contre on peut déplacer un foyer de violence.
Félix Tréguer : Voilà. Exactement ! Déjà il faudrait contester ces projets et leur tendance à naturaliser un phénomène social comme la criminalité. On va avoir une approche gestionnaire, on va chercher à gérer ou supprimer ou ajuster les conséquences d’un phénomène social plutôt que s’interroger sur ses causes profondes et les désarmer ; la sécurité, il y a plein de manières. Dans les autres villes concernées en France par ces projets de Safe City, il y a la ville de Marseille où les habitants de Marseille se posent peut-être la question de savoir si on préfère dépenser des millions d’euros dans un gadget big data pour la police prédictive ou si la sécurité des Marseillais ce n’est pas, en fait, la lutte contre l’habitat indigne.

La sécurité est une notion polysémique. Elle est aussi fabriquée par les promoteurs de ces projets.

Tout ça pour dire qu’il y a effectivement l’argument de la sécurité, du contrôle social, qui est mis en avant et je pense qu’un autre argument qui est très efficace et non négligeable dans la prolifération de ces systèmes technologiques dédiés au contrôle des populations c’est l’argument budgétaire et économique. Il y a des enjeux industriels à développer une industrie française capable de vendre à l’international ses solutions de police prédictive et de Safe City et, en plus, le déploiement est justifié au sein de l’administration. Par exemple, ce serait très coûteux de rendre la vidéosurveillance efficace en multipliant le nombre de fonctionnaires dédiés au visionnage des images. Par contre, si on arrive à dépenser quelques dizaines de millions d’euros, ce qui est déjà beaucoup d’argent, pour le faire de manière automatique, eh bien on estime que, dans un contexte austéritaire, c’est plutôt une bonne politique d’un point de vue purement budgétaire. Donc ces aspects comptables sont assez importants.

Le fichier TES [fichier des titres électroniques sécurisés] par exemple un grand fichier biométrique créé fin 2016 en France.
Estelle : D’ailleurs il y a eu beaucoup de bruit, maintenant on n’en parle plus du tout.
Félix Tréguer : À la Quadrature, on a fait un recours contre et on est en train d’essayer de le prolonger face aux instances européennes parce que, malheureusement, le Conseil d’État ne l’a pas entendu de cette oreille. C’est un fichier qui centralise l’empreinte faciale, donc justement du visage ce qui, en termes de reconnaissance faciale, va permettre de faire des choses à la fois, j’allais dire fantastiques de manière ironique évidemment. Le fichier TES était justifié à l’époque par la nécessité de supprimer 1300 équivalents temps plein en préfectures. De la même manière pour la loi renseignement en 2015, ce sont des choses qui étaient mises en avant : le primat donné à la technologie, parce qu’on pense que c’est plus fiable que l’humain, d’une part, mais ça ne fait pas plaisir à tout le monde, même au ministère de l’Intérieur quand on le dit donc on ne le dit pas trop fort, mais il y a aussi cette idée qu’on arrivera à faire plus avec moins d’argent.
Estelle : Donc une logique productiviste assez classique, finalement, qu’on retrouve aussi parmi les géants du numérique ou sur autre chose.

Justement tu parlais tout à l’heure de la reconnaissance faciale, etc., ça nous mène un peu à un deuxième point fort qui sort quand on parle surveillance, contrôle des corps, tu dois sans doute travailler là-dessus, sur ces projets de Safe Cities. Tu disais que la technologie n’est pas neutre et justement les algorithmes sont créés par l’homme, homme qui a lui-même des biais humains tout à fait classiques qu’on ne peut pas reprocher, mais on se pose un peu cette question de qui va décider de « quel biais humain sera le mieux » entre guillemets, on ne peut pas dire ça, mais il y aura toujours des biais ; en tout cas, pour l’instant, il y a des biais. C’est une vraie question : est-ce qu’un jour on va arriver à une technologie complètement neutre, supprimée de tout biais humain raciste ou autre, ou en fonction du sexe ou de je ne sais quoi ? La question algorithmique derrière ça, vous avez dû l’étudier. Il y a quoi comme biais aujourd’hui comme biais qui ressortent ?
Andy Kwok : Je vais juste rajouter : en termes de recherche actuellement, je pense que les gens qui produisent ces algorithmes doivent être, normalement, j’espère, conscients de ces biais. Est-ce qu’il y a parfois des gens, par curiosité aussi, qui se disent « il faut qu’on essaye d’éliminer ces biais » ?
Estelle : Là, il y avait plusieurs questions en une.
Félix Tréguer : D’abord sur les biais de ces systèmes de police prédictive, il y en a un qui est évident qui est lié au fait que les quartiers déjà en proie à une « surpolicearisation », discriminés structurellement notamment par exemple aux États-Unis les quartiers afro-américains, il y a plus de données statistiques sur ces quartiers puisque les patrouilles de police y circulent davantage, donc les algorithmes de police prédictive vont forcément être plus précis ou proposer des résultats plus nombreux s’agissant de ces zones où il y a plus de données. Donc ça entretient, quelque part, ou ça accentue, plus exactement, des formes de « surpoliciarisation » de quartiers déjà en proie à des formes de discrimination structurelle ou raciste.
Estelle : On braque l’éclairage sur quelque chose qui est déjà éclairé. Il faudrait s’intéresser aux zones d’ombre finalement.
Félix Tréguer : Par exemple. Si on parle des quartiers populaires et leurs rapports avec la police et l’investissement policier des crimes en col blanc dans les arrondissements plus aisés de la capitale. Il y a des traitements différenciés, des illégalismes par la police qui posent des questions proprement politiques et là il y a déjà des biais qui ne sont que renforcés et, quelque part, naturalisés, blanchis par l’algorithme puisqu’on a l’impression que c’est objectif, c’est l’algorithme qui nous le donne à voir, à penser. Alors que si la discussion du matin d’une brigade de police qui va discuter des rondes et des patrouilles à faire dans la journée est basée sur l’intuition, le savoir-faire policier, il y a des rapports hiérarchiques évidemment qui jouent, mais il y a au moins une forme de mise en débat des options proposées qui reste possible. Lorsque cette même discussion est tranchée par l’algorithme, on peut se dire que ce sera beaucoup plus compliqué d’avoir ces formes de délibérations qui permettent une forme de contrôle, en fait, des règles, des hiérarchies, des politiques et de réflexivité des acteurs, des hommes et des femmes qui prennent part à ces organisations.

Ensuite, pour continuer sur la question des biais, il y a aussi des biais qui sont liés, en fait, aux données sur lesquelles sont entraînés les algorithmes, notamment d’intelligence artificielle. En matière de reconnaissance faciale par exemple, il y a plusieurs acteurs industriels, je pense notamment à une entreprise dont j’ai oublié le nom aux États-Unis, qui ont vraiment mis en exergue l’importance des biais racistes dans les systèmes de reconnaissance faciale puisqu’ils sont davantage entraînés sur la base de bases de données de visages de personnes blanches et du coup, sur les visages de personnes de couleur racisées, la précision est bien moindre ce qui conduit à des faux positifs donc à détecter des personnes : l’algorithme croit reconnaître quelqu’un alors que ce n’est pas le cas. Dans le cas d’une utilisation policière ça amène possiblement à des arrestations, en tout cas à des formes de surveillance plus poussée de personnes innocentes, donc ça accentue là encore des formes de racisme et c’est problématique.

Les acteurs industriels sont au courant et, bien évidemment, ils lancent des labels et des initiatives pour résoudre les biais racistes de la reconnaissance faciale par exemple. Moi je pose la question de savoir si une reconnaissance faciale qui ne serait pas raciste serait légitime, serait une technologie importante et louable dans l’arsenal policier, je ne le crois pas personnellement.

C’est la grande mode s’agissant de l’intelligence artificielle : comment est-ce qu’on va pouvoir corriger les biais, peut-être même faire une forme de technical engineering par les algorithmes, pour le coup, où on va essayer de contrecarrer certains biais sociaux tels que le racisme ou le sexisme, etc. Là encore il y a une forme de solutionnisme technologique qui revient par la petite porte où on va essayer de régler des problèmes qui sont forcément politiques par la technologie, par du Nudge, par des formes d’intervention, quelque part, d’en haut. Il y a un côté très technocratique qui, même si les objectifs affichés sont louables, évidemment, le moyen — répondre à des enjeux proprement politiques à travers ces interventions technologiques qui, en plus, s’accompagnent de tout un tas d’autres aspects dont on ne parle pas quand on ne se concentre que sur les biais — me semble extrêmement risqué.
Andy Kwok : Ces algorithmes sont mis en place et est-ce qu’à ce niveau-là, en fait, il n’y a pas l’idée derrière de se dire qu’on est dans une situation qui n’est pas parfaite, mais, d’un autre côté, on veut juste que les effets indésirables, la violence implicite par rapport à la pauvreté et ainsi de suite, soient éradiqués plus que le mal ? Par rapport à ça, est-ce que ce n’est pas une sorte de facilité de la société en général, du corps social, de se dire « au lieu de casser le problème on veut juste éradiquer les choses » et qu’est-ce que ça implique, en fait, en termes de construction sociale ? Est-ce qu’il n’y a pas une stagnation, justement, en mettant en place ces outils-là ?
Félix Tréguer : Tu veux dire en se concentrant sur l’éradication des effets plutôt que d’agir sur les causes profondes ?
Andy Kwok : Exactement.
Estelle : C’est ce que tu disais un peu tout à l’heure.
Andy Kwok : Je regarde, je te donne cet exemple simple, le droit des mouvements civiques par exemple avec Martin Luther King, il y avait quand même un contrôle fort de la police, j’entends, tu vois, mais je pense que si jamais on avait mis des algorithmes beaucoup plus cadrants que des forces policières, les choses n’auraient pas changé ? Tu vois ce que je veux dire ?
Estelle : C’est un thème sérieux, il ne se serait jamais exprimé si ça se trouve.
Félix Tréguer : C’est compliqué parce que, de fait, Martin Luther King comme l’ensemble du mouvement des droits civiques et l’ensemble des mouvements d’opposition à la guerre du Vietnam à l’époque ont fait justement l’objet de formes de surveillance informatiques déjà, les tout premiers, gros programme de surveillance aux États-Unis, au niveau intérieur : importation des doctrines contre-insurectionnelles expérimentées notamment au Vietnam qui reviennent à la fin des années 60 aux États-Unis contre la dissidence interne et un homme comme Martin Luther King, notamment, était déjà la cible d’une surveillance très poussée.

C’est toujours compliqué, pour le coup je crois que les gens qui prédisent la dystopie ont tendance à être confirmés dans leurs analyses par l’histoire, ceux qui prédisent l’utopie, 20 ans plus tard, ils ont perdu de leur pertinence même s’ils ont construit et accompagné l’appropriation sociale de certaines technologies, etc. Quand on regarde en arrière c’est plutôt ceux qui prédisaient la dystopie, qui analysaient, sentaient à quel point notamment l’informatique mettait nos sociétés sur une pente très glissante et dangereuse qui sont confirmés dans leurs analyses. Après, on ne parvient jamais vraiment à la dystopie totale, totalitaire, du monde complètement fermé, verrouillé par la technocratie totalitaire. Il y a toujours des formes de résistance et de dissidence qui restent possibles et c’est ce que dit, par exemple, quelqu’un comme Foucault : « Là où il y a du pouvoir il y a toujours des contre-pouvoirs et là il y a du gouvernement des conduites, il y a des contre-conduites donc des formes de désobéissance. » Je crois que même dans une société très technologisée comme celle qui se prépare à l’heure où l’on parle, il sera toujours possible d’organiser la dissidence. Ça risque d’être plus compliqué. Je pense que les moyens dont dispose l’État pour préempter la naissance, le déploiement et le développement de mouvements sociaux, que cette capacité va aller croissante malgré tout. J’étais dans un musée récemment en Espagne où on voyait des petites fiches de renseignement rédigées sous le franquisme sur des gens qui étaient suspectés au niveau local. En gros, il y avait « religion » donc « athée » ou « bon catholique, va à la messe tous les dimanches ».
Estelle : Hérétique !
Félix Tréguer : Quelques informations. En gros, il y avait un bureau dans une province où un commissaire demandait à avoir des renseignements sur telle personne dont on savait qu’elle participait à des réseaux ou je ne sais quoi. Bref ! Dans la fiche de renseignement une information sur la religion et très rapidement « est-ce qu’il avait des sympathies républicaines ou est-ce que c’était un bon fasciste ? » Aujourd’hui, lorsqu’on voit le degré de détail des fiches que sont capables de produire des acteurs privés comme Google, Facebook et compagnie.
Estelle : On ne parlera pas de comment s’appelait cette société privée.
Andy Kwok : Palantir ?
Estelle : Oui, Palantir, mais pendant, ce n’était pas les Gilets jaunes, c’était le fichage par ?
Andy Kwok : Par les hôpitaux de Paris.
Estelle : Non, j’ai un trou. On parlait avec Nicolas Vanderbiest.
Andy Kwok : Hou là, là ! Oui, le fichage de Twitter par rapport à l’histoire de Benalla.
Estelle : De Benalla, oui. J’avais un énorme trou, je ne sais pas pourquoi je pensais aux Gilets jaunes, Benalla me paraît tellement loin ! Quand on voit ce qui est ressorti, ça me faisait exactement penser à ça, ce qui ressortait de ce fichier-là qui a quand même fait couler pas mal d’encre. Après on verra la légitimité ou non du sujet, mais ça me fait penser à ça cette histoire de fichage.
Félix Tréguer : Justement, ces fiches très détaillées, construites par des acteurs privés à des fins publicitaires, servent évidemment les systèmes policiers. Même si je crois que là où il y a du pouvoir il y a toujours du contre-pouvoir, là où il y a du gouvernement des conduites, il y a toujours des contre-conduites, la technologie moderne participe quand même à un verrouillage des possibles et transforme l’équilibre des rapports de force, en fait, et elle les structure de ce fait. Je pense qu’effectivement les technologies dont on parle ce soir, c’est très clair aussi quand on regarde un petit peu les documents : la surveillance des réseaux sociaux c’est pour « comprendre le risque de rassemblements dangereux », et je cite, sur la voie publique, pour savoir qui sont les organisateurs de manifestations, de happening ; les activités politiques sont centrales dans les préoccupations mises en exergue dans ces documents. Je pense que, évidemment, si ces technologies sont déployées à grande échelle et avec quelques milliards supplémentaires de recherche et développement pour les rendre un peu plus opérationnelles, ça aura des effets politiques non négligeables.
Andy Kwok : D’accord.
Estelle : Ça me faisait penser aussi un peu, Andy, à ce que tu disais ou les exemples dont tu parlais en Espagne. Tu disais qu’on parle d’une logique d’éradiquer un peu la criminalité. Ce que je vois si on regarde un peu l’histoire française, en fait ça me fait penser un peu aux logiques, le terme n’est peut-être le bon, hygiénistes qu’on a pu voir naître aux 18e et 19e siècles. À l’époque il y avait aussi le fichage des prostituées qui avait eu lieu pour les maladies vénériennes et je trouvais que ça ressemblait un peu à ça, cette idée de logique hygiéniste. Je ne sais pas si tu vois ce que je veux dire dans le sens où ce n’est pas éradiquer mais mettre une espèce de vernis un peu protecteur : au lieu d’éradiquer la violence, plutôt éviter que la violence ou la criminalité ne se propagent pas, un peu comme une espèce de maladie. Je ne sais pas si dans vos études sur les Smart Cities de demain, les Safe Cities, il y a un peu cette notion de non propagation ou de cloisonnement, d’hermétisation en fait de quartiers ou de zones pour qu’elles ne se « contaminent » pas entre guillemets mutuellement, contaminer c’est un terme un peu fort, et qu’il y ait moins d’homogénéité sociale finalement.
Félix Tréguer : Je pense que c’est très présent. Il faudrait vraiment lire encore plus précisément les documents qui commencent à sortir sur ces projets pour bien les qualifier, mais c’est très clair : il y a déjà la mise au même niveau des risques naturels, climatiques ou des épidémies avec des phénomènes proprement sociaux comme la criminalité.
Estelle : En quoi les épidémies sont une logique sociale ?
Félix Tréguer : Oui, c’est vrai, c’est moins naturel.

En tout cas cette analogie avec la propagation, ce sont des choses qui façonnent les imaginaires policiers depuis des siècles et évidemment c’est encore très présent dans les discours autour de ces programmes-là.

L’utopie des promoteurs de la Safe City ce n’est pas la mienne. On parlait de projet de société, de projet politique, le projet d’une ville aseptisée où on va, grâce à un centre de commandement centralisé dans les sous-sols de la mairie, pouvoir appréhender d’un regard et d’une visualisation l’ensemble des phénomènes liés à la sécurité dans l’espace public urbain, savoir automatiquement ce qu’on demandera à l’oracle informatique où est-ce qu’il faut mettre des caméras de surveillance pour s’assurer qu’elles auront un effet maximal et que l’investissement en argent public soit optimal, évidemment elles proposeront des quartiers déjà « surpoliciarisés ». Il y a, quelque part, cette logique…
Estelle : Ce que tu disais, de renforcer des biais qui existent déjà.
Félix Tréguer : De renforcer la mise sous contrôle policier de certaines zones, de certaines populations et avec des logiques de ségrégation urbaine qui sont, du coup, accentuées, mais qui sont déjà là en réalité, mais accentuées par ces déploiements technologiques.

Globalement, je pense que le mot que tu as utilisé d’aseptisation, même vis-à-vis des activités politiques, quand c’est mentionné dans ces documents, on le ressent. La ville, historiquement, c’est la cité, c’est la polis dans toute sa complexité, dans son caractère extrêmement chaotique, mais c’est ça qui permet la déambulation, l’anonymat, des rencontres, les bifurcations. Dans cet espace de rencontres publiques de l’espace public urbain c’est là aussi que s’inventent des formes politiques nouvelles. Lorsqu’on voit ces projets, leur volonté de mettre à la loupe l’ensemble des manifestations politiques parce qu’on craint un risque de débordement et parce qu’on préfère une ville où les gens vont consommer leur maigre salaire le samedi et le dimanche de plus en plus plutôt qu’agir politiquement, se rencontrer, faire corps ensemble justement. Il y a clairement des visions antagonistes et des utopies contraires s’agissant du futur de nos villes.
Estelle : Justement, on parlait un petit peu de police prédictive, mais quand on parle de la notion d’algorithme, on peut parler aussi pas mal de notions de justice. Ce qu’on se posait un peu comme question, en tout cas nous ce qu’on se pose, c’est de savoir si, justement, le fait, comme tu disais, qu’on ne va pas forcément réfléchir : l’algorithme va nous dire d’aller à tel endroit et on va y aller ; quand je dis « on », la police ou les personnes chargées de l’autorité publique. Est-ce qu’on n’arriverait pas, finalement, à l’absence de réflexion qui amène à une sorte de déresponsabilisation de l’être, déresponsabilisation de l’humain en tant que personne pensante, et du coup des corps, le corps social qui ne serait plus qu’une réaction à et qui n’aurait plus la possibilité de se défendre ou la possibilité du bénéfice du doute, ce genre de choses. Ou le crime passionnel qu’on ne peut pas prédire, typiquement comme dans Minority Report, je crois, je n’ai pas vu le film en fait, mais ce n’est pas grave ! Est-ce que, du coup, tout ne serait pas déresponsabilisé, juste une déresponsabilisation totale : ce n’est pas ta faute, tu es comme ça, tu es né dans ce quartier-là donc forcément, à un moment tu vas faire un crime, donc tu n’es pas responsable de ce crime. Et tu déresponsabilises à la fois les criminels mais aussi les personnes qui vont arrêter, juger, etc.
Félix Tréguer : C’est une mutation des appareils de sécurité, des appareils policiers qu’analysait très bien Foucault ou, plus récemment, une juriste comme Mireille Delmas-Marty dans son bouquin de 2010, Libertés et sûreté dans un monde dangereux, de mémoire.
Estelle : D’accord.
Félix Tréguer : Elle parle, en fait, de deux anthropologies concurrentes dans le champ pénal et dans le champ policier : une anthropologie qu’elle qualifie d’humaniste qui est la base du droit pénal, de la présomption d’innocence, de l’individualisation des peines, etc., éventuellement de choses telles que les circonstances atténuantes, mais avec cette idée que l’humain est capable de se rédempter, de réintégrer la société. Et une logique qu’elle qualifie de guerrière qui vise à cloisonner les individus et les prend comme une masse statistique qu’il va falloir éradiquer.
Andy Kwok : Comme des fourmis.
Félix Tréguer : Et les dispositifs, toute la perversion du droit pénal avec des peines de sûreté, avec un contrôle administratif de plus en plus grand. Plein de ruptures assez importantes dans le droit pénal, la fin de la présomption d’innocence avec, par exemple, la mise en place sous le sceau des politiques antiterroristes ; c’est quoi la formule consacrée désormais ? C’est « des raisons sérieuses de croire ». Ça va suffire, par exemple, à assigner quelqu‘un à résidence parce qu’on a des raisons sérieuses de croire que ; on n’a plus à le démontrer pénalement devant un juge.
Estelle : Du coup, là on n’est pas sur une question technologique on est vraiment sur une question d’un biais humain ; ce n’est même pas technologique.
Félix Tréguer : Elle parle d’anthropologie. Je pense que ça pointe une dimension qui est de l’ordre de pratiques, de représentations, de discours, et qui, ensuite, va influencer les usages de l’appropriation de la technologie.

Mais clairement, ces dernières années, on est dans le retour en force de cette anthropologie guerrière et de cette idée que certaines populations sont à risque par nature, et toutes ces politiques-là, je pense, contribuent à verrouiller le social, effectivement comme tu le disais, parce qu’on crée des institutions pour le contrôler de cette manière. Je pense que c’est une sorte de prophétie autoréalisatrice.
Andy Kwok : Là c’est vrai qu’on est, comme tu dis, dans ce paradigme guerrier, est-ce qu’à un moment, à part les révolutions, je pense à la Révolution française où on a essayé d’introduire plus d’équité.
Estelle : On a essayé… Parce que le tribunal révolutionnaire vraiment !
Andy Kwok : On a essayé, plus d’équité sociale. Est-ce que c’est encore possible de se dire, à un moment, avec justement ce verrouillage technologique, qu’il y a encore cet espoir qu’il peut y avoir un changement de paradigme, comme tu dis, justement renverser cette vapeur guerrière et arriver à une sorte d’éruption plus libertaire ? De liberté ?
Félix Tréguer : C’est une vaste question. Déjà l’histoire est contingente. Même si on arrive à décrire des grandes tendances de temps long et que celles-ci ne paraissent pas forcément nous mener vers le meilleur des mondes, sans mauvais jeu de mots.
Estelle : Merci Huxley.
Félix Tréguer : L’histoire est contingente, donc pleine de surprises, donc les choses peuvent se retourner au moment où on s’y attend le moins. L’histoire est aussi faite par nous, par les processus politiques, par des mobilisations. Le retour en force de cette anthropologie guerrière dans les politiques de sécurité est le fruit d’une histoire, le fruit de luttes politiques, en fait. C’est une conséquence de luttes politiques qui ont construit le monde qu’on habite aujourd’hui et il n’appartient qu’à nous de nous organiser et de tenter de renverser la vapeur.
Estelle : C’est beau comme petite note utopiste, optimiste.
Félix Tréguer : Ce n’est pas tant être utopiste que de laisser la porte ouverte, et rappeler que les choses sont indéterminées, qu’il y a toujours une place pour l’espoir. Même si on décrit un monde verrouillé, dystopique, en fait il y a toujours de bonnes raisons de se bouger et d’agir politiquement pour que les choses ne se passent pas ainsi.
Estelle : Oui, ce serait bien ! Ce serait une belle chose. Justement tu parlais d’indéterminé, on essaye, souvent on essaye d’être dans une logique déterministe aujourd’hui, de tout pouvoir déterminer, de tout pouvoir prévoir. C’est assez inquiétant pour l’homme déjà, et pour l’idée que, tu parlais de biais, de mettre, on va dire, la lumière sur quelque chose qui existe déjà. Je pense beaucoup à des fonctions administratives au public : par exemple est-ce qu’avoir un quota, c’est-à-dire qu’on doit remplir x, je ne sais pas, x dossiers par semaine ou par mois, est-ce qu’à un moment on n’arriverait pas, en mettant justement une surpopulation policière dans certains endroits, à provoquer le crime juste pour répondre à des logiques statistiques et pour confirmer des biais, des statistiques qui existent déjà ? Dans ce cas on est dans du pur déterminisme qui s’autodétermine. Je ne sais pas si je suis très claire.
Félix Tréguer : Ce sont déjà des critiques existantes des politiques du chiffre dans le milieu de la sécurité où, au lieu de faire des interventions contre du crime organisé, on va préférer faire des dizaines d’arrestations de vendeurs de cigarettes à la sauvette parce que ça fait bien dans les statistiques. Ce n’est pas vraiment comme ça qu’on garantit la sécurité de la population, par contre ça permet de remplir des objectifs, ça permet à certains hiérarques de ces institutions de se remplir les poches avec des primes au mérite en fin de mois. Il y a toutes ces logiques-là qui sont extrêmement prégnantes. Après clairement, la technologie informatique moderne donne à cette pulsion de prévoir et de prédire une dimension et des capacités inégalées dans l’histoire de l’humanité. Encore une fois, la statistique et tout un tas de techniques de gouvernement très anciennes étaient déjà basées sur cette volonté de savoir pour guider l’action. Ce sera dur d’échapper à ça !

Par contre, je pense que l’appareillage technologique de ces rationalités très anciennes c’est quelque chose qu’on peut déconstruire ; on peut lutter. Pour revenir un peu à un propos plus mobilisateur sur nos chances de renverser la table, la plupart des expérimentations en cours en France en matière de Smart City sécuritaire sont complètement illégales, il n’y a aucune base légale claire qui conditionne leur licéité. La CNIL se cache derrière son manque de moyens et a quelques initiatives, prises de parole pour se dire qu’elle fait son travail, mais malheureusement elle n’est pas du tout à la hauteur des enjeux, elle sert davantage d’alibi à ces projets plutôt que de vrai contre-pouvoir. Il y a des armes juridiques et des armes politiques. On a les élections municipales dans un an et peut-être que dans ce cadre-là aussi ces sujets reviendront sur la table et qu’on décidera que les millions d’euros qu’on prévoit de dépenser dans ces expérimentations de gadgets sécuritaires juste pour qu’il y ait une industrie française, juste pour mieux verrouiller le contrôle social, ce serait, en fait, mieux de les dépenser dans d’autres postes budgétaires : l’éducation, des politiques sociales et que sais-je encore.
Estelle : Dans ce cas, encore une fois, ce n’est pas l’outil qui pose problème, c’est la société, les logiques un peu capitalistes, on va dire le gros mot, qui sont derrière, qui provoquent cette course. Et s’il y a un manque d’éducation à ce sujet-là, je pense que les trois quarts des personnes qui marchent aujourd’hui dans la rue, ne sont même pas au courant que ce genre d’initiative existe.
Félix Tréguer : C’est un enjeu de faire en sorte qu’elles soient de moins en moins nombreuses. Il y a un aspect que vous avez évoqué tout à l’heure, c’est la complexité de ces systèmes qui fait que c’est très difficile de les comprendre. Même les gens qui sont censés être experts d’intelligence artificielle, de machine learning, expliquent qu’ils n’arrivent pas à expliquer les résultats donc ça pose tout un tas de problèmes. À partir du moment où ce qui permettait un peu de réflexibilité dans les bureaucraties qui nous gouvernent à travers, justement, la délibération qu’on évoquait tout à l’heure, est, du coup, contournée par ces machines extrêmement complexes, donc la technologie, de ce point de vue-là, n’est pas neutre et tous les rêves d’émancipation qui se sont mis autour de l’informatique, l’idée qu’elle allait permettre aux hommes de communiquer, d’échanger des savoirs et c’était ce que permettait de faire Internet ; c’était ça l’utopie d’Internet. Sauf que l’informatique, à la base, elle fait du calcul et le calcul, aujourd’hui, sert à prédire, à prévoir donc à équiper les gouvernants et les marchands aussi avec des techniques extrêmement sophistiquées pour comprendre nos comportements, les prédire, donc nous gouverner d’une certaine manière. Ça, pour le coup, je pense que ce serait illusoire de penser que l’informatique pourrait servir à autre chose que ça dans le monde dans lequel elle est introduite.
Estelle : C’est aux gens d’aujourd’hui, de demain, et des institutions à inventer d’autres usages informatiques à tout ça. On va s’arrêter là pour cet échange. Merci Félix.
Andy Kwok : Merci Félix.
Félix Tréguer : Merci à vous.
Estelle : C’était très intéressant. Stéphane, merci de nous avoir supportés.
Stéphane Favereaux : Avec grand plaisir, c’était fort intéressant. Je ne suis pas intervenu parce que tout était très fluide et très bien. Merci Félix.
Estelle : Félix, tu veux finir un peu sur tes recherches, sur toi ? Non, c’est bon.
Félix Tréguer : Ça ira.
Estelle : On ne va pas s’étaler plus longtemps. Podcast à retrouver sur le site du Mouton Numérique et on vous dit des bisous et à la prochaine
Andy Kwok : À la prochaine. Ciao.

Références

[2PredPol

Avertissement : Transcription réalisée par nos soins, fidèle aux propos des intervenant⋅e⋅s mais rendant le discours fluide. Les positions exprimées sont celles des personnes qui interviennent et ne rejoignent pas nécessairement celles de l'April, qui ne sera en aucun cas tenue responsable de leurs propos.