Voix off : IA qu’à m’expliquer.
Grégoire Barbey : Mesdames et Messieurs, bonjour et bienvenue pour ce premier épisode de la troisième saison de IA qu’à m’expliquer, le podcast qui démystifie les intelligences artificielles.
Que nous réserve 2026 ?
Assisterons-nous, ces prochains mois, à l’éclatement d’une bulle financière, comme certains le prédisent, ou est-ce que ce sera l’année des agents [1], ces programmes capables d’exécuter des tâches de façon autonome ? Je n’ai pas de boule de cristal, mais je suis convaincu d’une chose, nous ne manquerons pas de sujets à traiter dans IA qu’à m’expliquer.
Et, pour démarrer cette nouvelle saison, j’ai choisi de m’intéresser à la justice. La chercheuse Camille Girard-Chanudet nous apportera son éclairage sur la manière dont l’IA s’intègre déjà dans la pratique des tribunaux. Le déploiement d’algorithmes dans ce secteur soulève évidemment des questions passionnantes, à l’intersection entre innovation et droits fondamentaux.
Mais avant d’aborder ce sujet, je vous propose un bref retour sur l’actualité de ces dernières semaines. Nous parlerons de ChatGPT Santé, la nouvelle fonctionnalité tout juste annoncée par OpenAI, et de Grok, l’IA d’Elon Musk qui continue de susciter la controverse. Pour cette nouvelle saison, j’ai également décidé de vous en dire un peu plus sur ce que j’entends en coulisses et qui ne fait pas toujours l’objet d’un article.
Évidemment, on reprend les bonnes vieilles habitudes. N’hésitez pas à partager ce contenu avec vos amis, proches et collègues. Vous participerez ainsi activement au succès de ce podcast.
Je suis Grégoire Barbey, journaliste au Temps et vous écoutez le premier épisode de la saison trois de IA qu’à m’expliquer.
Actualité
Si vous vous attendiez à des changements de tendance sur les sujets d’actualité autour de l’intelligence artificielle en ce début d’année, vous allez être déçu. Je vais en effet devoir vous parler d’Elon Musk, d’OpenAI, de Google et d’Apple.
Elon Musk
Commençons par le premier. Vous le savez peut-être, la plateforme X est au cœur d’une nouvelle controverse mondiale. Eh oui, encore une ! Son IA générative, Grok, permet désormais de déshabiller des femmes et des hommes sur la base d’une simple photo. La fonctionnalité n’implique évidemment pas de requérir le consentement de la personne concernée, elle sert surtout à déshabiller des femmes.
Cette nouvelle forme de violence sexuelle, institutionnalisée par une plate-forme, interpelle, car X, ce n’est pas n’importe quel réseau social : gouvernements et organisations s’en servent toujours comme principal vecteur de communication. Bien sûr, des entreprises proposent déjà cette fonctionnalité à travers des applications dédiées. Elon Musk n’a rien inventé, mais sa force de frappe est bien plus grande qu’une obscure application, ne serait-ce que parce que les principaux magasins d’applications interdisent, en principe, cette fonctionnalité. Ni Apple ni Google n’ont pourtant retiré X de leurs boutiques. Ce double standard est difficilement explicable. Certains pays ont d’ailleurs décidé de bannir temporairement X pour manifester leur désapprobation.
Face à la polémique, le réseau social X a d’abord décidé de limiter la fonctionnalité aux abonnés payants, une mesure jugée insuffisante et scandaleuse. Quelques jours plus tard, il a décidé d’aller un peu plus loin et de restreindre la fonctionnalité à tous les utilisateurs. Il n’est ainsi théoriquement plus possible de déshabiller des individus en passant par X. Je dis « théoriquement », parce que, évidemment, on ne sait jamais à quel point les utilisateurs peuvent être ingénieux pour trouver des failles dans ce genre de limitation. Par contre, l’application Grok, qui est indépendante du réseau social, permet toujours de le faire, comme d’autres concurrents d’ailleurs.
Nous verrons bien évidemment ces prochains mois si ce type de tendance suscite des réactions du côté des législateurs.
OpenAI
Passons maintenant à OpenAI.
ChatGPT ne compterait pas moins de 800 millions d’utilisateurs hebdomadaires selon les dires de l’éditeur, et, parmi eux, quelque 230 millions poseraient chaque semaine des questions en lien avec la santé. C’est d’ailleurs peut-être votre cas. Ça en fait l’un des cas d’utilisation les plus importants de ChatGPT. Ce n’est donc pas surprenant si l’entreprise dirigée par Sam Altman a annoncé le déploiement progressif d’une nouvelle fonctionnalité, ChatGPT Santé. D’après OpenAI, des mesures de protection supplémentaires seront appliquées pour traiter les informations de santé de manière confidentielle. Un argument de poids pour inciter les utilisateurs à transmettre leurs données médicales et à connecter leurs applications de santé à ChatGPT.
ChatGPT Santé fonctionne donc comme un espace séparé, bénéficiant d’une plus grande confidentialité. OpenAI promet, par ailleurs, que les informations partagées dans ce cadre ne seront pas utilisées pour entraîner ses modèles. L’entreprise affirme aussi que ChatGPT Santé a été conçue en collaboration avec des médecins pour donner aux utilisateurs la capacité de mieux comprendre leur santé et leur bien être, une fonctionnalité qui vient en soutien aux soins prodigués par les professionnels de santé. L’éditeur précise bien qu’il ne s’agit pas de les remplacer, d’ailleurs, ChatGPT ne pose pas de diagnostic et ne propose pas de traitement.
OpenAI va d’abord se concentrer sur un petit groupe d’utilisateurs pilotes avant d’élargir progressivement ce cercle.
Certaines fonctionnalités de ChatGPT Santé ne seront disponibles qu’aux États-Unis et il faudra évidemment voir dans quelle mesure cette nouvelle fonctionnalité sera acceptée par les régulateurs en Europe et en Suisse, parce qu’on sait que de tels dispositifs peuvent être associés à des exigences beaucoup plus strictes en matière de réglementation.
Accord Apple-Google
Eh oui, l’année commence décidément sur les chapeaux de roue. Si vous n’en êtes pas convaincu, écoutez ça : Apple et Google, de leur côté, ont annoncé un partenariat pluriannuel dans un communiqué de presse sibyllin de huit lignes. Apple va ainsi recourir à l’IA générative de Google, Gemini, pour améliorer ses propres services, comme Siri. Un nouvel accord qui souligne à quel point les principaux géants du numérique verrouillent ce nouveau marché.
Un sommet à Genève pour l’action sur l’intelligence artificielle
Côté coulisses, vous le savez peut-être, le Conseil fédéral a annoncé, en 2025, son intention d’accueillir, à Genève, le prochain Sommet pour l’action sur l’intelligence artificielle. C’est la France qui a organisé la précédente édition [2], j’étais sur place et, cette année, ce sera l’Inde du 19 au 20 février.
C’est que c’est un événement un peu particulier, car il n’y a pas de comité d’organisation. C’est le Royaume-Uni qui a initié cette conférence en 2023, avec un focus sur la sécurité de l’IA. Il n’est pas encore clair si la Suisse pourra, elle aussi, l’organiser l’an prochain. Il n’y a pas de procédure d’attribution. l’Inde pourrait avoir une influence en déclarant sa volonté de transmettre le flambeau à la Suisse. D’ailleurs, selon mes informations, des discussions ont lieu entre les deux pays en ce sens. Mais une source proche du dossier m’a dit que l’absence de procédure officielle permettrait aussi au Conseil fédéral de s’approprier lui-même l’événement, en annonçant tout simplement sa décision de l’organiser. Ce n’est pas trop dans la tradition helvétique, mais qui sait ? Dans un monde polarisé, toute initiative pour faire rayonner la Genève internationale pourrait être bonne à prendre ! Je vous tiendrai donc au courant, bien entendu, en cas de développement
Et voilà qui conclut cette première partie. Il est désormais temps de passer à l’entretien.
Entretien avec Camille Girard-Chanudet
Grégoire Barbey : Bonjour Camille Girard-Chanudet.
Camille Girard-Chanudet : Bonjour.
Grégoire Barbey : Vous êtes post-doctorante à l’Institut Santé Numérique en Société [3]. Vos travaux portent sur la fabrique d’outils d’intelligence artificielle dans le domaine de la justice et, plus largement, sur les enjeux politiques et sociaux associés au développement des technologies algorithmiques. Vous êtes d’ailleurs aussi cofondatrice de l’Observatoire des algorithmes publics [4]. Nous n’avons pas encore abordé la manière dont les intelligences artificielles transforment la justice dans ce podcast. Est-ce que vous pourriez nous décrire, à grands traits, la situation actuelle ?
Camille Girard-Chanudet : Aujourd’hui, dans le domaine de la justice comme dans beaucoup de domaines dans l’action publique et au-delà, il y a un essor des technologies d’intelligence artificielle. Quand on parle d’intelligence artificielle, ça peut être beaucoup d’outils différents. On pense tout de suite aux IA génératives qui permettent d’écrire, d’automatiser l’écriture de textes, mais il y a beaucoup d’autres types d’outils, notamment des outils qui ont été qualifiés de justice prédictive, qui permettent, par exemple, d’estimer l’issue d’un contentieux, etc. Aujourd’hui, on est dans une phase d’expérimentation autour de ces outils. On voit émerger différentes pratiques, différents usages et où émergent aussi des acteurs qui ne sont pas les acteurs traditionnels du droit, des acteurs des startups de la LegalTech [5] qui essayent de structurer un nouveau marché autour de ces technologies algorithmiques.
Grégoire Barbey : On aura le temps de discuter largement de ses conséquences. Mais, dans un premier temps, est-ce que vous pouvez nous dire ce que ça a comme effets, directement, sur la manière de rendre justice et d’exercer le droit ? Est-ce que ça a des effets déjà notables aujourd’hui ?
Camille Girard-Chanudet : Je pense que pour répondre à cette question il faut remonter un tout petit peu le temps et c’est ce que j’ai fait dans mes travaux.
J’ai commencé cette recherche en 2018 autour des premiers temps du développement de l’intelligence artificielle juridique, et c’était un moment assez particulier. Je reviens sur cette histoire pour mieux comprendre ce qui se passe aujourd’hui. C’était dans le sillage du vote de la loi pour une République numérique [6] qui, en 2016, a acté le principe de mise en open data des décisions de justice, ce qui est quelque chose de très nouveau pour la justice française. Les quatre millions de décisions qui sont produites chaque année par les tribunaux doivent désormais être diffusées en accès libre, ce qui pose tout un tas de questions techniques. En tout cas, sur le principe, cela se produit. Du coup, dans le sillage de cette loi, un ensemble de projets d’intelligence artificielle se sont structurés qui avaient pour ambition de traiter, à l’aide de modèles algorithmiques, cette nouvelle manne de données que sont les décisions de justice.
Grégoire Barbey : Et notamment, si je ne me trompe pas, pour l’anonymisation, c’est ça ? C’est aussi un des enjeux très importants : aujourd’hui on a des décisions de justice qui sont publiées, qui sont disponibles notamment sur Internet, ce qui multiplie leur accessibilité, on a donc besoin de garantir que les personnes qui sont mentionnées dans ces décisions sont anonymes. Et évidemment, quand on a énormément de décisions à anonymiser, on est bien content d’avoir un outil qui peut nous aider à le faire. Est-ce que c’est vraiment efficace ? Qu’avez-vous constaté dans vos travaux ?
Camille Girard-Chanudet : Vous soulevez un point extrêmement important. En effet, je disais, il y a le principe de mise en open data des quatre millions de décisions de justice qui sont produites tous les ans par les tribunaux français, ce qui veut dire qu’elles doivent être rendues disponibles publiquement, de façon numérique, sur Internet, pour le dire simplement. Les décisions de justice sont des documents qui contiennent des éléments à caractère personnel, voire extrêmement sensibles sur les personnes qui y sont citées. Du coup, pour diffuser ces décisions publiquement et être en accord avec le cadre légal, le RGPD [Règlement général sur la protection des données à caractère personnel] notamment, il faut occulter ces informations-là. Ces informations, ce ne sont pas seulement les noms et les prénoms des personnes, ça va bien au-delà. Ça peut être des numéros de sécurité sociale, des descriptions précises de lieux d’habitation, etc. Pour éviter de porter préjudice aux personnes, cela implique d’occulter ces éléments et on ne peut pas imaginer de le faire manuellement à cette échelle-là. C’est pour cela que la Cour de cassation s’est engagée, en interne, dans la fabrique d’un outil d’intelligence artificielle pour anonymiser les décisions de justice. C’est quelque chose qui permet de passer à l’échelle et d’avoir beaucoup plus de volumes de traitement, mais c’est quelque chose qui ne supprime pas du tout le travail, au contraire et c’est vrai pour les intelligences artificielles en général. On peut automatiser des processus, mais on a besoin d’énormément de travail, en amont, pour la préparation des données d’entraînement, et en aval pour la surveillance des résultats qui sont produits par les modèles d’IA qui produisent sans cesse des erreurs. On le voit quand on utilise des LLM [Large Language models], les hallucinations algorithmiques sont des trucs extrêmement récurrents. Du coup, à la Cour de cassation, oui, ça marche, l’anonymisation des décisions de justice est aujourd’hui produite par IA, mais pas que par IA, dans une coordination entre humains et modèles algorithmiques, puisqu’une équipe de plus d’une vingtaine de personnes travaille à temps plein à l’entraînement des modèles algorithmiques et à leur surveillance.
Grégoire Barbey : J’en discutais avec quelqu’un qui est notamment responsable de l’informatique au Tribunal fédéral, qui m’expliquait qu’ils avaient développé leur propre outil en interne pour procéder à cette anonymisation, mais que ce n’était pas toujours simple parce que, évidemment, il y a des termes polysémiques, il y a aussi des situations qui ne sont pas forcément prévisibles, dans lesquelles des termes vont apparaître et vont permettre d’identifier quelqu’un. Anonymiser des séquences qui seraient potentiellement identifiables nécessite un vrai travail de fourmi, car à première vue, quand on crée un logiciel, elles n’apparaissent pas comme évidentes. Il y a donc là un vrai travail circulaire, comme vous le disiez, entre l’humain et la machine.
Est-ce que ça produit des résultats qui sont, aujourd’hui, satisfaisants, où est-ce qu’on voit des difficultés à réellement anonymiser ces documents ?
Camille Girard-Chanudet : Je vais peut-être revenir un peu sur ce processus-là pour qu’on puisse mieux comprendre pourquoi l’humain est si essentiel dans le développement des intelligences artificielles.
Pour faire fonctionner un outil d’IA, il faut l’entraîner en amont. C’est-à-dire que pour que l’outil algorithmique de la Cour de cassation puisse anonymiser automatiquement des décisions de justice, il faut lui avoir fourni une grande quantité d’exemples de décisions qui ont été annotées manuellement par des êtres humains. À la Cour de cassation, une équipe de 15 à 20 annotateurs et annotatrices s’occupe de ce travail-là et c’est vrai dans l’ensemble des fabriques d’intelligence artificielle. Le travail d’annotation est quelque chose de central, bien qu’invisible, aussi parce que souvent délocalisé très loin, à l’étranger. À la Cour de cassation, la configuration est particulière, les annotateurs sont à Paris, sur l’île de la Cité, dans le palais de justice historique, mais il y a beaucoup de configurations distinctes dans lesquelles ce travail est fait.
Cette équipe d’annotation va prendre les décisions de justice et essayer de faire coïncider le réel qu’elle trouve dans les décisions, qui est toujours imprévisible, mouvant, polysémique comme vous le disiez, avec un système de catégories rigides, puisque c’est cela que la machine peut comprendre. À la Cour de cassation, il y a une quinzaine de catégories d’éléments à occulter, des décisions qui sont toujours les mêmes : noms d’entreprise, adresses, numéros de sécurité sociale, etc. Les annotatrices vont donc faire ce travail qui est de faire coïncider le réel avec ce système rigide. Dans certains cas, ça ne pose pas de problème – un nom, un prénom, c’est facile à identifier –, mais il y a énormément de situations dans lesquelles c’est beaucoup plus compliqué.
Je suis sociologue, j’ai donc fait un travail ethnographique, c’est-à-dire que j’ai observé le travail de ces personnes, en continu pendant plusieurs mois, et je me suis rendu compte qu’il n’y a presque aucune décision annotée manuellement qui ne pose pas de problème. Les annotatrices rencontrent systématiquement des éléments dont elles ne savent pas quoi faire. Qu’est-ce que peuvent être ces éléments ? Ce sont soit des éléments pour lesquels elles se disent « cet élément est extrêmement identifiant, mais il n’y a pas de catégorie adaptée pour cet élément-là ». C’est, par exemple, le cas d’un nom d’une œuvre d’art qui serait détenue par un collectionneur. Évidemment, il n’y a pas de catégorie « nom d’œuvres d’art » dans le référentiel, par contre, il suffit de faire une recherche sur Google, on va retrouver tout de suite à qui appartient cette œuvre d’art et les annotatrices disent qu’il faudrait l’anonymiser. Ou alors, des éléments qui pourraient aller dans plusieurs catégories et elles ne savent pas exactement entre lesquelles trancher. Le travail d’annotation, le travail de préparation des données d’entraînement de l’IA, est un travail d’articulation constant qui ne peut être fait que par des êtres humains qui ont, en fait, une compréhension contextuelle des choses, une compréhension située des choses, qui vont faire l’effort de plier le réel au système de catégorisation de l’intelligence artificielle. Et cela est vrai dans les phases initiales d’entraînement du modèle, mais ça continue à être vrai par la suite parce que le monde évolue en permanence. Les décisions de justice reflètent, en quelque sorte, une société qui évolue, une société qui change, de nouveaux mots apparaissent, de nouvelles choses deviennent importantes. Ce travail d’articulation n’a donc pas vocation à être borné dans le temps, il faut toujours ce lien entre l’humain et la machine pour que le modèle continue à produire des résultats pertinents.
Grégoire Barbey : Ce qui est très intéressant dans ce que vous dites, Camille Girard-Chanudet, c’est cet aspect de catégorisation, cette idée qu’à la machine, quelque part, il faut prémâcher le travail pour lui montrer ce qui est important dans ce qu’elle doit comprendre et évidemment, par définition, les catégories sont restrictives. Aujourd’hui, avec l’essor de l’intelligence artificielle générative que, parfois, on imagine être un petit peu comme une nouvelle génération d’intelligences artificielles qui seraient capables d’être beaucoup plus adaptatives, qui seraient beaucoup plus capables de percevoir du sens là où il n’est pas forcément évident, est-ce que ça a changé quelque chose dans ce travail d’annotation et aussi dans cette capacité à intervenir dans des situations inhabituelles, imprévues, qui n’avaient pas été bien catégorisées ?
Camille Girard-Chanudet : J’ai observé à la Cour de cassation que non, ça ne va pas changer ce travail humain quand on a une exigence de précision dans les résultats. Je pense que c’est toujours la question dans l’automatisation, que ce soit l’automatisation algorithmique ou les automatisations sur les chaînes de production industrielle, quelle est l’exigence de qualité qu’on va avoir ? Quelle est l’exigence de précision ? La Cour de cassation est la juridiction suprême, elle est soumise à des obligations légales, elle ne peut pas se permettre de diffuser des informations identifiantes sur les personnes, l’exigence est extrêmement élevée. À ce moment-là, le contrôle humain va donc toujours être nécessaire parce que les IA génératives fonctionnent en fait exactement de la même façon que ce que je vous décrivais juste avant. Finalement, on est sur des modèles qui vont reproduire des exemples qui leur ont été fournis en amont et qui vont reproduire des exemples qui ont été annotés. Si vous demandez à une IA générative, de produire un texte triste, par exemple, il va falloir en amont que des textes aient été labellisés comme tristes par des travailleurs. ChatGPT a été entraînée par des dizaines de milliers de travailleurs qui ont fait, là aussi, ce travail d’annotation. On est donc dans une espèce de reproduction perpétuelle des exemples qui ont été fournis en amont, ce qui, pour produire de la masse, est en effet très efficace. Par contre, pour produire précisément des choses qui répondent à une exigence de qualité, là on a toujours besoin de ce travail d’articulation, d’entraînement et de surveillance. Même si on laisse la machine opérer toute seule, elle fait des erreurs parce que le monde est imprévisible, le monde échappe toujours légèrement au système de classification établi en amont.
Par exemple, pendant mon enquête qui était sur la fin des périodes de confinement qui étaient liées à la pandémie, sont apparus des nouveaux termes dans les décisions de justice, par exemple visioconférence, des choses qui n’étaient pas très souvent dans les décisions de justice. Le modèle ne savait pas quoi en faire, il ne savait pas comment les reconnaître. Parfois, il les annotait comme noms d’entreprises parce que c’étaient des mots qu’il n’avait jamais vraiment vus. C’est le principe d’un monde qui évolue, on a donc besoin de cette ré-annotation et de faire sur le long terme ce travail d’articulation pour que les modèles continuent à produire des résultats d’un niveau de qualité suffisant, en tout cas pour la Cour de cassation.
Grégoire Barbey : Instinctivement, quand on entend tout ce processus que vous décrivez, qui a l’air quand même assez fastidieux et qui nécessite beaucoup de ressources, on peut se poser la question : est-ce que c’est vraiment efficace de procéder à cette automatisation ? Est-ce qu’il y a vraiment un gain, en termes de coût financier, de procéder à cette automatisation qui nécessite constamment d’être revue, d’être vérifiée, d’être articulée ?
Camille Girard-Chanudet : C’est une question qui se pose à grande échelle aussi pour l’intelligence artificielle. On a l’impression qu’on est en train d’automatiser des tâches, qu’on est en train de remplacer des professionnels et que, finalement, tout va se faire seul par l’IA, et on voit la charge de travail humain qui est nécessaire à l’entraînement, des algorithmes, à toutes les étapes. Là on parle du travail d’annotation, mais il y a énormément d’étapes précédentes : il faut d’abord constituer les bases de données d’entraînement de l’IA, qui est quelque chose d’extrêmement compliqué aussi,
il faut ensuite préparer les données,
les formater pour qu’elles soient dans des formats adaptables à l’apprentissage automatique, ce qui n’est pas évident non plus,
il faut ensuite les annoter,
il faut ensuite procéder à l’entraînement des modèles,
il faut ensuite calibrer les modèles,
il faut ensuite surveiller les machines.
L’annotation n’est qu’une seule partie d’une très longue chaîne de production qui mobilise énormément de travailleurs qui, comme je le disais, sont souvent invisibilisés, placés à distance, ce qui facilite cette espèce d’idée d’automatisation absolue. Donc oui, c’est une question qui se pose.
Souvent on a recours aussi, ce n’est pas le cas à la Cour de cassation, à des travailleurs dans des pays du Sud global qui sont des pays à bas salaire. Pour les entreprises qui sont dans un calcul simple, stratégique, de coût, ça peut en effet être plus efficace d’avoir recours à cette externalisation, ce qui ne veut pas dire qu’on a supprimé l’humain du processus.
Pour revenir au cas concret de la Cour de Cassation, on a une équipe à la Cour de Cassation d’une vingtaine d’annotateurs, d’annotatrices, qui font ce travail-là. S’il fallait anonymiser manuellement quatre millions de décisions par an, ce serait plusieurs centaines de personnes qu’il faudrait sans doute pour faire ce travail. Donc, dans une certaine mesure, oui, l’automatisation permet d’aller plus vite quand la tâche est délimitée. On est quand même sur une tâche extrêmement cadrée, il y a eu beaucoup d’années de préfiguration de ce projet-là. Une fois que ce travail-là a été fait, ça permet d’accélérer, mais ça ne permet surtout pas de supprimer le travail.
Grégoire Barbey : Si on regarde un petit peu d’autres aspects que l’anonymisation, vous parliez en introduction de la justice prédictive, il y a aussi cette idée que, peut-être, on va pouvoir carrément automatiser certaines décisions de justice. Quels sont les risques ? Est-ce que ça peut conduire à rendre des décisions froides en écartant la complexité d’une évaluation humaine ? Quels sont les risques de ce déploiement à grande échelle ?
Camille Girard-Chanudet : En 2018, quand ont émergé les premiers outils d’IA dans le domaine de la justice prédictive, c’étaient des start-ups de la LegalTech, importés souvent par des jeunes chefs d’entreprise issus soit d’écoles de commerce soit d’écoles d’ingénierie, en tout cas pas du tout issus du monde de la justice. Ils se sont saisis de cette opportunité-là, avec un peu une idée de disrupter le monde de la justice – c’était le langage start-up de la LegalTech de l’époque –, donc d’automatiser une certaine partie du travail juridique, en tout cas c’était l’ambition affichée au début. L’idée, c’était par exemple de dire « vous avez un nouveau cas, vous êtes dans un contentieux, vous voudriez aller au tribunal, mais vous ne savez pas exactement quelles seraient les chances de succès de votre affaire au tribunal ». L’algorithme va vous dire « vous pouvez prétendre gagner 3000 euros. ». L’idée, c’était peut-être aussi d’automatiser le jugement à partir de ces algorithmes-là.
Ces algorithmes ont reçu un accueil extrêmement froid de la part des professionnels du droit. Il y a eu une première expérimentation, qui reste la seule à ce jour, d’un outil dit de justice prédictive au tribunal. Deux cours d’appel ont expérimenté un outil en 2018/2019 et, après quelques mois d’expérimentation, les magistrats ont arrêté le test et ont estimé que c’était un outil qui produisait des résultats inutiles, voire complètement aberrants, que ça ne servait pas du tout leur pratique juridique. Ce qui, d’un point de vue sociologique, ne semble pas extrêmement surprenant quand on voit que justement, l’expertise juridique n’a pas été utilisée du tout pour l’entraînement de ces modèles. Les avocats, qui étaient aussi une autre clientèle ciblée par ces entreprises-là, sont devenus clients de ces outils, mais pas pour leurs fonctionnalités prédictives. Ils sont devenus clients de ces outils pour pouvoir faire des recherches juridiques, trouver des décisions dans des bases de données, mais pas pour faire cette prédiction.
Grégoire Barbey : Je voulais justement aborder les avocats. Mais avant, encore une dernière question sur cette notion de justice prédictive. Sauf erreur, il y a quand même des systèmes qui servent notamment à évaluer le risque de récidive des détenus lorsqu’on envisage de les libérer. Est-ce que ça existe en France ?
Camille Girard-Chanudet : Non, ça n’existe pas en France. Ce sont des outils qui ont été déployés aux États-Unis, notamment le logiciel Compas [Correctional Offender Management Profiling for Alternative Sanctions] qui a fait beaucoup parler de lui parce que c’est un logiciel qui permet d’évaluer le risque de récidive d’une personne condamnée pour un crime. Une étude du média ProPublica, qui est sortie en 2016 [7], avait identifié les biais racistes de cet algorithme-là : il établissait des scores de récidive beaucoup plus élevés pour les personnes non-blanches que pour les personnes blanches. Ce sont des algorithmes qui sont toujours déployés aux États-Unis et qui posent tout un tas de questions. C’est un cas très médiatique, mais qui, finalement, parle plus largement des biais qui sont induits dans ces algorithmes-là, parce qu’ils traitent des données qui sont issues du monde réel et qu’on a un système judiciaire qui est lui-même ancré dans un contexte culturel souvent raciste, on est donc dans la reproduction. Ce n’est pas l’algorithme, si vous voulez, qui est raciste en lui-même, c’est la reproduction du système global dans lequel l’algorithme est inséré.
Si je peux rebondir sur les algorithmes de justice prédictive, vous m’interrogez sur les conséquences de ces algorithmes-là, ils n’ont pas été utilisés pour leur fonctionnalité prédictive par les professionnels du droit, qui étaient la cible initiale de leurs concepteurs. Par contre, ce sont des outils qui sont utilisés aujourd’hui non pas par cette cible initiale, mais par des acteurs périphériques au monde de la justice que sont les compagnies d’assurances. Sur les conséquences de l’usage des outils d’IA, je pense que c’est un point essentiel. Les compagnies d’assurances, aujourd’hui, sont des financeuses principales de ces outils et aussi de grandes utilisatrices, c’est-à-dire qu’elles vont conseiller leurs clients dans la gestion de leurs contentieux à partir de ces outils et dire « si vous alliez au tribunal, vous gagneriez 2000 euros, dans trois ans, au terme d’une procédure longue et coûteuse. Moi, je vous propose 2500 euros aujourd’hui », puisque c’est ce que l’algorithme suggère.
En utilisant ces algorithmes-là, des acteurs périphériques au monde du droit, comme les compagnies d’assurances, deviennent dépositaires d’une nouvelle forme de légitimité, que j’appelle légitimité algorithmique, qui vient un peu entrer en concurrence avec la légitimité juridique traditionnelle et qui permet à ces acteurs-là de prendre la main sur toute une partie du contentieux et de déjudiciariser toute une partie du contentieux.
Aujourd’hui les compagnies d’assurances disent une partie du petit contentieux : vous avez commandé un canapé chez Conforama, il n’est pas de la bonne couleur, on n’est pas sur des affaires dramatiques, en tout cas ça rééquilibre en fait les chaînes de pouvoir, les chaînes de responsabilité autour du monde de la justice en donnant du pouvoir à des acteurs extérieurs. On n’est pas sur de l’automatisation, le juge robot qui serait au tribunal en train de rendre justice tout seul, par contre subtilement, un peu en sous-marin, se produisent des rééquilibres de pouvoir, qui me semblent extrêmement importants ; ils se produisent aujourd’hui, on n’est pas sur de la prédiction, et ils sont appuyés par l’essor des outils d’intelligence artificielle.
Grégoire Barbey : Este-ce que les professionnels du droit, comme les avocats, utilisent aussi ce genre de système ? Est-ce qu’on pourrait imaginer, par exemple, que vous arrivez chez un avocat, il note toute votre histoire et puis, d’un coup, il la passe dans un logiciel et le logiciel dit : « Pourcentage très faible de chances de réussir à aller au bout de cette procédure. Je vous recommande de ne pas le faire. »
Camille Girard-Chanudet : En tout cas, c’est quelque chose qui a été soulevé, qui a été expérimenté. On se rend compte, finalement, que les professions du droit traditionnel, que ce soient les magistrats ou les avocats, n’apportent pas un très grand crédit aux résultats qui sont produits par ces outils algorithmiques. Le fait de pouvoir « prédire », entre guillemets, l’issue d’un contentieux, en tout cas de dire si vous avez des chances de succès ou non au tribunal, c’est quelque chose que les avocats savent déjà faire, parce que c’est leur expertise juridique de pouvoir voir les différents éléments d’une affaire, pouvoir les articuler dans la pratique traditionnelle du syllogisme juridique : prendre un cas particulier, l’articuler avec la règle de droit et avoir cette connaissance professionnelle sur la façon dont cela va se dérouler. Évidemment, on n’a jamais la solution à 100 %, mais l’algorithme non plus n’a pas la solution à 100 %. Dans mon enquête, j’ai plutôt observé une grande distance, une grande réserve des professionnels du droit par rapport à ces outils. Les professionnels du droit défendent leur expertise propre, le fait aussi d’avoir une analyse qui est incarnée, ancrée dans les situations concrètes, dans le dialogue que les avocats peuvent avoir avec leur client. En fait une sensibilité, d’une certaine façon, qui est le propre de l’expertise juridique et qui est, justement, l’opposé de l’expertise algorithmique qui va raisonner à partir de calculs probabilistes de façon extrêmement désincarnée.
Grégoire Barbey : Ce d’autant plus que, dans la matière juridique, il y a évidemment l’aspect purement droit, mais il y a aussi une dimension humaine, parce qu’il faut aussi convaincre les juges, parfois, du bien-fondé d’une démarche juridique, d’une position, et cela, par exemple, c’est quelque chose qui n’est pas forcément facile à prédire. Même si un cas paraît désespéré, avec un effort de conviction, de travail argumentatif, on peut peut-être, parfois, réussir à changer un petit peu la perception des choses.
Camille Girard-Chanudet : Absolument. Et puis aussi une dimension très politique du droit. On n’est pas sur une matière qui est complètement techniciste, blanc ou noir, zéro ou un. C’est un endroit où se reflète la société, où se reflètent les antagonismes de la société, où se reflètent des prises de position et on le voit aussi avec l’évolution du droit. Ce n’est pas du tout une matière qui est figée, c’est une matière qui évolue au gré des évolutions de la société et c’est quelque chose que les algorithmes ne peuvent pas prendre en compte. C’est là aussi où se joue une tension qui est intéressante. Je trouve que le domaine juridique est un bon cas d’étude pour comprendre aussi ce qui se passe plus globalement. Avec l’essor des algorithmes, on a un peu cette espèce d’essor d’une rationalité qu’on présenterait comme pure, cette idée que les algorithmes sont neutres, sont objectifs, donc on va rendre la justice plus neutre et objective. En fait, la justice n’est pas, par essence, un domaine neutre et objectif et heureusement, parce que c’est là où se jouent les tensions de la société. On a donc cette confrontation-là qui fait, je pense en partie aussi, que les professionnels du droit se saisissent très peu de ces fonctionnalités-là. Ils se saisissent d’autres choses. Anonymiser les décisions, par exemple, c’est quelque chose que peuvent faire les algorithmes, mais la justice prédictive en tant que telle, l’automatisation de l’acte juridique, c’est quelque chose qui parle beaucoup plus à des acteurs extérieurs – les startups, l’entrepreneuriat, les assurances – qu’aux professionnels du droit.
Grégoire Barbey : Camille Girard-Chanudet, on arrive gentiment au terme de cet épisode. Je vais vous poser une dernière question. Quand ChatGPT est arrivé il y a trois ans, j’ai beaucoup entendu des professionnels, notamment en Suisse, des avocats, me dire « c’est formidable pour l’accès au droit parce qu’aujourd’hui les gens peuvent avoir accès plus facilement aux bases légales ». Croyez-vous à cela ? Est-ce que ces outils, qui ont aussi leurs défauts, qui peuvent parfois mal restituer les informations, sont vraiment utiles pour l’accès au droit ? Ou au contraire, augmentent-ils encore l’iniquité entre ceux qui ont les moyens d’accéder à des avocats et ceux qui doivent peut-être passer par ce genre d’outils qui sont beaucoup moins performants qu’un véritable conseil humain ?
Camille Girard-Chanudet : Oui, je pense que sur la question des IA génératives, en particulier ChatGPT, il faut être très précautionneux dans le sens où il faut avoir conscience de ce que peuvent faire ces outils et ce que ne peuvent pas faire ces outils. Ce sont des outils extrêmement puissants quand on leur demande de formater de l’information : si vous leur donnez de l’information et que vous leur demandez de la mettre en forme, c’est extrêmement efficace. Par contre, pour faire de la recherche documentaire, de la recherche d’informations, restituer des informations, ce sont des outils qui, d’une certaine façon, ne sont pas faits pour ça. C’est comme si vous disiez « j’aimerais enfoncer un clou avec une cuillère ». La cuillère est utile pour faire d’autres activités, mais ce n’est pas le bon outil pour enfoncer un clou.
Les outils d’intelligence artificielle sont des outils qui ont un fonctionnement probabiliste, c’est le fond du fonctionnement de l’apprentissage automatique. Donc, si vous posez une question, cela va vous donner la réponse qui a la probabilité la plus élevée d’être vraie par rapport à tout le corpus d’entraînement, mais ça ne veut pas dire qu’elle est vraie. On le voit en particulier dans le domaine juridique où notamment le grand public, évidemment, mais les professionnels du droit aussi, se sont mis à utiliser des outils de type ChatGPT pour s’appuyer dans leur mission. Ça a donné des situations parfois ubuesques : des avocats ont utilisé ChatGPT pour préparer leurs plaidoiries et se sont retrouvés avec des plaidoiries qui contenaient tout un tas de cas, soi-disant des cas antérieurs qui venaient appuyer leurs propos, mais qui, en fait, étaient des cas complètement faux. Le mois dernier, il y a eu la toute première condamnation d’un avocat du Royaume-Uni qui avait présenté, devant un tribunal, des cas complètement erronés.
Grégoire Barbey : Je crois que quelqu’un fait d’ailleurs une recension assez systématique des cas où il y a un avocat qui a fait une plaidoirie avec n’importe quoi dedans.
Camille Girard-Chanudet : Ça ne m’étonne pas parce que, en réalité, c’est le fonctionnement de l’intelligence artificielle de produire des choses vraisemblables, mais des choses qui n’ont pas vocation à être réelles. Comme dans tous les domaines d’expertises, demander des informations précises à ChatGPT n’est pas ce qui va aboutir à des résultats réels. Il y a donc, en effet, un risque et d’autant plus un risque par rapport aux représentations qu’on a sur l’intelligence artificielle, qui sont charriées par les fictions, et qui sont charriées aussi par les discours commerciaux d’entreprises, qui disent que ce seront des outils objectifs, pertinents, rationnels, on ne comprend pas très bien leur fonctionnement, mais ça a l’air magique et ça a l’air complètement réel. Non ! On a intérêt à identifier les limites de ces outils, peut-être pour voir aussi leurs qualités, mais il y a des limites et la limite de la véracité est une très grande limite de ces outils génératifs.
Grégoire Barbey : Ce sera le mot de la fin. Merci beaucoup Camille Girard-Chanudet
Camille Girard-Chanudet : Merci à vous.
Grégoire Barbey : La question rituelle, évidemment : si on veut vous suivre, si nos auditrices et auditeurs veulent continuer de suivre vos travaux, ils peuvent vous retrouver où ?
Camille Girard-Chanudet : Ils peuvent me retrouver sur Linkedin, sans problème.
Grégoire Barbey : Merci beaucoup.
Camille Girard-Chanudet : Merci.
Grégoire Barbey : Et voilà, Mesdames et Messieurs, nous arrivons au terme de cet épisode. J’espère que vous avez eu autant de plaisir à l’écouter que j’ai eu à le produire. Et puis, si vous voulez nous aider, comme je vous ai dit en début d’épisode, vous pouvez partager ce contenu. En attendant, si vous avez des questions ou des remarques, vous pouvez nous écrire à cyber chez letemps.ch.
Je vous donne rendez-vous dans deux semaines. D’ici là, vous pouvez continuer de nous suivre sur le site du Temps et vous pouvez aussi découvrir nos autres podcasts Brise-Glace et Sous la Coupole. À bientôt !