Intelligence artificielle à l’hôpital Entretien avec Cédric Villani

Journaliste : Cédric Villani, on vous accueille aujourd’hui à l’hôpital du Valais pour une conférence sur l’intelligence artificielle. Vous avez dit, pendant la conférence, qu’elle n’avait rien d’intelligent. Qu’est-ce que ça veut dire ?

Cédric Villani : Intelligence artificielle, le terme est mauvais depuis le début, mais, maintenant, il est tellement bien implanté qu’on va le garder, mais ce n’est pas de l’intelligence au sens où nous l’entendons : notre intelligence, avec la conscience, avec la réalisation de ce dont l’univers est fait et ainsi de suite.
C’est la grande découverte, l’une des plus grandes découvertes de ces dernières années, qu’un algorithme peut effectuer des opérations subtiles sans intelligence. Il peut vous écrire une très belle lettre de recommandation pour candidater à tel emploi sans savoir ce qu’est un humain, ni un emploi, ni de la motivation. Il peut vous faire un très bon diagnostic d’un cancer du sein sans savoir ce qu’est un sein, ni savoir ce qu’est le cancer, ni même ce qu’est un patient. Il serait à la fois idiot de se focaliser sur la question d’intelligence et dédaigner ces outils parce qu’ils ne sont pas intelligents ; idiot aussi de craindre cette intelligence comme étant quelque chose qui aura une vie en soi.
Le grand défi qui se pose à nous, au plan pratique, c’est quelle est la meilleure façon d’intégrer ces nouvelles possibilités dans nos processus humains, au plan scientifique, c’est celui de comprendre comment structurer le savoir et, dans le monde, comment il est possible de faire des choses aussi subtiles sans aucune intelligence.

Journaliste : Dans le premier épisode de votre podcast, Les Contes des mille et une sciences, vous évoquez les mathématiciens et les chercheurs du 17e siècle en expliquant que les mathématiques ont toujours voulu prévoir, prédire les choses, la météo, l’avenir, en quelque sorte. Aujourd’hui, avec l’intelligence artificielle dans le domaine médical, n’essaye-t-on pas de prédire la santé des gens ?

Cédric Villani : Prédire la santé des gens est l’une des composantes des différents outils d’intelligence artificielle qui viennent, à envisager avec intérêt, mais attention ! Ça fait tellement longtemps qu’on nous prédit la médecine prédictive et qu’elle n’arrive pas, qu’il faut prendre cette nouvelle annonce avec suspicion. J’en connais certains, y compris des médecins bien établis à l’Académie de médecine, qui disent qu’il y a même un risque plus grave à implanter des angoisses dans la tête des gens — genre est-ce que je vais développer telle maladie ? Que dit mon génome ? —, que le risque induit serait, à la fin, plus grave que ce qu’on arrive à soigner.
Et puis, une pathologie qui se développe dépend de tellement de facteurs ! Les facteurs intrinsèques, si on veut, génétiques ou de constitution, mais il y a aussi notre environnement, ce qu’on mange, avec qui on discute, où on habite, comment on se sent, le facteur psychologique. Tellement de choses ! Il se peut qu’il faille très longtemps avant qu’on puisse intégrer tous ces facteurs. On peut aussi se demander si c’est souhaitable. Il y a mêmes des situations dans lesquelles on ne veut pas savoir ce qui va nous arriver, comme la date de notre mort ou ce genre de choses.
Alors, c’est à suivre, à suivre avec intérêt, mais avec un petit scepticisme de bon aloi.

Journaliste : Si on ressort un petit peu des projections de l’au-delà, aujourd’hui, très concrètement, l’intelligence artificielle en médecine, c’est quoi ? C’est de l’aide au diagnostic, c’est aider à lire des radiographies, prédire l’état d’un patient qui a un AVC ? Des choses comme ça ?

Cédric Villani : L’IA en médecine, c’est un peu tout, mais, en particulier, de l’aide au diagnostic. Dès qu’il faut faire un diagnostic rapide ou un diagnostic avec peu de moyens, par exemple dans un contexte où il n’y a pas de spécialistes disponibles alentour ; ou alors un diagnostic où on veut être sûr pour une pathologie rare ou difficile à identifier. Donc diagnostics, tout un ensemble sur lesquels on a des résultats spectaculaires.
Deuxième élément, c’est l’aide à l’organisation : aide à la prise en charge, aide au remboursement, je ne sais pas, aide à la communication entre les systèmes. Ces IA sont évidemment susceptibles de désorganiser le système, comme n’importe quel élément, et on sait bien que quand sont arrivés les premiers bâtiments intelligents, qui devaient économiser l’énergie, la lumière et tout ça, au début, ils étaient plus stupides que tout, ils se mettaient en marche quand ce n’était pas prévu. Tout est possible, aussi, dans certaines conditions. Donc, deuxième grande catégorie d’applications, c’est de l’aide à l’organisation.
Et puis, je vais aussi rajouter par-dessus, l’aide à la compréhension scientifique des maladies, des modèles d’évolution des maladies ou le fait de reconnaître que telle et telle pathologie doivent être rassemblées ensemble ou, au contraire, telle et telle pathologie différenciées, donc progression du corpus scientifique en tant que tel.
Voilà quelques-unes des applications.

Journaliste : Si on voit l’intelligence artificielle comme une aide au diagnostic, le résultat va aussi dépendre de la personne qui l’a programmée, qui reste maître de la machine, finalement. Entre le médecin qui veut soigner à tout prix son patient et celui qui paye le traitement, le point de vue n’est pas forcément toujours le même !

Cédric Villani : Toutes sortes de menaces sont là, toutes sortes de dangers existent. Effectivement, peut-être : si une médecine vous indique qu’on peut produire tel médicament personnalisé, avec telle thérapie génique ou je ne sais quoi, un médicament qui va avoir un prix époustouflant, mais qui pourra sauver ce patient-là, qui va payer ? Ce genre de problème se pose déjà avec certains médicaments au prix astronomique, qui sont à la fois des merveilles scientifiques et des casse-têtes pour un système de solidarité.
Autre genre de problème : si vous utilisez des algorithmes sans la maîtrise de qui les a programmés, sans confiance en qui les a programmés, si vous n’êtes pas capable de les utiliser comme il faut.
Autre exemple de problème, c’est la déresponsabilisation de la chaîne ou la perte de savoir-faire, c’est un vrai sujet. De la même façon que le chauffeur de taxi, soudainement privé de son GPS, se retrouve dans une situation intenable, qu’en sera-t-il du médecin habitué à son diagnostic d’intelligence artificielle, le jour où l’hôpital devra fermer son système de données par suite d’une cyberattaque venant de telle ou telle puissance étrangère ? Ce genre de chose existe. Tous ces genres de risques sont là, pour autant, il s’agit de les aborder de façon confiante, en ayant bien en tête que, si on envisage les risques et, qu’en même temps, on a les bonnes compétences autour de soi, soudées, motivées, il n’y a aucune raison pour ne pas les affronter. C’est vraiment la question clé ici. Ce n’est pas tant une question technologique. Les développements technologiques se font, se feront dans les laboratoires de recherche des grands groupes, des jeunes pousses, des universités, ce que vous voulez. Le vrai enjeu, c’est l’appropriation, la motivation humaine pour s’emparer de l’architecture du système de santé, à l’échelle nationale pour les éléments qui y sont pertinents, à l’échelle locale là où c’est pertinent, à l’échelle d’un hôpital, à l’échelle d’une clinique.

Journaliste : C’est finalement cette interface entre la technologie et l’humain ?

Cédric Villani : C’est vraiment cette interface qui est le secteur clé, le bon contact entre la technologie, que ce soit les machines ou les algorithmes, et l’humain. À la fin des fins, c’est résolument la question de la confiance qui est le facteur dominant, principal.

Journaliste : Une dernière question. Si on sort un peu de l’hôpital, avec ses difficultés de confronter la technologie à l’humain, peut-on imaginer que l’intelligence artificielle s’applique à d’autres domaines ? On songe notamment à la justice. Vous êtes récemment allé voir Julian Assange [1] en prison. Est-ce qu’une intelligence artificielle aurait produit un jugement différent ou est-ce que ça dépend vraiment des données qu’on lui fournit ?

Cédric Villani : Le cas de Assange est un cas évident où on se trouve face à une injustice manifeste, même selon les Nations-Unies, un cas de torture avéré, torture et persécution politiques qu’une machine n’aurait jamais effectuées, à moins d’avoir été programmée spécifiquement par des gens voulant imposer la domination, en l’occurrence domination des États-Unis sur les questions de défense et de sécurité mondiale.
Le système judiciaire est un exemple extrêmement intéressant, complexe, dans lequel la mise en œuvre d’algorithmes pose des problèmes considérables et on a, dans le domaine voisin des polices, de très mauvaises expériences : des logiciels de police prédictive qui ont été calamiteux dans leur ensemble, pour l’instant, c’est-à-dire pas seulement inefficaces, mais entraînant des conséquences néfastes.
Évidemment, quand on dit « justice algorithmique », toutes sortes de problèmes arrivent.
D’abord, on a des exemples de pays dans lesquels la justice est aux ordres de la politique, comme en Chine, où les jugements prédictifs, en réalité, sont déjà rendus quasiment préremplis.
Ensuite, on a des exemples de logiciels qui ont été démontrés racistes, aux États-Unis, pour traiter une libération conditionnelle.
On se dit qu’il y aura les problèmes de données, les problèmes de biais algorithmiques, tout ce que vous voulez.
Et pourtant, si on regarde en face les systèmes humains, on voit que les systèmes humains de justice, même dans les pays démocratiques, souffrent de plein de problèmes. Dans certains cas, avec l’arbitraire d’un juge à l’autre, la sentence peut varier considérablement. C’est normal qu’elle varie un peu, mais qu’elle varie de façon extrêmement importante, c’est insupportable. Ça veut dire que le nombre d’années de prison que je vais passer, si j’ai commis tel ou tel crime, peut varier, dans certains cas, avec un facteur de 1,5 ou, presque, du simple au double. Ce genre de chose est insupportable, c’est juste le hasard qui mène à ça. dans d’autres cas on a pu, avec certaines expériences dont une expérience fascinante faite en Israël, je crois : sur des exécutions de remise de peine sur des panels contrôlés, on a pu démontrer que la sévérité du jugement dépend de l’heure à laquelle le jugement est rendu, plus ou moins près du repas, en particulier. Le juge est un être humain comme les autres, OK, mais quand même, c’est un peu dérangeant. L’idée de systèmes algorithmiques qui aideraient à corriger certains biais de ces défauts humains les plus criants est assez séduisante. Ou également pour désengorger les tribunaux. C’est bien d’avoir une justice indépendante et juste, c’est le cas le dire, sauf que si vous devez attendre dix ans le jugement, ça ne sert à rien. Vous avez un engorgement phénoménal des tribunaux, partout en France – je ne sais pas quel est leur état en Suisse – ; un peu partout dans le monde, il y a eu cette épidémie d’engorgement. Si l’IA peut aider au désengorgement, ça sera œuvre utile et, là-dedans, il faut avancer avec pragmatisme, toujours en développant les choses dans un dialogue et un débat de société, de manière interdisciplinaire.
Il y a quelques semaines, j’étais à Montpellier pour le lancement d’une conférence citoyenne sur l’intelligence artificielle, une belle initiative demandant à l’échelle métropolitaine quel va être notre doctrine, notre politique en matière d’IA. Une façon, aussi, pour le politique et pour la sphère citoyenne de progresser par rapport à ça. Dans un sujet où la technique joue, certes, mais où les facteurs limitants les plus importants sont du côté humain.

Journaliste : Merci beaucoup.

Cédric Villani : Merci.

Références

Média d’origine

Titre :

Intelligence artificielle à l’hôpital

Personne⋅s :
- Cédric Villani
Source :

Vidéo

Lieu :

Hôpital du Valais, Spital Wallis - Suisse

Date :
Durée :

12 min 28

Évènement :

Healthcare innovation event - L’IA dans la pratique clinique

Licence :
Verbatim
Crédits des visuels :

Hospital sign, Free SVG vector files - Licence Creative Commons CC0

Avertissement : Transcription réalisée par nos soins, fidèle aux propos des intervenant⋅e⋅s mais rendant le discours fluide. Les positions exprimées sont celles des personnes qui interviennent et ne rejoignent pas nécessairement celles de l'April, qui ne sera en aucun cas tenue responsable de leurs propos.