L’IA n’existe pas Pas Sage en Steïr

Bonsoir tout le monde.
Je m’appelle Stéphane Bortzmeyer. Je vais clore cette première journée de Pas Sage en Steir avec une réflexion sur l’IA. Ce n’est pas très original comme sujet, d’autant plus que j’ai choisi un titre un peu sensationnaliste, j’ai honte. Tant pis !
Il y a des tas de choses dont on peut parler quand on parle d’IA et peut-être que certains d’entre vous s’attendent à un truc où je vais dire « il faut être pour l’IA, contre l’IA. L’IA c’est ceci, l’IA c’est cela. » En fait, je vais prendre un angle un peu différent. Vous avez déjà la conclusion dans le titre, vous pouvez vous arrêter là et aller prendre l’apéro. Mon but c’est plutôt de remettre en cause un peu ce terme d’IA et de montrer que ça peut désigner tout et n’importe quoi, donc ce n’est pas un terme extrêmement pertinent dans les débats scientifiques ou politiques.

L’IA peut tout pour vous

Vous le savez, l’IA peut tout pour vous, absolument tout. Par exemple, récemment deux influenceurs espagnols ont fait du buzz, relayés par un média sérieux, de qualité et de référence, BFM TV. Les deux influenceurs racontent qu’ils allaient en vacances à Porto Rico, territoire étasunien, ils ont demandé à ChatGPT s’il fallait un visa. ChatGPT, selon eux, leur aurait dit « non, il n’y a pas besoin de visa. » Pour ceux qui connaissent les États-Unis il faut un ESTA, un document qui a tout du visa à part le nom, en fait c’est exactement la même chose, mais officiellement il n’y a pas besoin de visa. Donc ChatGPT leur aurait dit ça et, à l’aéroport, ils se sont filmés en train de pleurer parce qu’on leur aurait dit « vous ne pouvez pas embarquer parce que vous n’avez pas le document en question. » Ce sont des influenceurs, on ne sait donc pas si l’histoire est vraie. Plusieurs personnes ont testé et ChatGPT dit bien « non, il n’y a pas besoin de visa, par contre il faut absolument avoir l’ESTA. » Ils ont probablement, en partie, bidonné l’affaire.
Le point important, à part que ça a permis à BFM TV d’avoir quelques clics, c’est que ça illustre le fait que beaucoup de gens, maintenant, utilisent un système appelé IA, qui rentre dans la catégorie IA, comme ChatGPT, pour absolument tout. Sur Twitter, il y a une IA qui s’appelle Grok. On voit des gens demander son avis à Grok sur des questions délicates, par exemple liées au conflit israélo-palestinien : « Est-ce que ce massacre a vraiment eu lieu ? ». On demande ça à une IA ! Vous voyez bien que pour un sujet aussi sensible, aussi délicat, en plus récent, on n’a pas forcément toutes les informations, demander ça une IA c’est dingue ! Des fois, on interroge l’IA sur d’autres sujets. J’avais demandé à ChatGPT ce qu’est Pas Sage en Steir. Il m’avait dit que c’est un festival de musique hip-hop qui se déroulait à Locmaria tous les printemps. Déjà ce n’est pas mal !
En tout cas, le point important c’est que beaucoup de gens utilisent maintenant l’IA comme un oracle généraliste.

Un autre exemple que j’ai vu dans le supplément Femina cet été, supplément féminin de la presse quotidienne régionale. Il y avait un article qui expliquait que ChatGPT n’est pas médecin, un article très bien, expliquant très bien les forces, les faiblesses de ChatGPT, ce qu’on peut faire ou pas, donc mettant plutôt en garde contre ça. J’ai appris, dans cet article, qu’il y a des gens, commet Virginie qui témoigne que quand elle a un problème, elle confie ses symptômes à ChatGPT – là, déjà, je passe le problème des données personnelles –et ensuite elle se soigne en fonction de ce qu’il a raconté. Ça paraît dingue, mais, apparemment, il y a des vrais gens qui font vraiment ça et, là encore, pour tout un tas de raisons compliquées, par exemple l’extrême difficulté d’avoir un rendez-vous avec un médecin, des trucs comme ça. Ça montre quand même un problème chez les gens.

Mais c’est quoi l’IA ?

On a parlé d’IA. Il n’y a aucun doute, c’est ChatGPT qui a remis à la mode le concept et le terme d’IA, mais que veut dire IA ? Ça veut dire « intelligence artificielle » tout le monde le sait.
Artificielle, OK, il n’y a pas de doute, ce sont des trucs qui tournent sur un ordinateur, on sait que c’est artificiel parce que des humains l’ont programmé, l’ont configuré. Il y a parfois des délires autour de l’idée d’une IA qui deviendrait indépendante, qui ferait des trucs par elle-même, c’est du délire complet ! On en est très loin : tout ce qui est fait par l’IA est fait par des humains, indirectement, mais c’est fait par des humains, donc c’est bien artificiel, c’est sûr.
Intelligence, c’est plus compliqué. D’abord, il faudrait déjà se demander ce qu’est l’intelligence. J’ai demandé à ChatGPT, je fais comme tout le monde, je suis paresseux, je demande à ChatGPT « qu’est ce que c’est que l’IA » et il me donne définition qui est nulle mais qui est courante. En gros ChatGPT, comme souvent, est aussi bon que la moyenne des journalistes ou des ministres. Il dit « un domaine de l’informatique qui vise à créer des systèmes capables d’accomplir des tâches qui, normalement, nécessitent de l’intelligence humaine. » C’est parfait parce qu’on ne sait pas non plus ce qu’est l’intelligence humaine, mais bon ! Ça donne effectivement une idée de ce que peut être une IA.

Mais c’est quoi l’intelligence ?

Vous trouverez des tas d’autres définitions possibles de l’IA qui déjà achoppent sur un premier problème évident : qu’est-ce que c’est que l’intelligence ? ChatGPT a parlé d’intelligence humaine, qu’est-ce que c’est que l’intelligence ?

L’intelligence

Les plus grands philosophes ont planché là-dessus je dis depuis 3 000 ans, mais peut-être depuis plus longtemps. Il y a eu beaucoup de bouquins là-dessus, des gens sérieux, des Luc Ferry ou des Eric Sadin aussi.
On a vraiment eu beaucoup de réflexion là-dessus et, comme souvent pour une question comme cela qui est difficile à saisir, en gros on n’a pas de consensus. Il n’y a pas de consensus sur ce qu’est l’intelligence. Il y a des coups de projecteur partiels sur cette réalité. Vous connaissez l’histoire de l’éléphant qui est dans une pièce obscure, plusieurs personnes sont à côté de l’éléphant, une tâte la trompe, une tâte les pattes et chacune a une vision complètement différente de l’éléphant et pourtant toutes touchent bien le même éléphant. On a un peu pareil pour l’intelligence. On connaît ou on comprend certains aspects de l’intelligence, mais d’autres nous échappent et on n’a pas de vision globale sur ce que ça peut vouloir dire.
Là encore, j’ai regardé plein de définitions de l’intelligence, par exemple une que j’aime bien « ce qui distingue l’homme de l’animal. » Ça n’aide pas pour le débat récurrent qui est : est-ce que l’intelligence est spécifique à l’être humain ? Débat qui peut avoir des conséquences pratiques par exemple sur les droits des animaux. Si on définit les choses comme ça, il n’y a plus de débat parce que, en fait, on a posé par définition que nous sommes intelligents et que les autres ne le sont pas. Ce n’est pas très utile comme définition, ça n’a pas grand intérêt pratique. À une époque, on aurait pu dire « ce qui distingue le blanc du noir » ou des choses comme ça. On a donc beaucoup de définitions de l’intelligence, mais dont beaucoup ne sont pas tellement opérationnelles et moi, en tant que technicien, je m’intéresse aux choses qui peuvent servir en pratique à prendre des décisions.
Là-dessus par exemple, par rapport aux animaux, le bouquin à lire absolument c’est le roman de Vercors, Les Animaux dénaturés, sur un problème qui ne s’est jamais posé dans la réalité, mais qui, dans ce bouquin de fiction, se pose. On découvre, dans un endroit vraiment paumé, un groupe d’êtres vivants dont on n’arrive pas, du premier coup, à dire si ce sont des hommes ou des animaux, ils sont quelque part entre les deux et tout le monde, tout au long du roman, s’écharpe en cherchant des signes qui permettraient de les classer de manière simple. Sans vous divulgâcher la fin, je peux vous dire qu’il n’y a pas de moyen simple de les distinguer. C’est assez amusant de voir, aujourd’hui, qu’il y a une assez net fossé entre l’Homo sapiens et les autres, mais c’est vrai que dans l’Histoire il y a d’autres espèces Homo, qui n’étaient pas sapiens, et on ne sait pas exactement comme on les aurait classés.
Ma définition préférée de l’intelligence, que j’aime bien, est aussi arbitraire et aussi nulle que les autres mais c’est la mienne, c’est « la capacité à définir des buts et pas juste à atteindre des buts », parce qu’il y a des tas de choses qui sont capables d’atteindre des buts : les robots sont capables de le faire, énormément d’animaux font ça sinon ils ne vivraient pas longtemps, le but typique étant de trouver à manger. L’intelligence c’est quand on n’est pas simplement capable d’accomplir une tâche mais de définir la tâche, y compris, par exemple, potentiellement de se rebeller, de refuser de la faire ou d’estimer que la tâche ne vaut pas la peine. Un truc classique en politique, quand on veut embrouiller les gens, c’est de leur demander un avis uniquement sur l’exécution d’une tâche, sans demander si la tâche elle-même est utile ou si la question n’est pas mal posée. Si vous faites un sondage : « À votre avis, que faudrait-il faire pour lutter contre l’immigration ? », en fait la question est déjà en soi un choix et c’est la question qui est le problème. Après, on peut trouver des réponses plus ou moins sympas à cette question, mais il faudrait avant tout remettre en cause la question.
Pour moi, c’est ça l’intelligence, donc ChatGPT sera intelligent le jour il dira à l’utilisateur « votre question est débile, je refuse d’y répondre » ou bien « vous êtes quelqu’un de pas sympa ». Actuellement il le fait, mais pas sur la base de son intelligence propre, il le fait parce qu’il a été programmé pour ça. Si vous demandez à DeepSeek, un concurrent chinois de ChatGPT, « est-ce que Taïwan est un pays ? », il dit « non, c’est une province de la Chine ». Si on lui demande « quels seraient les meilleurs moyens, pour Taïwan, d’atteindre l’indépendance ? », il va dire « il ne faut pas ! ». Ce n’est pas de l’intelligence, ça ne vient pas de sa réflexion, il a été strictement programmé pour ça.
L’intelligence est donc un concept flou, pas bien défini, donc les questions qu’aiment les philosophes médiatiques, genre ceux que j’ai cités tout à l’heure, que je ne vais pas citer à nouveau pour leur faire de la pub, qui aiment bien écrire des bouquins qu’on met en tête de gondole dans les librairies parce que ce sont des titres qui font vendre : « ChatGPT est-il vraiment intelligent ? », avec, en général, une réponse du genre « non, l’intelligence c’est nous, nous ne devons pas nous laisser dominer par la machine, l’humain doit rester supérieur, etc. ». De toute façon, ce sont des questions idiotes, déjà parce qu’on ne sait pas définir ce que ça veut dire. On trouve des définitions, comme je l’ai dit, il y a plein de définitions, et toutes cassent. C’est cela qui est rigolo dans le roman de Vercors : tout le monde a des définitions à proposer et à chaque fois, pour les êtres vivants qui sont l’objet du débat, on trouve une exception, un cas où ça ne marche pas, un problème. Je suis pas spécialement du côté des défenseurs des droits des animaux, mais le débat est intéressant parce qu’il est vrai qu’à une époque ça allait de soi que les animaux étaient tous complètement stupides et les progrès de la recherche ont montré que c’est plus compliqué que ça.

Et en informatique ?

En informatique maintenant. On s’intéresse quand même à des trucs informatiques.
Il faut savoir que le terme « intelligence artificielle » ne date pas de ChatGPT, c’est beaucoup plus ancien. Historiquement, c’était même le principal argument de vente de l’informatique. Dès les tout débuts de l’informatique, les gens qui voulaient obtenir des crédits pour la recherche en informatique, pour la construction d’ordinateurs, mettaient en avant l’intelligence. Même si le terme lui-même n’est apparu qu’en 1956, il y avait déjà eu, avant, beaucoup de références à l’intelligence ou au fonctionnement humain. Isabella a parlé de l’ENIAC dans sa présentation [1]. La construction de l’ENIAC a commencé en 1943/44, s’est terminée en 1945. C’est la première machine qui a introduit le terme de mémoire pour le fait de retenir des données qu’on pouvait resservir après, un terme qui vient de l’humain, qui vient des capacités du cerveau humain. C’est donc très ancien d’utiliser des références humaines pour l’informatique, avant même 1956.
Après 1956, ça a été très utilisé et pour ceux et celles qui ne connaissent pas l’histoire de l’IA, bien avant ChatGPT, l’IA en informatique est un thème récurrent avec des hauts et des bas. Il y a des moments où c’est la hype totale. Par exemple, quand j’ai commencé à bosser, je suis un peu plus âgé que la plupart d’entre vous, c’était super à la mode, puis ça a plongé, puis c’est revenu à la mode récemment avec notamment les outils analogues à ChatGPT, c’est donc un vieux truc, un vieux débat et une vieille promesse. Par exemple, dans les années 50, c’était la guerre froide, donc l’un des enjeux c’était soit la traduction automatique pour pouvoir traduire les messages des Russes immédiatement, en temps réel, soit le pilotage de missiles pour pouvoir riposter très vite, plus vite qu’un être humain, en cas d’attaque. À l’époque, si on voulait obtenir des crédits, il fallait promettre aux militaires qu’on allait mettre au point un système intelligent et les crédits affluaient. Heureusement, on n’a pas fait de guerre atomique pour vérifier si le système fonctionnait.
Même avant l’informatique, l’idée de créer quelque chose d’intelligent, pas juste une machine, pas juste un outil, est très ancienne. Là encore on peut citer plein de philosophes. Il y a une façon, pour des humains [via la sexualité, NdT], de créer un truc intelligent, qui marche bien, qui est ancienne, qui est même plutôt sympa, qui est gratuite, ce qui est un avantage ; enfin, la mise en route est gratuite, après il y a des dépenses ! C’est justement la période des allocations de rentrée scolaire, ça aide à payer les écrans plats !
Créer un truc intelligent est un vieux fantasme, mais on n’a pas défini clairement, même dans un contexte technique, même en se limitant à l’informatique, ce qu’est l’intelligence artificielle. On se dit que les informaticiens sont tous des gens rigoureux, sérieux, ce sont tous des hommes, ils sont tous barbus, ils sont tous rationnels, donc il doit y avoir, en informatique au moins, une définition que les scientifiques, que les ingénieurs comprennent et avec laquelle ils sont d’accord. Eh bien, non, non plus, il n’y en a pas ! Là encore, il y a un tas de propositions, mais il n’y a pas, même en se limitant à la communauté technique, de définition consensuelle de ce que peut être l’intelligence artificielle.
De toute façon, quand les scientifiques ou les ingénieurs en parlent, déjà ils n’en parlent pas forcément dans un sens pour le grand public, il y a ça aussi. Le grand public est beaucoup influencé par exemple par la science-fiction, Terminator qui frappe à la porte et qui demande « Sarah Connor ? », des choses de ce genre qui sont très loin des capacités des intelligences artificielles d’aujourd’hui. Quand les scientifiques et les ingénieurs en parlent c’est dans un sens différent. En plus, le même scientifique qui, avec ses pairs, va utiliser le terme « intelligence artificielle » dans un sens sérieux et restreint, sera le premier, quand il voudra obtenir des crédits, à utiliser le terme « intelligence artificielle » dans n’importe quel sens, n’importe quoi, du moment que ça brille et que ça lui obtient des crédits.
En pratique, ça veut dire que le terme IA est utilisé aujourd’hui pour désigner des techniques informatiques très différentes, qui n’ont quasiment aucun rapport. Il n’y a pas des catégories d’IA ni dans les articles, ni dans les logiciels, ni dans la répartition des tâches, parmi les scientifiques ou les ingénieurs. Par exemple, personne n’est pas spécialiste en IA. Il y a des spécialistes dans différents domaines qui sont appelés IA, mais personne n’a une vision globale de l’IA et maîtrise tous les aspects d’un truc qu’on appellerait l’IA, à aucun moment il n’y a ça, d’où le titre de mon exposé qui est « L’IA n’existe pas ». Alors si, il y a ça dans la fiche de poste de Clara Chappaz, secrétaire d’État chargée de l’Intelligence artificielle et du Numérique, mais les fiches de poste des ministres ne sont pas forcément rigoureusement définies. Dans le domaine scientifique, dans des conférences scientifiques où on parle d’IA, on constate qu’en général ce sont des conférences centrées sur un des aspects de l’IA, une des techniques qu’on appelle IA. Ça rend donc très difficile d’avoir un discours global sur l’IA genre « l’IA fait ceci, l’IA ne fait pas cela », il faudrait déjà que ça existe.

Des exemples de techniques qu’on appelle « IA »

Des exemples de ces techniques qui sont baptisées d’IA.
Les techniques d’apprentissage automatique. L’apprentissage automatique c’est l’idée que vous ne donnez pas un programme, toutes les informations, vous lui donnez la capacité à inférer des choses à partir d’exemples et après à les appliquer.
L’exemple classique, la reconnaissance d’images. Vous avez un logiciel qui sait faire de la reconnaissance d’images mais qui ne connaît rien. Votre but c’est de classer des photos de chats et de capybaras par exemple. Vous montrez au système des photos de chats en disant « ça c’est un chat, ça c’est un capybara, ça c’est un capybara, ça c’est encore un capybara, ça c’est un chat ». On a, depuis pas mal d’années, des logiciels qui, au bout de beaucoup de photos que vous lui aurez montrées, pourront vous classer des chats ou des capybaras sans trop se tromper. C’est un truc qui marche plutôt bien, pas à 100 % surtout si c’est mal éclairé, si c’est de loin ou des choses comme ça, mais ça marche plutôt bien, utilisant des techniques, vous verrez peut-être des termes comme « réseaux de neurones », qui n’ont rien à voir avec les neurones de notre cerveau mais ça fait bien de dire ça.
Donc la reconnaissance d’images et, d’une manière générale, ce qui repose sur l’apprentissage automatique, est maintenant une technique, entre guillemets, « relativement ancienne » maintenant, qui marche bien et qui a fait des progrès plutôt importants ces dix dernières années. Ça peut d’ailleurs avoir des conséquences politiques comme les débats autour de la reconnaissance faciale, des choses comme ça, mais ça marche plutôt bien et c’est utilisé dans plein de domaines, pas juste pour classer des chats et des capybaras ; les voitures autonomes ou les missiles autonomes, quand ils se déplacent, utilisent cela. Cet après-midi, il y avait un atelier de science participative sur l’enregistrement de plantes qui poussent dans la rue toutes seules, utilisant entre autres le logiciel Pl@ntNet [2]. Vous photographiez une plante et il vous dit « c’est telle espèce, c’est telle espèce ». Ça marche plutôt bien, il est même capable d’indiquer son degré de certitude ce qui n’est pas mal. Cette technique fonctionne bien, mais elle n’a absolument rien à voir, à aucun point de vue, avec d’autres techniques qu’on appelle IA.

Un truc très à la mode quand j’ai commencé à bosser, c’était l’IA symbolique [3], l’idée qu’on allait formaliser des conséquences. En interviewant un expert sur un sujet, on va prendre par exemple un médecin. On lui dit « voilà le résultat d’un test sanguin, qu’est-ce que vous en déduisez sur la santé du malade ? ». Le médecin va dire « j’en déduis qu’il a tel problème ». On va demander au médecin d’expliciter. Le médecin va dire, par exemple, « tel truc est à un taux important, en général ce n’est pas grave sauf si c’est combiné avec telle chose qui, là aussi, est à un taux important. » Je simplifie beaucoup parce que l’un des problèmes de l’IA symbolique c’est justement que ça supposait que le médecin, ou l’autre expert, suivait un raisonnement rationnel de ce type-là avec « s’il y a tel truc… alors…, sauf si…, etc. ». À une époque c’était très à la mode. Dans les années 80, si vous vouliez avoir des crédits, il fallait dire que vous faisiez un système expert, c’était le mot à la mode, et vous obteniez pas mal d’argent pour les systèmes experts. Par exemple, il y avait eu un projet de défense antimissile aux États-Unis reposant là-dessus. Là encore, heureusement, on n’a pas eu à le tester en vrai.

Et puis il y a ce qui est à la mode actuellement, ce qu’on appelle l’IA générative [4], celle qui sert à produire des textes, images et vidéos. Son principe : comme dans l’apprentissage automatique vous donnez plein d’exemples. Par exemple, pour générer des textes, vous donnez plein de texte et après, au lieu de reconnaître des données, comme dans la reconnaissance d’images, vous allez demander au système de faire des textes correspondant à ça et à des instructions que vous donnez, ce qu’on appelle le prompt. Ça marche pour la production de textes, d’images, maintenant de plus en plus de vidéos, et c’est clairement la mode actuelle, c’est le truc qui fait qu’on parle d’IA à Pas sage en Steïr. Depuis la sortie de ChatGPT, c’est devenu super à la mode, tout le monde parle de ça, en appelant ça IA tout court alors qu’en fait ça repose sur une technique qu’on appelle les LLM, [Large Langage Models], qui est une des techniques, mais d’autres logiciels d’IA n’utilisent pas du tout ce genre de chose, ne fonctionnent pas du tout de la même façon, ne produisent pas les mêmes résultats. Tout le monde connaît les LLM : ChatGPT, LeChat, Perplexity, Grok, LLaMA, DeepSeek, etc., il y en a plein et quasiment toutes les semaines il y en a un nouveau qui sort ou des nouvelles versions. Il y a plein de fric, les quantités d’argent levées sont considérables. Un article, ce n’était pas BFM TV, c’était plus sérieux – Les Échos ou L’Express –, expliquait que le nombre de milliardaires dans la Silicon Valley avait doublé depuis deux ou trois ans parce qu’ils ont des actions de leur société, la valorisation de ces sociétés grimpe, donc ils se retrouvent milliardaires. C’est assez virtuel, mais ce n’est pas grave, ça fait bien dans un article.

Ce sont des exemples des techniques qu’on appelle IA et il y en a encore beaucoup d’autres derrière, d’autant plus qu’aujourd’hui, si vous voulez obtenir l’attention et l’argent, il faut que vous disiez que votre système c’est de l’IA. De nos jours, tout système peut être baptisé IA.

Comment savoir si le logiciel est intelligent ?

Note au passage. Si jamais on arrivait à une définition de l’intelligence, ce qui n’est pas le cas, on aurait le problème pratique de l’appliquer à un logiciel, à un système informatique et de voir comment il est intelligent.
Comment teste-t-on si un logiciel est intelligent ? L’exemple le plus connu, vous l’avez vu par exemple dans le film Imitation Game avec Benedict Cumberbatch, c’est le test de Turing [5]. Un humain discute avec un interlocuteur, pas en présentiel sinon c’est trop facile, par exemple au téléphone, et va essayer de déterminer s’il est humain ou pas.
Pendant longtemps ça semblait une idée astucieuse, un test simple, faisable. En fait, ce test ne marche pas très bien. Aujourd’hui, des logiciels peuvent passer le test de Turing, ça peut être utilisé par exemple pour des escroqueries au téléphone. Un logiciel peut imiter la voix de quelqu’un en temps réel, ça marche plutôt pas mal s’il a eu beaucoup d’exemples avec lesquels s’entraîner, donc vous ne pouvez même plus être sûr que c’est bien votre PDG qui vous appelle et qui vous dit « virez tout de suite dix millions de dollars vers tel compte. »
Ça marche aujourd’hui, donc le test de Turing ne marche plus trop. Le problème qu’a toujours eu le test de Turing c’était que l’humain qui teste doit être compétent, il faut qu’il connaisse les pièges et les limites des systèmes informatiques, donc qu’il sache poser les bonnes questions. Quand c’est monsieur Tout-le-monde qui discute avec un interlocuteur, il se fait avoir plus facilement parce qu’il ne connaît pas. Historiquement, ça a été la grosse faiblesse du test de Turing. Il ne marche bien que s’il est fait par ce qu’on appellerait en sécurité informatique un pentester, c’est-à-dire quelqu’un de vicieux, quelqu’un qui connaît les pièges, qui va les exploiter, qui va essayer de planter le système en face.
Il y a d’autres tests plus rigolos, j’aime bien le test de la recette. Vous donnez une recette de cuisine à un robot, il faut que ce soit un robot physique parce qu’il faut qu’il puisse aller dans la cuisine, découper les courgettes, même aller les récolter. Il doit trouver les ingrédients, potentiellement aller au supermarché ou bien les cueillir dans le potager, et après préparer le plat. Il y a des tas de variantes du test de la recette, par exemple un des ingrédients n’est pas disponible. Dans un tel cas, un cuisinier humain se débrouille, soit il décide que l’ingrédient n’est pas essentiel, soit il trouve un substitut qui marche plus ou moins bien.
Ce test de la recette teste beaucoup de choses. Ce que j’aime bien aussi du point de vue politique, c’est qu’on a l’impression, parfois, que l’intelligence c’est savoir faire des trucs super compliqués, il faut sortir de Polytechnique ou de choses comme ça. En fait, des tâches qui semblent simples à un humain et qui semblent ne pas nécessiter une grande qualification, mettent en jeu beaucoup de compétences différentes, ce qui est le cas d’une recette de cuisine, surtout avec les pièges que j’ai dits genre « il n’y a pas de courgettes, il faut trouver autre chose à mettre dans le gâteau au chocolat. »
Une variante c’est le test du diplôme. Il ne s’agit pas simplement de passer les examens, on a des logiciels qui savent faire cela, il s’agit de faire tout le processus : s’inscrire à la fac, passer les entretiens d’évaluation, suivre les cours, passer le diplôme, sachant que les profs pourront mettre des trucs imprévus dedans. Un test simple, trivial, en général il est passé, encore que demander à ChatGPT combien font 3 + 4, selon les versions de ChatGPT on obtient des résultats plus ou moins rigolos. Par contre, il peut passer certains tests. L’intérêt que je vois au test du diplôme, c’est qu’il montre surtout que la valeur de la plupart des diplômes est contestable, puisque, aujourd’hui, on a effectivement des logiciels qui sont capables de passer certains diplômes.
En fait, le gros intérêt de tout le débat autour de l’intelligence artificielle, c’est que ça montre qu’on ne savait pas ce qu’était l’intelligence et on avait même des idées fausses à ce sujet. Par exemple, on considère que telle tâche est compliquée alors que telle autre est simple, et on constate qu’un robot arrive à faire celle qu’on trouvait compliquée mais n’arrive pas à faire celle qui était simple, là on se pose des questions. Une fois, un roboticien m’avait expliqué que la tâche la plus difficile pour un robot c’est de faire la vaisselle, parce qu’il faut prendre les couverts assez fort pour qu’ils ne tombent pas, mais pas trop fort. Le robot est costaud, il pourrait, par exemple, écraser les verres à vin sont plus fragiles ; il faut les voir alors que dans l’eau savonneuse on ne voit pas bien, la vision est pas mal déformée, il faut donc mobiliser tout un tas de compétences qui ne sont pas évidentes. On a l’impression que faire la vaisselle n’est pas une tâche qualifiée, mais, en fait, on ne sait toujours pas la faire faire par un robot. Alors que faire un robot qui va à 2 000 kilomètres de là faire exploser une bombe sur un tank ennemi, on sait faire, aucun problème, ça marche très bien, alors que c’était considéré comme une tâche plutôt difficile.
Donc tous ces tests ont leurs limites. En fait, c’est une conséquence du problème dont j’avais parlé. Comme on ne sait pas ce qu’est l’intelligence, faire un test d’intelligence, c’est assez difficile. Ça montre aussi que même quand on essaye de mettre en pratique les définitions on a des problèmes, on a toujours des trucs qui coincent, des cas particuliers. Dans le roman de Vercors, il y a même un procès, à un moment, parce qu’il y a des conséquences pratiques. Il y a notamment des gens qui se disent « ces êtres vivants qu’on a trouvés, dont on ne sait pas trop si ce sont des humains ou des animaux, si ce son des animaux, on peut les faire travailler gratuitement ; si ce sont des humains, on n’a pas le droit », donc ça se termine en procès.
Le gros intérêt de tous ces tests, c’est de permettre de voir qu’il y a des tâches dont on croyait qu’elles nécessitaient de l’intelligence, alors que pas forcément.
Par exemple, un des trucs que ChatGPT sait le mieux faire, essayez ça au bureau c’est formidable, c’est faire des mots d’excuses pour son chef quand un projet est en retard. C’est vraiment le genre de truc complètement pipeau, c’est comme une lettre de motivation avant un recrutement, c’est complètement pipeau, tout le monde sait que c’est pipeau, tout le monde sait que ça ne vaut rien, de toute façon le chef se fout des excuses, il voudrait que le truc soit terminé. Comme ChatGPT a plein d’exemples à sa disposition pour ça, il sait très bien générer des super mots d’excuse.

Une blague (?) traditionnelle

Une blague traditionnelle, en informatique : ce qu’on ne sait pas faire faire à un logiciel à l’heure actuelle, on appelle ça de l’IA. Dès qu’on y arrive, ce n’est plus de l’IA, on dit juste que c’est de l’informatique ordinaire. Pas mal de tâches ont subi ce sort-là.
Dans ce cas-là, l’IA serait quelque chose qui se déplacerait dans le temps, ça serait toujours la frontière qu’on n’a pas encore atteinte. Par exemple, à une époque, le test de Turing était effectivement quelque chose qu’on ne savait pas faire. Maintenant des logiciels arrivent, dans certaines conditions, à passer le test de Turing, donc on dit, tout à coup, que finalement ce n’est plus un test d’intelligence.
Un exemple encore meilleur. Pendant longtemps savoir faire des calculs numériques, c’est-à-dire des opérations compliquées, multiplier 2585 par 84 par exemple, était considéré comme un test d’intelligence. Quelqu’un qui savait faire des gros calculs numériques vite et de tête, c’était « waouh, c’est une grosse tête, il a la bosse des maths », c’était valorisé socialement et c’était clairement considéré comme un signe d’intelligence. Aujourd’hui, n’importe quelle calculette achetée dans un supermarché fait ça plus vite et mieux. On a donc un cas où on a compris que quelque chose qui nous semblait difficile ne l’est pas. Par contre, il y a des trucs, comme l’exemple de la vaisselle que j’avais cité, qu’on ne sait toujours pas faire faire.
ChatGPT ou ses copains savent faire des trucs qu’avant un logiciel ne savait pas faire. On pourrait en déduire qu’ils sont devenus intelligents, mais on pourrait en déduire aussi qu’en fait on n’avait pas compris que ces tâches-là ne nécessitaient pas vraiment d’intelligence.
Si l’étudiant utilise ChatGPT pour passer le diplôme, on peut s’interroger sur nos méthodes d’évaluation. Ce qu’on évaluait, est-ce que c’était vraiment les compétences de l’étudiant ou est-ce que c’était autre chose qui peut être fait par un logiciel ?, juste avoir mémorisé un certain nombre de trucs et ressortir ça plus ou moins.
On avait d’ailleurs cité le tout à l’heure, dans un des débats, le film Les Figures de l’ombre, un des intérêts de ce film ce ne sont pas juste les histoires de sexisme et de racisme, un des intérêts c’est que ça se passe au moment où les calculs numériques commencent à être faits par des ordinateurs alors qu’avant ils étaient faits par des humains ; computer, en anglais, autrefois c’était un humain ou une humaine et le film se passe au moment le computer commence à devenir un ordinateur, il y a tout une incertitude déjà sur ce que vont devenir les calculateurs et les calculatrices humaines et ensuite ce que ça veut dire sur le statut des gens. J’ai lu très souvent, dans les médias, par exemple que la nouveauté des LLM comme ChatGPT c’était qu’avant l’informatique automatisait des tâches bêtes et maintenant l’informatique automatise des tâches intelligentes. C’est complètement faux ! L’informatique a toujours automatisé des tâches que les humains considéraient comme des tâches difficiles et nécessitant de l’intelligence, le calcul numérique étant un bon exemple.

On a l’inverse aussi. Il y a au contraire des techniques anciennes, qu’on n’appelait pas IA, elles étaient maîtrisées, qu’on rebaptise IA maintenant parce que le terme est à la mode. Vous voyez ça dans la description des logiciels par exemple.
Par exemple les systèmes anti-spams, qui vont décider si un message est un spam ou pas, ils ont tous, aujourd’hui, marqué IA alors qu’en fait ce sont les mêmes qu’il y a dix ans, avec les mêmes problèmes et des techniques genre les statistiques bayésiennes qui sont des techniques mathématiques, je ne dirais pas simples, en tout cas qu’on n’avait pas baptisées IA avant.

Cerveaux électroniques

Là c’est l’exemple d’une bande-dessinée qui date de 1965, c’était sur le problème justement de l’anthropomorphisation des ordinateurs, l’un des personnages dit : « On a transmis les paramètres au cerveau électronique de la General Dynamics. » En 1965, le terme ordinateur n’existait pas encore, on disait donc « cerveau électronique » parce qu’il y avait la promesse dont j’ai parlé, la promesse que va faire un truc intelligent. D’ailleurs, voilà la réponse des cerveaux électroniques, ça n’a pas traîné [« Merci">de vos compte-rendus gentlemen. Vous avez fait de l’excellent travail. Grâce à vous, nous allons peut-être enfin avoir des résultats positifs »]. Il y avait tout un côté magique. Ce terme de « cerveau électronique » marque surtout une époque, il a été utilisé dès le début de l’informatique et en France il a duré jusqu’à ce qu’il y ait « ordinateur », en anglais c’est finalement computer qui s’est imposé. On ne dit plus « cerveau électronique », mais j’ai trouvé ça trop rigolo et ça marque une époque.

Mais pourquoi est-ce important ?

Pourquoi est-ce important cette histoire ?
Je viens de passer pas mal de temps à épuiser votre patience pour expliquer qu’en fait on ne sait pas trop, qu’intelligence ce n’est pas bien défini, qu’IA ne veut rien dire, etc. Pourquoi est-ce important ? Parce que le terme IA est aujourd’hui un de ces termes qui visent à bloquer le débat. Quand on dit « il y a de l’IA », c’est réglé, c’est terminé, le problème disparaît. Par exemple ce matin, donc je le sais [Un tweet sur X de Jonas Haddad, NdT]. Le type est apparemment député LR, il a dit : « J’ai proposé que chaque plateforme soit obligée d’intégrer une IA qui coupe immédiatement tous les contenus illégaux. » C’est d’une débilité rare, notamment parce que c’est déjà difficile, pour un humain, d’évaluer si un contenu est illégal, même juriste – il est juriste, paraît-il , c’est donc énorme de la part d’un juriste. Beaucoup de gens l’ont critiqué en disant « il est vraiment con, il n’y connaît rien en informatique ! ». Le plus grave c’est qu’il n’y connaît rien en droit, ce qui est quand même assez embêtant pour un juriste ! Vous voyez l’idée, on cite « IA » et là, plus rien, plus personne ne se demande, après, « est-ce que c’est une bonne idée ? Est-ce que c’est bien ? N’est-ce pas un problème potentiel par exemple pour la liberté d’expression ? ». Non, on dit « IA » et le problème est réglé, parce que l’IA c’est intelligent, c’est le coup des influenceurs, au début, à qui ChatGPT a dit qu’ils n’avaient pas besoin de visa ou ce genre de choses.
C’est pour cela que c’est important. Un terme comme « intelligence artificielle » n’est pas innocent, ça vise à empêcher la discussion, à empêcher de comprendre ce qui se passe et à bloquer les discussions politiques.

Ça peut aussi mener à anthropomorphiser, c’est-à-dire à faire croire que c’est humain et à prêter à des logiciels des comportements humains qu’ils n’ont pas, qu’ont peut-être leurs concepteurs mais pas les logiciels eux-mêmes. Par exemple quand on dit qu’une IA est raciste parce qu’elle a émis des propos racistes, ça me met vraiment mal à l’aise parce que raciste suppose une intention. Certains humains sont racistes ou sexistes, les IA non ! Elles appliquent des processus sans les comprendre, justement, donc n’ont pas d’intention, n’ont pas d’opinion, n’ont pas de préjugés ; leurs concepteurs peuvent en avoir et ça se reflète dans le logiciel qu’ils ont fait, mais l’IA elle-même n’en a pas. Déjà, elle n’est responsable de rien. Ce qui empêche beaucoup d’humains de tenir des propos injurieux ou racistes, c’est qu’il y a des conséquences sociales. Si vous traitez tout le temps les gens de connards, au bout d’un moment plus personne ne vous parlera, donc il y a des conséquences dans les actes. Pour l’IA il n’y a pas de conséquences, il n’y a pas de problème, donc elle ne rentre pas dans cette catégorie.
De même quand on dit que ChatGPT a menti, ce que disaient les influenceurs dans le cas, mentir suppose qu’on connaît la vérité et qu’on décide de dire autre chose. Ce n’est pas du tout ce que fait une IA. Elle produit des trucs qu’elle ne comprend pas, elle n’est pas intelligente.
Donc le terme intelligence artificielle peut être très trompeur et il mène à des tas d’erreurs de classement : on demande de faire des IA éthiques ! Un humain peut agir de manière éthique ou pas, un logiciel non, il produit des résultats

Conclusion

En conclusion.
Idéalement, je vous recommanderais d’arrêter d’utiliser le terme IA, c’est un terme trompeur. Des gens m’ont dit « oui, mais le terme est consacré par l’usage et, dans le domaine de la langue, c’est l’usage qui compte, pas la normalisation. » Ce sont des conneries. La langue peut changer, peut évoluer, les mots ont une importance. Les mots portent avec eux tout un tas d’idées, donc les mots qu’on utilise sont importants, ce n’est pas innocent d’utiliser tel terme plutôt que tel autre, ce n’est pas innocent, pour les impôts, de parler charges sociales plutôt que de cotisations sociales, des choses comme ça. Tous les mots sont importants, donc consacrés par l’usage, non ! Rien à foutre de l’usage. On peut le changer. IA est donc un terme qui est dangereux.
D’un autre côté, je suis réaliste, je ne m’attends pas à ce que tout le monde fasse immédiatement ce que j’ai dit et arrête d’utiliser le terme IA, d’ailleurs moi-même je l’utilise, mais au moins, au minimum, soyez prudents ou prudentes. Soyez prudents et soyez conscients du fait que fondamentalement c’est un mot qui est flou, il n’a pas de définition scientifique ou technique précise, en plus c’est un terme à charge marketing, qui a été inventé pour ça. C’est un terme qui a été inventé par des chercheurs qui, comme tous les chercheurs, cherchaient avant tout des financements, avaient besoin de financements, donc avaient inventé ce terme-là en disant « c’est bon, on va dire qu’on va faire un truc intelligent, ça va mieux marcher. » Il faut en être conscient, même si on utilise ce terme, au moins l’utiliser avec prudence.
Le coup du tweet du député c’était ce matin, je n’ai pas eu le temps de l’intégrer dans les slides, mais lundi, la ministre du Numérique et de l’IA a annoncé que pour la rentrée des classes, qui est bientôt, il y aurait des cours d’IA obligatoire en quatrième et en seconde. Il y a beaucoup de choses à dire. La plupart des critiques ont notamment pointé le fait que, comme d’habitude, on ne dit pas quels seront les cours qui seront supprimés en échange, parce que les horaires ne sont pas extensibles à l’infini, on ne dit pas comment les profs seront formés et quand, on ne dit même pas quel est le programme. Ce qui m’a surtout frappé dans cette annonce, c’était quel va être le contenu : « IA », seul, ça ne veut rien dire. Le terme IA sert à faire croire que la ministre est super moderne, qu’elle annonce des trucs tout nouveaux, mais en fait on ne sait pas. Parmi toutes les techniques que j’ai citées, par exemple, on ne sait pas laquelle ce sera, la liste n’est pas connue.
Les statistiques bayésiennes sont accessibles en seconde, ce n’est pas complètement idiot, peut-être qu’en quatrième c’est un peu rude. Il me semble que je les ai apprises plus tard, mais je ne suis pas un bon exemple. Est-ce que ça sera simplement utiliser ChatGPT ? Est-ce qu’il y aura une réflexion critique sur l’IA ? Ou, en fait, il n’y aura rien ? On ne sait rien. Plein de gens ont interpellé la ministre parfois en disant « super, très bonne idée, bravo », mais en disant « est-ce que vous pourriez donner des détails ? ». Évidemment, on n’a pas eu de détails parce que le terme IA sert à bloquer toute discussion.

À vous

Je m’arrête là. Vous avez peut-être des questions, des remarques, même des objections, si ça se trouve il y a des gens qui ne sont pas d’accord ou le dîner pour ceux qui n’ont pas dîné, les autres pourront toujours aller boire au bistrot.
À vous. Il y a un joli micro qui circule. Le micro est indispensable pour les gens qui sont à distance, qui ne sont pas dans la salle et pour l’enregistrement de la session. Même si vous avez une voix qui porte, merci d’utiliser le micro.

[Applaudissements]

Questions du public et réponses

Stéphane Bortzmeyer : Je m’attends, pour commencer le débat, à ce que quelqu’un me propose sa définition de l’IA, qui règle le débat et qui clôt un débat philosophique vieux de 3 000 ans.

Public : Il faudrait déjà qu’on arrive à définir intelligence !

Public : En fait, ton exposé est juste complètement énervant ! On conclut en disant que c’est fait pour faire diversion alors qu’il y a plein de problèmes sociaux, ça ne répond à rien, par contre ça fait diversion pour faire bling-bling. Je ressors hyper énervée de ta présentation. Qu’est-ce que c’est que cette affaire ? Ça ne va pas du tout !

Stéphane Bortzmeyer : Pour t’épargner un ulcère, je pourrais dire que l’IA n’existe pas, mais ChatGPT existe, DeepSeek existe, les logiciels de reconnaissance d’images ou de reconnaissance faciale existent, il y a plein d’autres trucs, ceux-là existent et posent des réelles questions, sociales, politiques, économiques, tout ce qu’on veut, on peut en discuter. Il me semble qu’il y a eu pas mal de discussions là-dessus, mais souvent faussées ou brouillées par cette idée, justement, que le logiciel était intelligent.
Un exemple typique, je crois qu’on en a parlé aujourd’hui, le problème de l’accès aux services publics qui se veut uniquement fait via une interface utilisateur et éventuellement un logiciel derrière qui prend des décisions, type Parcoursup ou des trucs comme ça. Ça a souvent été traité en termes « ce n’est pas bien que ce soit un logiciel qui prenne une décision, ça devrait être un humain. » C’est idiot, c’est toujours un humain qui prend la décision et qui, éventuellement, la fait appliquer, la fait tourner par un algorithme, mais les décisions sont toujours celles d’un humain. Donc, en se focalisant sur le terme intelligence artificielle, on ne comprend pas vraiment quel est le problème. Le problème n’est pas que c’est un logiciel qui a pris la décision, parce que ce n’est pas le cas, le problème c’est qu’on juge la décision mauvaise.
Il y a donc plein d’autres débats possibles, mais il me semble qu’ils ont, en partie, déjà beaucoup eu lieu. J’ai donc essayé de prendre un angle un peu original.

Public : J’ai apprécié que tu aies fait une espèce de parcours en arrière, en disant que c’était hyper récurrent que le terme IA soit réutilisé, qu’on place le terme intelligence partout. Est-ce que tu peux essayer une prédiction ? Est-ce que ce truc-là, du coup, va se crasher à nouveau et ça ressortira encore dans 20 ans, puisque c’est ce qui s’est passé précédemment ? C’est ce que tu dis, ça fait des boucles.

Stéphane Bortzmeyer : Oui, il y a effectivement des boucles qui sont assez fréquentes.
Ceci dit, à chaque fois ça laisse des trucs qui ont marché. L’exemple typique c’est tout ce qui est reconnaissance d’images, ça marche plutôt bien, ça a fait pas mal de progrès depuis dix ans, ça va rester. De même les IA génératives fonctionnent et je pense qu’elles sont là pour rester aussi parce que c’est utile pour des tâches critiques comme écrire les lettres de motivation, répondre à des examens idiots, des choses comme ça. Ça ne va pas disparaître, je pense plutôt que ça se sera banalisé et qu’on trouvera un autre truc qui brille, qu’on appellera IA dans le futur. Ça a déjà commencé par exemple avec tout le débat autour de l’intelligence artificielle générale, c’est-à-dire une intelligence qui saurait absolument tout faire. Et encore plus fort, la singularité, c’est le moment à la fois où l’IA sera plus intelligente qu’un humain et surtout sera capable de s’améliorer elle-même. À partir de là, ça va partir à toute vitesse. Tout ça c’est de la science-fiction. On n’a aucune idée de si c’est possible, actuellementon en est très loin. ChatGPT n’est même pas capable de savoir ce qu’est Pas sage en Steïr, c’est donc mal parti !
Je pense que ces techniques vont rester. Par exemple, si vous vous posez des questions sur les IA génératives, les IA qui produisent des textes, des images, des vidéos, je pense ça va rester, ça fonctionne, ça rend des services dans certains cas, que ce soit bon ou pas, c’est une autre histoire. Il y a des techniques qui sont mauvaises mais qui sont restées quand même, par contre, au bout d’un moment, ça ne sera plus classé comme IA et ça n’apparaîtra plus comme IA.

Public : J’ai une question de capitaliste. Quand on voit l’argent qu’ils foutent dedans, est-ce que ça peut devenir rentable à un moment ou à un autre ?

Stéphane Bortzmeyer : On s’en fiche, ça n’empêche pas de gagner de l’argent. Je rappelle qu’une boîte comme Uber, par exemple, dont tout le monde a entendu parler et dont tout le monde pense que c’est un grand succès au sens capitaliste du terme, n’a jamais été bénéficiaire, jamais, pas une seule année. Dans le domaine de la tech, de l’informatique, c’est assez banal comme situation : des tas de boîtes n’ont jamais été bénéficiaires. Twitter, avant son rachat par Musk, n’avait jamais été bénéficiaire. Depuis le rachat par Musk, c’est même un formidable gouffre à argent. Il faut voir aussi que cet argent est largement virtuel. Il y avait un article de L’Express, ou du Point, sur le doublement du nombre de milliardaires dans la Silicon Valley, en fait c’est évalué en multipliant le nombre d’actions qu’ils ont de la boîte par la valeur des actions à l’heure actuelle. Si on prend par exemple Facebook, qui fait que, sur le papier, Zuckerberg est très riche, s’il vendait ses actions, d’abord le cours s’effondrerait très vite et ensuite il y aurait tout un tas d’autres conséquences, la principale c’est que le cours s’effondrerait très vite et il ne trouverait personne à qui vendre à ce prix-là. C’est souvent de l’argent qui, toute façon, est virtuel.
Mais c’est vrai que de gros investissements sont faits. La plupart des boîtes qui se disent faire de l’IA n’ont pas de mal à lever des fonds, elles en récoltent plein, ce qui prouve qu’il y a de l’argent magique, sans problème. Après, savoir si elles vont gagner de l’argent, je n’ai pas ce point de vue-là, je n’ai pas d’actions de ces boîtes-là, donc savoir si elles vont gagner de l’argent, ou pas, je n’en sais rien. En plus, je ne suis pas forcément bon prophète. On a parlé cet après-midi des noms de domaines, pour le premier .com que j’ai enregistré, .com était encore gratuit à l’époque. La première fois que c’est devenu payant j’ai dit « c’est ridicule, personne ne sera jamais prêt à payer pour des noms de domaine ! ». Vous voyez que je suis assez mauvais pour faire des pronostics, il ne faut pas compter sur moi pour savoir quoi faire de votre épargne.

Public : Je me demandais ce que peut donner l’intelligence artificielle et le domaine médical. On sait que c’est déjà utilisé plus ou moins, comment et comment ça fonctionne ?

Stéphane Bortzmeyer : Il y a des tas d’utilisations. La plus souvent citée, c’est l’analyse de données médicales, typiquement d’images. Les images c’est quelque chose de non structuré, ce n’est pas un ensemble de données facilement traitables, jusqu’à récemment on ne savait pas tellement traiter automatiquement les images, à part appliquer des transformations, éclaircir, assombrir, des choses comme ça, mais on ne savait pas tellement en tirer d’informations. Les systèmes de reconnaissance d’images ne fonctionnent pas mal. L’exemple souvent cité ce sont des radios où l’IA détecte une tumeur alors qu’aucun médecin, ayant vu la radio, ne l’avait détectée, des choses comme ça. Ce n’est pas mal, mais c’est l’informatique. C’est courant qu’un logiciel trouve, dans une masse de données, quelque chose qu’aucun humain n’avait vu. Si je demande de chercher dans la Bible l’unique occurrence du mot, n’importe quel mot, « gâteau au chocolat » – dans la Bible peut-être pas, on ne sait jamais – un humain aura du mal. Même s’il lit complètement la Bible, il y a de fortes chances qu’il le rate. Alors que pour un logiciel, c’est trivial, au contraire. Ce genre d’applications marche, elle me paraissent une bonne utilisation de l’informatique. La capacité d’un ordinateur, c’est la capacité à regarder beaucoup d’images sans intérêt, sans s’ennuyer, sans s’endormir. Un humain qui examinerait des radios toute la journée à la recherche de tumeurs, même s’il était capable de les voir, le problème qu’il aura c’est que rapidement son attention baissera, alors que l’attention du logiciel reste constante. Cette partie-là est plutôt bonne.
La partie qui coince c’est quand, après, il s’agit de prendre des décisions et c’est une affaire qui est très délicate. Parfois des gens s’en tirent en disant « de toute façon, il y aura toujours un humain dans la boucle, la décision restera à un humain. » C’est casse-gueule parce que les humains sont paresseux, donc rapidement, une bonne partie des médecins, dans ce cas-là, ne mettra plus en cause le jugement de l’IA. Ce que je crains le plus c’est que, sur le papier, ce soit toujours la responsabilité de l’humain, on répète que l’humain est toujours dans la boucle, on ne l’a pas sorti, il est toujours là, mais en pratique, la paresse humaine et l’efficacité des logiciels font que les gens, au bout d’un moment, ne font plus attention et disent oui. En plus, on pourrait avoir des effets pervers. Par exemple, aux États-Unis on fait des procès pour un oui ou pour un non, surtout pour les erreurs médicales, on pourrait voir un médecin devoir se justifier d’être passé outre le jugement de l’IA. Alors que s’il dit « c’est ce que disait l’IA », à cause de l’effet d’éblouissement dont je parlais, ça passera.
Le cas s’est déjà réellement produit aux États-Unis, pas à propos d’un truc médical, mais à propos d’un juge qui avait accordé une permission de sortie à un détenu malgré l’avis de l’IA qui disait que le détenu en question était dangereux. Le détenu a commis un délit durant sa permission. Aux États-Unis les juges sont élus, le juge n’a pas été réélu suite à une campagne là-dessus.
Le problème est plutôt là, mais là encore c’est un problème humain : les humains sont paresseux. En gros, l’idée derrière ce système, c’est qu’il y aurait un système informatique qui regarderait les données du patient, proposerait un traitement, et l’humain aurait un bouton « OK, pas OK », ou « OK, mais modifier ». Vous voyez comment ça se passe avec les logiciels aujourd’hui, l’humain va cliquer sur « OK ». C’est plutôt là que je vois un problème.

Public : On utiliserait l’intelligence artificielle comme on le faisait il y a quelque temps à propos de l’informatique. Quand on n’avait pas satisfaction pour quelque chose, pour une démarche ou autre chose, l’interlocuteur disait « c’est la faute de l’informatique ». Ça n’a jamais été la faute de l’informatique, c’est le logiciel qui n’était pas bon ou les données qui étaient mal rentrées. Je pense que l’IA peut aussi devenir ce prétexte-là dans certains domaines.

Stéphane Bortzmeyer : Tout à fait. L’argument « c’est dans l’ordinateur » ou « l’ordinateur ne veut pas », que j’avais entendu dans une université française à propos d’un étudiant qui demandait un changement de sa mention de genre suite à une transition. L’argument avait été « l’ordinateur ne peut pas » ou carrément « ne veut pas », ce qui est encore plus ridicule.
Donc oui, effectivement, cet argument-là risque de perdre de son poids, il faut donc le raviver, le repeindre, l’IA peut être pratique pour cela et ça risque effectivement d’arriver. C’est pour cela que je dis qu’il ne faut pas utiliser une expression où il y a intelligence à cause de ce risque : qu’on considère comme effectivement intelligent et plus fort.
Il serait plus intéressant de comprendre là où l’ordinateur est fort et là où l’humain est fort. Qu’un humain vérifie des calculs numériques compliqués, j’avais cité 2328 multiplié par 284, ça n’a guère de sens. Clairement, pour cela, le programme est bien plus fort qu’un humain, se trompe beaucoup moins, il y a moins de problèmes. Par contre, l’humain devrait être capable d’évaluer. Par exemple, dans le cas de ChatGPT avec le visa pour Porto Rico, un humain aurait dû savoir que sur ces questions qui sont délicates, en plus avec des règles administratives compliquées comme le fait de ne pas appeler visa ce qui est en fait un visa, en plus ce sont des trucs qui changent régulièrement, alors que ChatGPT n’est pas forcément mis à jour, un humain intelligent, d’intelligence naturelle, aurait dû savoir que c’est un point sur lequel les logiciels comme ChatGPT sont particulièrement faibles. Par contre, on peut leur faire confiance pour d’autres trucs qui sont moins critiques.

Public : Comment ChatGPT est-il mis à jour et comment, par qui ?

Stéphane Bortzmeyer : Il y a plusieurs sortes de LLM, le terme technique pour ces logiciels de génération de textes ou d’images, gérées par des compagnies différentes, avec des politiques différentes. La plupart du temps c’est assez opaque. On ne sait pas réellement quand est-ce que c’est mis à jour, comment, on ne sait pas à partir de quels corpus de données. Certains LLM montrent un peu d’ouverture, ce n’est jamais complètement ouvert, mais il y a plus ou moins d’ouverture, plus ou moins de transparence sur ce qu’il y a dedans. ChatGPT est un des plus opaques de ce point de vue-là. C’est donc mal parti. Pour ceux qui prétendent être ouverts, il y a pas mal de guillemets à mettre autour de « ouverts » et on n’a jamais tout complet.
« Ouvert » est justement un terme marketing souvent utilisé pour certains LLM, mais qui n’est jamais défini précisément. Au minimum, ça devrait dire qu’on connaît le corpus d’entraînement, c’est-à-dire tous les textes qu’ils ont ingérés. Je n’en connais aucun qui fait ça.

Public : J’avais une remarque, mentionner quand même que tout cela consomme énormément d’énergie et on n’en a pas parlé. C’est un vrai problème du fait que s’ils sont obligés de construire des centrales nucléaires pour qu’un datacenter fonctionne, il y a un problème derrière.
Je voulais vous demander aussi, par rapport aux contenus, aux réponses qui sont générées par les chatbots, il y a la question des données personnelles, vous en parliez tout à l’heure. À quel moment ce qu’on donne de nous, en posant une question à un chatbot, rentre dans sa capacité à apprendre encore ? Et, à partir de ce qu’il va générer, est-ce que, plus tard, il va apprendre de ce qu’il a généré lui-même ? Ne risque-t-on pas, après, d’avoir des modèles de langage qui sont entraînés sur ce que les précédents ont généré et finalement arriver à des trucs peut-être de plus en plus de mauvaise qualité ?

Stéphane Bortzmeyer : Alphago a fonctionné comme ça. C’est un logiciel qui joue au go et il a appris en jouant contre lui-même. Ça a plutôt bien marché parce qu’il a battu le champion du monde. D’un autre côté, les jeux comme le go ou les échecs sont très cadrés, avec des règles très strictes, c’est un monde très fermé, donc le logiciel est plus avantagé. Par contre, l’humain est plus avantagé dans un monde ouvert, où il y a pas de règles bien précises, où on ne sait pas bien.
Pour ce qui est de la consommation énergétique, je me méfie parce que l’IA nourrit énormément de fantasmes, positifs ou négatifs.
Positifs, c’est la ministre qui dit que ça va tout résoudre et ramener la croissance.
Négatifs, ce sont les gens qui disent « c’est horrible, c’est terrible, les IA sont racistes, sexistes, consomment, boivent de l’eau et des trucs comme ça. » C’est souvent un fantasme technophobe, voire réactionnaire, qu’il peut y avoir à peu près pour toutes les techniques.
Quand on évalue la consommation énergétique d’une technique, il ne faut pas seulement regarder ce qu’elle consomme, mais aussi ce qu’elle apporte. Si on estime que ça n’apporte rien, toute consommation énergétique est effectivement trop, mais si ça apporte quelque chose, toute activité humaine a une empreinte environnementale. Par exemple, j’ai fait des slides, je les ai passées avec un ordinateur, tout cela a une empreinte environnementale. Je pense que ça en vaut la peine, après je surestime peut-être la valeur de mon exposé ! De même, on filme et on diffuse à distance, ça a aussi une empreinte environnementale. Il ne suffit pas de dire que ça a telle empreinte environnementale, il faudrait aussi l’évaluer par rapport à ce qu’on gagne en échange.
J’observe, qu’il y a, aujourd’hui, pas mal de discours qu’on lit un peu partout sur l’empreinte environnementale de l’IA, j’en vois très peu sur l’empreinte environnementale de la publicité par exemple. La publicité est une vache sacrée, là on ne peut pas en dire du mal, à part quelques gauchistes au fond de la salle, sinon c’est globalement au-delà de la critique. On ne passera pas à la télé à une heure de grande écoute pour critiquer l’empreinte environnementale de la publicité ou, par exemple, de la surveillance de masse.
Donc juste prendre en compte la consommation d’énergie, ce n’est pas suffisant, il faut voir ce qu’il y a en face, parce que, sinon, on ferait rien.
C’est d’ailleurs un autre domaine où il y a une certaine opacité, on ne sait pas exactement ce qui se passe, on ne sait pas exactement ce qui est fait. Comme il n’y a pas de définition précise de l’IA, dire que la consommation environnementale de l’IA c’est tant, c’est absurde puisqu’on ne sait pas exactement ce que ça veut dire.
Par exemple, les publicités que vous voyez sur le Web, que vous verriez si vous n’aviez pas un bloqueur de publicités, parce que, évidemment, vous avez tous un bloqueur de publicité, mais si vous n’en aviez pas, vous verriez des publicités qui ont été sélectionnées dynamiquement en fonction de votre historique de navigation, par un logiciel très complexe, qu’aujourd’hui on pourrait baptiser IA puisqu’il est assez complexe. À ce moment-là, on aurait un bond de l’empreinte environnementale de l’IA.
Je pense que ce n’est pas vraiment le bon angle. On peut discuter après d’efficacité, on peut discuter de beaucoup de choses, mais ce n’est pas forcément le bon angle de discussion pour une analyse critique de l’IA.

Public : Une dernière question, après il va effectivement falloir qu’on libère la salle.
La question : pourquoi est-ce qu’aujourd’hui on voit un buzz autour de l’IA quand ça commence à remplacer du boulot de journaliste ou d’artiste alors que personne n’a bougé quand on a automatisé des chaînes de robotique ou autres ?

Stéphane Bortzmeyer : Peut-être parce que les gens qui ont le monopole de la parole publique sont journalistes et pas OS sur une chaîne de montage !
C’est effectivement une possibilité.
Là encore, contrairement à un discours convenu comme quoi l’IA s’attaque cette fois à des emplois qualifiés, ce qui n’était pas le cas avant, ce n’est pas vrai. À une époque, par exemple, des tas de gens étaient dessinateurs industriels. C’était un métier bien payé, qualifié, bien considéré, qui a été complètement balayé par l’informatique en très peu de temps. Ce n’est donc pas nouveau que l’informatique remplace des métiers plutôt qualifiés, plutôt cols blancs. Quand ce sont des journalistes, ils ont effectivement plus de capacités à faire connaître leurs inquiétudes.
Ceci dit, il y a des vrais problèmes. Mais cette histoire de la machine qui remplace l’homme est assez compliquée. Je suis notamment un grand fan de Paul Lafargue, l’auteur du Droit à la paresse , si la machine remplace l’homme tant mieux, c’est très bien. Le seul problème c’est que, dans notre société, ça se traduit pour l’humain par une perte de revenus, une perte de considération sociale, mais c’est absurde. Logiquement, tout devrait aller mieux si la machine remplace l’homme, c’est donc un problème social, donc il faut changer la société. Mais là il est 20 heures, on va pas pouvoir le faire tout de suite !

[Applaudissements]