Sasha Luccioni, voix off : Je n’aime pas la manière dont on vend l’IA générative comme la solution à tous les problèmes et c’est ça qui me dérange parce que non, ça ne va pas résoudre tous nos problèmes, ça va peut-être en créer plus que ça n’en résout. Mais, il y a quand même des utilités à l’IA générative. Il faut juste être très conscient des cas d’utilisation. Je pense qu’il y a une part de marketing, il y a une part de naïveté, il y a une part de plein de choses. Je pense que les gens ne se rendent pas compte que l’IA peut être utilisée pour le recrutement, peut être utilisée pour la justice, pour l’éducation, pour la santé. C’est pour cela que c’est d’autant plus important qu’il y ait de la diversité autour de la table lors de la création de ces outils, parce que, en fait, après ça, ces décisions vont impacter éventuellement des millions de personnes.
C’est un peu le rôle que je me suis donné, en tout cas que j’ai accepté, de toujours être celle qui fait chier sur un panel, qui va dire « oui, tout ce que vous avez dit c’est beau, mais les coûts de tout ça ? ». Je pense que la conversation va commencer à intégrer les coûts autant que les bénéfices, parce que c’est vrai que c’est le nouveau joujou, et puis on a tendance à ne penser qu’aux fonctionnalité de ce joujou et pas forcément au prix. En fait, malheureusement, comme les gens ne connaissent pas les coûts, ils ont tendance à penser qu’ils n’existent pas.
J’ai fait le choix très conscient de pas gagner autant d’argent, mais de travailler chez Hugging Face parce que je crois vraiment dans la mission de démocratisation et aussi dans le progrès graduel, parce que, en fait, je peux entraîner un modèle, le mettre sur Hugging Face, passer à autre chose, quelqu’un peut le reprendre, l’adapter, continuer à construire, faire une start-up, vendre.
Mick Levy, voix off : C’est l’approche ouverte de Hugging Face.
Sasha Luccioni, voix off : Incrémentale.
Je pense que d’ici quelques années, on va arrêter d’essayer de mettre de l’IA narrative partout et on va se concentrer, effectivement, sur les cas de figure qui fonctionnent.
Diverses voix off, film Titanic : À partir de maintenant, quoi que nous fassions, le Titanic va sombrer.
N’est-ce pas qu’on ne peut pas couler !
Il est fait d’acier. Monsieur, je vous assure qu’il peut couler.
Il coulera.
Voix off : Trench Tech
Cyrille Chaudoit : Let’s go, bienvenue à toi, et puis à toi, et puis toi aussi, dans ce nouvel épisode de Trench Tech avec, à mes côtés, Mick Levy.
Mick Levy : Bonjour, bonjour.
Cyrille Chaudoit : Et évidemment, Thibaut le Masne, un tout petit peu plus loin. Il est toujours là quand même.
Thibaut le Masne : Salut, salut.
Cyrille Chaudoit : Bien avant de couler tous ensemble, comme dans le film Titanic, mais cette fois avec la propagation des IA, j’ai une question simple pour vous, Messieurs. Combien mesures-tu, Mick ?
Mick Levy : Un mètre quatre-vingt-six. Pourquoi veux-tu le savoir ?
Cyrille Chaudoit : OK. Tu connais ta taille et tu sais la mesurer, rien de problématique.
Mick Levy : Non, ça va.
Cyrille Chaudoit : Thibaut.
Thibaut le Masne : Si tu comptes me demander mon poids, tu peux toujours te brosser.
Cyrille Chaudoit : Ne t’inquiète pas, je ne te trouve pas trop gros, Thibaut. Je voulais te demander combien tu gagnes. En tout cas, tu connais sûrement le montant, et puis ta femme, ton banquier, ton DRH, bref, plein de gens le savent et peuvent donc, ainsi, mesurer ta valeur sur le marché du travail. Bref, dans nos vies de tous les jours, on ne cesse de dénombrer, de mesurer, quantifier, depuis les minutes qui nous séparent de la prochaine visio jusqu’au ROI [Retour sur investissement] de la moindre décision stratégique. On sait même évaluer l’empreinte carbone de son entreprise pour la compenser, ça c’est bien. Mais bizarrement, il y a un truc qui est entré dans nos vies quotidiennes, dont la mesure ne semble pourtant pas vraiment nous intéresser, avez-vous une idée les gars ?
Thibaut le Masne : Mesurer ton temps de parole.
Mick Levy : L’environnement ? C’est un peu chaud.
Cyrille Chaudoit : Je ne l’ai pas volé sur mon temps de parole. Non, je parle de l’impact environnemental de l’intelligence artificielle générative. Eh bien oui, nous avions déjà eu du mal à éclairer le débat autour de l’impact environnemental du numérique en général, faute de chiffres clairs et validés, vous vous souvenez sûrement de nos épisodes avec Gilles Babinet [1] et puis avec l’Adème [2]. Mais, avec l’explosion de l’IA générative, de plus en plus de modèles entraînés et la croissance exponentielle de nos usages persos et pros, les chiffres qui circulent semblent à la fois gigantesques et largement incomplets.
Comme d’habitude, nous sommes allés chercher la meilleure experte pour en parler – j’aime nous mettre la pression – Sasha Luccioni.
Mick Levy : Belle prononciation.
Thibaut le Masne : Oui, superbe prononciation. Bravo !
Cyrille Chaudoit : Pour tout le monde, ça se prononce Sasha Luccioni et pas Lucchioni, comme disent Mick et Thibaut.
Sasha est chercheuse en IA et pionnière dans les domaines de l’éthique et du développement durable, elle était, écoutez bien, Climate Lead chez Hugging Face.
Mick Levy : Pas mal. D’ailleurs, on avait reçu Giada Pistilli [3]- Trench Tech qui était, elle, en charge de l’éthique chez Hugging Face. On lui fait un petit coucou.
Thibaut le Masne : Oui. Qu’on a reçue plus tôt, dans l’épisode 13.
Cyrille Chaudoit : Exactement cette saison, épisode 13.
Mais ce n’est pas tout, Sasha est aussi membre fondatrice du Climate Change AI [4], une organisation à but non lucratif. Sasha a LA solution pour quantifier l’empreinte carbone de l’IA, mais ce n’est pas tout, elle travaille également sur des sujets d’inclusion et aussi à éradiquer les biais sexistes dans la tech, qui nous mettent vraiment en rogne chez Trench Tech. Enfin, et c’est la classe, elle figure parmi les 35 innovateurs de moins de 35 ans du MIT et, depuis peu les amis, dans les 100 personnes influentes dans l’IA, désignées par Time Magazine.
Mick Levy : Au niveau mondial, c’est assez exceptionnel.
Cyrille Chaudoit : Au niveau mondial, ça va de soi. Avec un tel pedigree, tu ne pensais pas que c’était au niveau régional quand même !
Avec Sasha, nous pourrons donc dresser un panorama des impacts de l’IA, puis interroger des pistes de solutions avant de nous demander si ces dernières sont vraiment compatibles avec les intérêts business des entreprises qui font et celles qui utilisent ces technologies.
Si vous nous écoutez pour la première fois, voici une surprise pour vous. Oui, cet épisode cache en son sein deux pépites, deux chroniques que vous allez adorer pour reprendre votre souffle : « Un moment d’égarement » de Laurent Guérin et la « PhiloTech » d’Emmanuel Goffi. Et, dans moins d’une heure maintenant, nous évoquerons, juste entre vous et nous, des idées clés partagées avec Sasha dans cet épisode. Alors restez bien jusqu’au bout.
Bonjour, Sasha.
Sasha Luccioni : Bonjour. Merci pour l’introduction.
Cyrille Chaudoit : Tout est vrai ?
Sasha Luccioni : Tout est vrai.
Mick Levy : C’est impressionnant.
Sasha Luccioni : À chaque fois, ça me fait rougir ! À chaque fois, je ne sais pas où regarder.
Cyrille Chaudoit : Il ne faut pas, c’est bien. Avoir des femmes à ce niveau-là, qui sont présentes et pas invisibilisées, ça nous fait plaisir.
Mick Levy : C’est clair.
Cyrille Chaudoit : C’est une tradition chez nous, Sasha, on se tutoie, est-ce que c’est OK pour toi ?
Sasha Luccioni : Oui. Je vis au Canada et je pense que j’ai perdu la conjugaison du vous, officiellement. Ici on vient au restaurant et « salut, ça va ?, tu vas bien ? »
Mick Levy : C’est ce que j’appelle le tutoiement radical, vous le faites assez naturellement, en vérité, mais c’est plutôt pas mal de l’adopter comme ça.
Sasha Luccioni : Quand je suis arrivée au Canada, on m’a dit « il faut au moins garder une personne qu’on vouvoie, parce que sinon on oublie. » J’ai dit « mais non, ce n’est pas possible ! », et c’est vrai. La seule personne que je vouvoie c’est ma directrice de thèse, sinon, tout le reste, c’est « tu ».
Mick Levy : Moi, c’est ma boulangère.
Cyrille Chaudoit : Chacun son truc. Moi, je vouvoie le chien du voisin.
Donc, on va déménager au Canada pour tous se tutoyer et c’est parti pour notre grand entretien. On est bien dans Trench Tech et ça commence maintenant.
Voix off : Trench Tech – Esprits critiques pour Tech Éthique
Panorama des impacts de l’IA
Mick Levy : Sasha, Cyrille l’a dit, pas facile de mesurer l’empreinte environnementale des IA. C’est même un sujet qui me donne des cauchemars ou, parfois, m’empêche de dormir. Honnêtement, je suis ravi qu’on puisse en parler avec toi aujourd’hui. Tu t’emploies justement depuis un bon moment à tenter de la mesurer. Tu as publié plusieurs études de référence, dont une qui fait vraiment référence pour le coup, qui est Power Hungry Processing : Watts Driving the Cost of AI Deployment ? [5] je le dis très mal en anglais.
Cyrille Chaudoit : Dis-le en français alors !
Mick Levy : En gros : « Des traitements d’IA gourmands en énergie : est-ce que ce sont les watts – la mesure de l’énergie –, qui déterminent le coût de déploiement de l’IA ? ». Que révèlent ces études ? Est-ce que tu peux déjà nous brosser un petit peu le tableau des études que tu as réalisées sur ces sujets-là.
Sasha Luccioni : Tout à fait. Je pense que j’ai commencé en me focalisant sur la phase entraînement.
En gros, un modèle d’IA a plusieurs phases de cycle de vie, si on veut, et le premier, normalement, c’est l’entraînement. C’est là qu’on prend les données et on entraîne le modèle à apprendre une tâche. Par exemple, dans les modèles de langue, ça va être la prédiction du prochain mot, parfois ça va être la classification, ça dépend. En tout cas, les premières études, c’est vraiment sur cette phase-là. Tout le monde pensait que c’était la phase la plus gourmande en énergie du cycle de vie de l’IA. C’est vrai que, souvent, ça représente des dizaines, voire des centaines de tonnes de gaz à effet de serre, ce sont vraiment des kilowattheures, des milliers de kilowattheures d’énergie. Après, l’étude à laquelle tu fais référence regarde vraiment la phase de déploiement.
Mick Levy : Ce qu’on appelle l’inférence, chaque utilisation qu’on a, chaque fois qu’on fait une demande, un prompt, une requête à ChatGPT, chaque fois qu’on génère une image avec Midjourney ou toutes ces grandes IA-là, chaque fois qu’on fait une action comme celle-là, dans le grand public, c’est ce qu’on appelle une inférence. Vous avez donc montré que le coût de l’inférence est loin d’être nul, c’est ça ?
Sasha Luccioni : Exactement. Avant on ne regardait pas, parce qu’on se disait que c’était minime comparé à l’entraînement, que ça ne valait vraiment pas la peine de regarder. Et puis c’est vrai que c’est beaucoup moins, mais on a quantifié plusieurs choses.
On a montré que passer de l’IA extractive à générative, par exemple, quand on fait de la réponse aux questions, d’un côté on va extraire l’information d’un texte existant et, de l’autre côté, on va générer la réponse avec un modèle génératif. On a trouvé que la différence entre ces deux types de fonctionnement, il y a vraiment de grands ordres de grandeur de différence. On a aussi montré que pour les modèles de langue génératifs, je pense que c’est entre 10 millions et 50 millions de requêtes qui vont utiliser autant d’énergie qu’un entraînement de ce modèle-là, ce qui parait beaucoup, mais je pense qu’il y a des dizaines de millions de personnes qui utilisent ChatGPT par jour, donc éventuellement tous les jours, ça utilise autant en énergie que tout son entraînement.
Mick Levy : Quand tu parles de comparaison avec des modèles extractifs, un modèle extractif, c’est, par exemple, une recherche Google, on va dire à l’ancienne.
Sasha Luccioni : À l’ancienne, exactement, maintenant c’est génératif aussi.
Sasha Luccioni : Maintenant, Google a mis du génératif. Mais les recherches Google, telles qu’on les a connues dans les années 2000 et 2010, on va dire, par rapport à une demande à ChatGPT, je lisais que ChatGPT consomme dix fois plus d’énergie pour répondre à une question qu’une recherche Google. Ce n’est pas le même job, mais c’est dix fois plus. C’est ça l’ordre de grandeur ?
Sasha Luccioni : Ce sont des estimations. En fait, le problème avec tout ça, comme tu l’as bien dit au début, c’est qu’il n’y a pas d’information, ce ne sont donc que des estimations. Je pense que c’est plus que dix fois, je pense c’est plutôt dans les 50 fois, mais ni Google ni OpenAI donnent les chiffres, on a donc du mal à estimer ça.
Cyrille Chaudoit : Le côté extractif, sans être trop technique pour moi et pour tout le monde qui nous écoute, ce n’est que l’équivalent d’une requête sur Google ? Ou, lorsqu’on fait un prompt, par exemple à ChatGPT pour lui demander d’analyser un PDF, n’est-ce pas aussi de l’extraction de données d’un corpus qui se trouve être un PDF et après il génère la réponse ? C’est juste pour comprendre ce qu’est la différence entre extractif et génératif.
Sasha Luccioni : Normalement extractif, c’est vraiment quand on travaille avec du contenu déjà existant et on va l’extraire, on va le retourner comme réponse et on ne peut pas prendre autre chose. Par exemple, si on a un document qui a certains mots, on ne peut pas prendre un synonyme : si on parle de Paris, on ne peut pas, tout à coup, commencer à répondre à des questions sur Montréal parce que ce mot n’est pas dans l’article en question.
Les modèles génératifs, tels que ChatGPT, peuvent faire de l’extractif, mais ils sont toujours en mode génératif, c’est-à-dire qu’ils ont été entraînés sur des données. Les hallucinations sont un bon exemple. Il peut toujours commencer à parler de Montréal, même si on a donné un document sur Paris. On va dire « compare Paris à Montréal », il peut quand même répondre à la question, même si l’information n’est pas directement dans le documents fourni.
Cyrille Chaudoit : Avant de développer le coût de des inférences, est-ce qu’on peut revenir sur ce qui génère ces kilowatts, toute cette consommation énergétique et ce CO2 lors de l’entraînement ? C’est vrai que ça a été souvent discuté par les experts, dans les médias, mais peut-être que tout le monde n’a pas bien compris ce qui venait vraiment générer du CO2. Schématiquement, qu’est-ce qui se passe ?
Sasha Luccioni : Lors de l’entraînement, on va utiliser comme des ordinateurs, mais ce sont des ordinateurs qui sont quand même assez spécifiques, on appelle ça des GPU, ce sont des unités de processing graphique qui, à la base, ont été développées pour des jeux vidéo ; maintenant ils sont utilisés pour l’entraînement d’IA.
Cyrille Chaudoit : C’est Nvidia qui produit ça.
Sasha Luccioni : Exactement. En fait, la différence entre un CPU [Central Processing Unit] qui est vraiment utilisé dans les ordinateurs qu’on utilise tous les jours et un GPU [Graphics Processing Unit], c’est que les GPU peuvent faire des calculs en parallèle, ils peuvent faire beaucoup de choses en parallèle et pas en séquentiel. C’est donc pour cela qu’on a commencé à les utiliser pour l’entraînement de l’IA, parce qu’on peut faire plein de calculs en même temps. À la base, on pouvait entraîner un modèle d’IA sur un seul GPU, même mon laptop, par exemple, avec un GPU, pouvait entraîner un petit modèle. Mais, maintenant on a des grands modèles qui nécessitent des milliers ou des dizaines de milliers de GPU qui travaillent en parallèle. Normalement, pour des modèles comme LLaMA [Large Language Model Meta AI], comme GPT, etc., on va utiliser des milliers de GPU pendant des milliers d’heures de calcul. On va comptabiliser ça en millions d’heures de calcul et chaque heure de calcul utilise une certaine quantité d’énergie. Il s’avère que les GPU, comme ils sont très puissants en termes de calcul, ils utilisent beaucoup d’énergie aussi comparée aux CPU, donc quand on multiplie cette énergie par les millions d’heures de calcul, ça donne une somme assez conséquente d’énergie. Pour générer cette énergie-là, il faut du nucléaire, mais souvent, en fait, l’énergie utilisée pour l’IA, ça va être soit du gaz naturel, soit du charbon.
Mick Levy : Ça dépend du mix énergétique sur le terrain donné. Du coup, ça donne quelque chose de plus ou moins carboné.
Cyrille Chaudoit : Ça dépend du pays.
Sasha Luccioni : Le problème, c’est que les centres de données qui ont assez de GPU pour entraîner des modèles de langue, comme GPT et LLaMA, sont dans des endroits qui n’ont pas d’énergies renouvelables. Les gros centres de calcul, par exemple, sont souvent aux États-Unis, dans l’État de Virginie. Dans cette zone-là, il y a ce qu’on appelle des Data Centers Alley. Ils sont des milliers de centres de données, parce qu’il y a beaucoup d’énergie, et c’est de l’énergie qui est notamment à base de gaz naturel. Le problème, un peu, ça fait partie de tous ces problèmes-là, c’est qu’ils demandent tellement d’énergie, c’est tellement un condensé d’énergie nécessaire, qu’on a du mal à avoir assez de production d’énergie à base d’éolien ou solaire pour pouvoir à alimenter ces gros centres de données, parce qu’ils sont tellement gourmands que, en fait, il n’y a que le gaz naturel qui puisse répondre.
Cyrille Chaudoit : J’ai même entendu dire que certaines de ces Big Tech envisagent de créer des mini-centrales nucléaires.
Sasha Luccioni : Même même pas des minis ! Récemment, Microsoft a fait une entente avec une centrale nucléaire où il y a eu un gros accident, il y a plusieurs décennies, et qui a été décommissionnée depuis 10/15 ans. Maintenant, ils vont la remettre en marche, mais que pour Microsoft, et c’est une vraie centrale nucléaire, ce n’est pas une mini, c’est vraiment un gros truc.
Mick Levy : Et ce serait la première fois au monde qu’on rouvrirait une centrale nucléaire qui a été arrêtée, encore plus après un incident.
Sasha Luccioni : Exactement. C’est assez grave.
Mick Levy : Les ministres français ont rappelé et ont appelé les grandes IA à venir entraîner leurs modèles en France, parce qu’en France on a de l’énergie qui est peu carbonée et qu’on peut encore étendre, manifestement.
Sasha Luccioni : Mais pas indéfiniment. Il me semblait, quand même, qu’on ne peut construire dix centres de calcul hyperscale, comme on dit, d’un coup en France, ça ne va pas passer. Il n’y a pas la capacité.
Mick Levy : La problématique autour des EPR, etc. De toute façon cette énergie est nécessaire.
Cyrille Chaudoit : Dans 70 ans peut-être !
Sasha Luccioni : Exactement. Pas tout de suite.
Mick Levy : Revenons à nos moutons. Ce que vous avez montré c’est OK, l’entraînement, ça prend énormément d’énergie one-shot, mais c’était déjà un peu documenté, ça ne surprend personne. Ce que vous montrez, c’est que l’inférence prend aussi énormément d’énergie.
Autre statistique que je lisais : on génère une image sur un outil de génération d’images, comme Midjourney, comme Bing Image Creator, comme Adobe Firefly et quelques autres, j’en cite plusieurs exprès, Leonardo AI et d’autres, c’est l’équivalent, en énergie, de la charge d’un smartphone. ?
Sasha Luccioni : En fait, ça c’est la génération d’images de haute définition, ils ne vont pas tous générer des images d’une telle grande qualité, je pense que c’est souvent plus petit. On a quand même montré que les modèles qui étaient, pas puissants mais qui généraient les images de la plus grande qualité parmi ceux qu’on a regardés, c’était vraiment une quantité assez extravagante d’énergie. C’est vrai qu’en réalité, quand ces modèles-là sont mis en production par des compagnies, souvent ils font des optimisations, souvent ils vont générer plusieurs images d’un coup. C’est vraiment un chiffre théorique, un peu le pire des scénarios, mais c’est vrai qu’en réalité, ça va être beaucoup moins. En fait, on fait plein d’ingénierie. On fait beaucoup de petits trucs pour rendre ces modèles plus efficaces en production.
Thibaut le Masne : Comment vous y êtes-vous pris pour faire ces calculs sur l’impact ?
Sasha Luccioni : Hugging Face, la compagnie dans laquelle je travaille, est une plateforme de partage de modèles, de données et je pense qu’on a passé le cap d’un million de modèles. Il y a vraiment beaucoup de modèles que des gens entraînent, des compagnies entraînent et les mettent sur cette plateforme, histoire de partager, de contribuer à l’open source et aussi de faire utiliser son modèle. Donc, pour chacune des dix tâches qu’on a regardées – falsification de texte, réponses aux questions, génération d’images, génération de textes, etc. – on en avait dix, on a pris les 20 ou 25 modèles les plus populaires de la plateforme Hugging Face, on les a téléchargés, puis on a fait des calculs sur « génère 1000 images, génère 1000 mots, etc. » et on a comptabilisé la quantité d’énergie et de gaz à effet de serre. Notre instance était en Oregon dans l’ouest des États-Unis, je pense donc que l’énergie était un mix de hydro et gaz naturel.
Thibaut le Masne : D’accord. C’est donc par l’expérience que vous avez commencé à regarder.
Sasha Luccioni : Nous avons fait des expériences nous-mêmes et, pour mesurer la quantité d’énergie utilisée, on a utilisé un outil qui s’appelle CodeCarbon [6]. C’est un outil qu’on a créé il y a cinq ans maintenant, peut-être six ans même, c’est un package open source, en Python, que les gens peuvent télécharger et utiliser pour, justement, pouvoir mesurer la consommation énergétique de n’importe quel code, pas forcément de l’IA et aussi, basé sur l’adresse IP, estimer la quantité de gaz à effet de serre émise lors de ce processus-là.
Cyrille Chaudoit : Ça peut être intéressant. Si, parmi celles qui nous écoutent, il y a des DSI, ils peuvent le télécharger, le faire tourner sur leur propre bécane et vérifier tout ce qu’ils produisent avec des IA, quelle est l’empreinte carbone.
Mick Levy, voix off : Là où je travaille, on utilise ce module-là au quotidien.
Sasha Luccioni : Comme la licence est assez permissive, on peut même l’intégrer. Je sais que les plateformes, dans les compagnies, vont souvent être internes ou vont être « commerciales », entre guillemets, donc on peut aussi intégrer CodeCarbon là-dedans, on n’est pas obligé de tout partager librement, par exemple, si on ne veut pas utiliser l’adresse IP. On a quand même mis plusieurs options pour que les gens soient confortables avec l’utilisation.
Mick Levy : Cela dit, CodeCarbon, c’est effectivement sur la partie du code. Le problème que tu pointais dès le début de l’épisode, c’est beaucoup sur l’inférence, parce que, même si chaque inférence prise seule ce n’est pas grand-chose, mais on a maintenant 200 millions d’utilisateurs actifs de ChatGPT à travers le monde chaque semaine, en hebdomadaire, ça crée donc un volume énorme. Qu’est-ce qu’on peut apporter ? Qu’est-ce que tu te dis, toi, face à ça ?
Sasha Luccioni : J’insiste sur la transparence et je pense qu’il faut continuer à demander une transparence, une communication plus claire sur les coûts énergétiques et surtout, dans les cas où ce sont des outils vraiment très populaires, c’est d’autant plus important de montrer aux gens ce que c’est. En fait, les gens sont de plus en plus conscients de leur impact carbone, donc, donner ces chiffres-là pour qu’ils puissent intégrer ça dans leur accountability de tous les jours.
Ce qui me dérange aussi particulièrement, c’est que maintenant, souvent, il y a de l’IA générative sans qu’on ait la possibilité de ne pas l’utiliser, par exemple pour les recherches Google, on n’a pas de choix, on n’a pas forcément eu ce choix-là et on n’a pas la différence, on ne nous dit pas « avant, une recherche Google c’était tant ».
Cyrille Chaudoit : On n’a pas d’alternative, genre old fashion de Search, en gros, et puis la nouvelle forme.
Sasha Luccioni : Exactement.
Cyrille Chaudoit : On va revenir sur les usages dans la prochaine séquence parce qu’il y a probablement beaucoup de pédagogie à faire pour effectivement éviter que tout le monde aille, bille en tête, sur les IA génératives, sans se demander si on a réellement besoin, que ce soit le grand public ou les professionnels. On va développer ça.
En revanche, en matière d’externalités négatives, celles qui sont à craindre par rapport aux IA ne sont pas uniquement d’ordre environnemental. Comment les biais en matière de diversité et d’inclusion, ce que l’on appelle la « D&I », rejaillissent-ils dans notre utilisation des intelligences artificielles ? Je sais que c’est un sujet qui te tient particulièrement à cœur, dont tu parles dans ton TED Talk [7] tu as aussi fait çA ! Allez voir le TED Talk de Sasha. Comment vois-tu la problématique ?
Sasha Luccioni : En fait, je pense que les gens ne se rendent pas compte. C’est vrai qu’il faut avoir de la diversité dans tous les domaines, idéalement, mais l’IA c’est vraiment tellement vaste et ça peut être intégré dans tellement de domaines, ce n’est pas un domaine en tant que tel, mais l’IA peut être utilisée pour le recrutement, peut être utilisée pour la justice, pour l’éducation, pour la santé, c’est pour cela que c’est d’autant plus important qu’il y ait de la diversité autour de la table lors de la création de ces outils, parce que, après ça, ces décisions vont impacter éventuellement des millions de personnes ailleurs qu’en informatique. Ce qui me dérange dans mon quotidien, c’est qu’il y a vraiment, en ce moment, une homogénéité des gens qui créent les modèles d’IA. Il y a vraiment un manque de diversité de genre, de background culturel, ça fait que ces modèles sont souvent représentatifs, comme Giada en a parlé, de ce groupe de personnes-là. En fait, c’est normal, on est un peu biaisé par son expérience. C’est difficile pour nous, en tant qu’êtres humains, de concevoir l’expérience de l’autre sans l’avoir vécue.
Cyrille Chaudoit : Tu veux dire que ce n’est pas forcément volontaire.
Sasha Luccioni : Non, ce n’est pas du tout volontaire !
Cyrille Chaudoit : Mais, aujourd’hui, les faiseurs d’IA nous mettent entre les mains des outils qui traduisent leur vision du monde, une vision homogène. C’est ça ?
Sasha Luccioni : Exactement ! L’exemple un peu anecdotique mais qui est vrai : à un moment donné, Apple avait entraîné un modèle pour filtrer les CV sur ses employés actuels. Ça a fonctionné super bien pendant plusieurs années et puis ils sont rendu compte que dès qu’il y avait le mot « femme » ou tout dérivé du mot femme, genre « équipe féminine de volley-ball », le CV était rejeté parce que, en fait, il n’y avait pas de femmes qui travaillaient dans ces postes-là, c’étaient des postes de programmation chez Apple. Ça leur a pris deux ans, parce que les modèles d’IA ne vont pas dire comment ils prennent des décisions, en fait, c’est juste binaire, : est-ce que le CV passe ou pas ? Ils se sont rendu compte deux ans, trois ans après, que toutes les femmes se faisaient rejeter leurs CV. Ce n’était pas du tout voulu, c’est juste que 90 % des gens qui travaillaient déjà chez Apple étaient des hommes et les gens qui ont entraîné ce modèle étaient des hommes aussi, donc, ils n’ont jamais fait ce test-là.
Cyrille Chaudoit : C’est bien de préciser que ceux qui ont entraîné le modèle étaient des hommes, parce que, jusque-là, l’exemple montrait plus les biais qui sont portés dans les datasets que les biais de conception en tant que tels.
Sasha Luccioni : Mais ce sont les deux !
Cyrille Chaudoit : Oui, mais on pourrait penser, avoir cette idée que celui qui fabrique l’IA, parce qu’il est raciste ou qu’il est macho, va la programmer de telle sorte à ce que ça évince certaines populations. Ce n’est pas tellement ça, c’est plutôt les datasets avec lesquels c’est entraîné. En revanche, tu peux gérer les paramètres pour essayer de rééquilibrer ça. C’est extrêmement complexe. On a vu ce qui s’était passé à la sortie de Gemini de Google ; ils avaient essayé de finetuner à mort, mais ça faisait n’importe quoi aussi.
Sasha Luccioni : Il n’y a pas de bonne réponse, en fait.
Cyrille Chaudoit : Il n’y a pas de bonne réponse.
Mick Levy : La bonne réponse se trouve dans la société et pas dans la manière dont sont construites les IA. Ça peut être ça aussi.
Sasha Luccioni : En fait, chaque personne, chaque groupe de personnes ou chaque cas d’usage de Gemini va demander un modèle légèrement différent. C’est ce genre de réflexion qu’il faut avoir, parce qu’on ne peut jamais avoir un modèle qui plaît à tout le monde et c’est impossible d’essayer de faire ça.
Mick Levy : Imagine-moi le pape de demain. On peut tout à fait avoir envie de répondre avec des images de pape noir, des images de pape femme, etc., on peut avoir ou ne pas à avoir, c’est selon comment on se situe. Par contre, donne-moi des images des papes, là on a des images de papes noirs ou de papes féminines, ça ne marche plus du tout et c’est ce qui s’était passé avec Google.
Cyrille Chaudoit : En l’occurrence, c’est surtout sur les Waffen-SS que ça posait problèmes.
Mick Levy : Il y avait de multiples problèmes, mais, effectivement, Google avait cherché à redresser les biais un peu en apprenti sorcier et à appliquer ça sur tout son modèle de génération d’images, ce qui avait créé un tollé assez incroyable.
On peut quand même revenir sur la partie environnementale. Cyrille, tu nous as amené sur les biais, mais la partie environnementale me…
Cyrille Chaudoit : On le sait et on est tous touchés, mais les sujets d’inclusion sont importants aussi.
Mick Levy : Évidemment ! Quelques chiffres, Sasha, transparaissent quand même. Google a annoncé avoir augmenté ses émissions de gaz à effet de serre de 48 % depuis 2019, Microsoft a annoncé 30 % entre 2020 et 2023. On voit bien que depuis l’avènement de l’IA, depuis que ces deux entreprises mettent vraiment le paquet sur l’IA générative, il y a une explosion de leur impact carbone. Ça va nous mener où ?
Sasha Luccioni : Ce qui est intéressant, c’est que tous les deux, Microsoft et Google, ont raté leur propre cible qui sont censées être des cibles faciles, parce qu’ils se mettent des cibles faciles pour pouvoir se dire qu’ils ont atteint leur cible. Et tous les deux ont dépassé leur cible. Au lieu de baisser les GES, ils les ont augmentées et en fait, c’est fou !
Mick Levy : Ils avouent tous qu’ils ne seront pas au rendez-vous du net zéro carbone.
Sasha Luccioni : Microsoft, c’était net négatif en 2040.
Mick Levy : Ils disent tous « on n’y sera pas » et aucune sanction de la bourse par ailleurs, par-dessus.
Thibaut le Masne : Je peux être un peu provoc sur ce sujet, volontairement, et qui est très loin de ma ligne de pensée ? Est-ce que, finalement, c’est important de se soucier des impacts environnementaux ? Dit autrement : est-ce que le progrès technologique, la loi de Moore et tout ce qu’on entend autour de ça, ne fera pas que, quoi qu’il arrive, on ira vers ce genre de chose ? Est-ce que, finalement, le sujet environnemental est un vrai sujet ? Elle est volontairement provoc et posée de manière très provocatrice dans le sens où ces sujets-là sont clés. On parle du coût du digital de manière assez récurrente et, au final, les gens continuent d’acheter trois ou quatre smartphones, continuent de les changer tous les ans. Bref ! On fait comme si rien ne se passait. On l’a dit, Google, Microsoft continuent.
Mick Levy : Est-ce qu’on ne peut pas compter aussi sur les progrès technologiques, parce que, simplement, ça va s’améliorer.
Cyrille Chaudoit : C’est le côté technosolutionniste.
Thibaut le Masne : On l’avait déjà dit, et on a sorti un GPT pour faire juste deux/trois choses pas forcément très intéressantes.
Sasha Luccioni : Je pense qu’avec le côté technosolutionniste, oui il y a la loi de Moore, mais il y a aussi le paradoxe de Jevons [8] qui est vraiment intéressant, qui dit que quand une technologie devient plus efficace, on a tendance à plus l’utiliser. Par exemple, quand on est passé du cheval à la voiture, tout le monde pensait qu’on allait avoir moins d’impact sur la planète, mais, en fait, les gens vont voyager plus parce que maintenant, au lieu de faire 20/30 kilomètres en une heure, ils peuvent faire 100 kilomètres, donc, ils vont aller à 200/300 kilomètres de chez eux pour un week-end. Je pense qu’avec l’IA, c’est un peu pareil. Effectivement, les GPU sont devenus très puissants, mais on a tendance à mettre de l’IA générative partout. Donc, à cause de cet effet d’efficacité dont beaucoup de compagnies technologiques parlent, elles vont dire « notre hardware est tellement efficace, on l’utilise dans plus d’endroits. »
Donc, finalement, je pense que le coût grimpe. Une manière de casser ou d’interrompre le paradoxe de Jevons, c’est d’intégrer le coût de cette technologie-là dans le coût d’utilisation de l’outil. Par exemple maintenant, souvent les outils d’IA sont gratuits, mais on n’a pas accès à ce coût-là, donc les gens ne savent pas, parce qu’utiliser ChatGPT, en tout cas la version gratuite, c’est gratuit, mais ce n’est pas gratuit pour la planète. Je pense donc qu’il faut avoir plus de transparence là-dessus, comme ça les utilisateurs eux-mêmes vont pouvoir faire ce choix d’utiliser ChatGPT, ou pas, dans certains contextes.
Cyrille Chaudoit : Ce que les utilisateurs vont pouvoir choisir de faire ou de ne pas faire, mais on leur conseille de le faire quand même, c’est d’écouter la chronique de Laurent Guérin, « Un moment d’égarement ». C’est maintenant.
« Un moment d’égarement » - Le Zune de Microsoft - Laurent Gérin
Mick Levy : Aujourd’hui, Laurent, j’adore. Tu continues de nous dévoiler ta passion pour la musique et tu nous parles d’un lecteur MP3 légendaire, le Zune de Microsoft.
Laurent Guérin : Eh oui ! Alors que Open AI, l’entreprise derrière ChatGPT, a récemment levé 6,6 milliards de dollars, portant la valorisation de l’entreprise à 157 milliards, et que Microsoft a déjà investi en tout près de 14 milliards dans OpenAI, je n’ai qu’un mot, non ce n’est pas waouh ! Non, ce n’est pas shocking, le mot qui me vient à l’esprit, c’est Zune, vous savez, cet échec retentissant de Microsoft. Je raconte.
Lorsque l’industrie de la musique commence une énième transformation au début des années 2000, un homme est particulièrement visionnaire, c’est Steve Jobs. Apple invente l’iPod en 2001, la promesse : en avoir plein les poches, de la musique. Avec son slogan « Avoir 1000 chansons dans la poche », Apple nous prédit l’avenir : plus on se remplira les poches avec des chansons, plus il remplira les siennes avec du pognon !
Sony avait inventé le premier appareil portatif pour écouter de la musique, le walkman. Quatre cents millions d’exemplaires furent vendus au cours de ses 40 années de commercialisation. Apple renouvelle le genre et l’iPod s’apprête à régner sans partage sur le secteur, écoulant 450 millions d’exemplaires en 21 ans d’existence.
Mick Levy : Des chiffres qui font des jaloux, évidemment !
Laurent Guérin : Eh oui, en effet, des mélomanes au service d’un businessman. Quelle audace, Boniface, « voilà une belle manne de caillasses », se disent alors les concurrents d’Apple, dans un langage nettement moins châtié, du genre we will fucking mister iPod. Do somethines more on, ce que l’on peut traduire par « pour moi, un me too product, ou t’es viré ! ». Et c’est à ce moment-là que Microsoft lance Zune un lecteur de musique concurrent. La notion de « à ce moment-là » est, somme toute, relative, puisque l’entreprise, fondée par Bill Gates, sort Zune cinq ans après l’iPod. Cinq ans ! Autant dire un siècle, un peu comme si Peugeot disait « mes voitures électriques sortiront des usines en 2130 », alors que le périphérique sera devenu, d’ici là, un lieu de pèlerinage pour naturistes, avec des paillotes qui ne vendent plus que de l’eau à 100 fois le prix au litre, de ce qui propulsait naguère nos moyens de locomotion. Car oui, on l’aura bien…
Mick Levy : Merci, Laurent, je crois qu’on a bien l’image, là.
Laurent Guérin : … profond ! Zune est un échec profond. Quand il arrive sur le marché, l’iPod a déjà capté près de 80 % du marché des lecteurs MP3 et Apple continue d’innover, d’abord avec l’iPod touch et son écran tactile et puis, surtout, avec l’iPhone. C’est donc beaucoup trop tard. L’ergonomie et l’expérience utilisateur du Zune sont médiocres, très éloignées de la simplicité que propose la marque à la pomme. Le prix n’est pas plus avantageux, les usages sont restreints en termes de géolocalisation et de licence, autant de handicaps qui font passer les acheteurs du Zune pour des extraterrestres qui viennent de débarquer sur terre en radeau. En radeau ! Avec Zune, Microsoft ne propose rien de nouveau, elle ne résout aucun problème ni aucune demande du peuple. En fait, Zune est à la technologie ce qu’un Premier ministre est à la politique. « J’ai soif », dit le peuple, « mangez de la brioche », répondent Microsoft, Marie-Antoinette et n’importe quel Premier ministre.
Cependant, tout n’est pas sombre, en tout cas pour Microsoft, parce que pour Marie-Antoinette, c’est discutable. Après l’échec du Zune, Microsoft se jurera d’être plus tranchant dans ses innovations et ses investissements, et c’est en étant plus tranchant que Microsoft soutiendra OpenAI et que Marie-Antoinette…
Mick Levy : Tu sais que Marie-Antoinette n’a jamais dit le fameux « le peuple a faim, qu’ils mangent de la brioche ! »
Laurent Guérin : Tu as raison. J’ai vérifié les images d’époque sur un Zune.
Voix off : Trench Tech – Esprits critiques pour Tech Éthique
Pistes de solutions
Cyrille Chaudoit : Merci Laurent.
Après avoir vu les impacts négatifs, place aux solutions, on a besoin de respirer un peu, on a aussi besoin de se rassurer. Avant même de voir si l’IA peut sauver le monde, comme le rappelait Mick et son technosolutionnisme patent – non, je rigole – comme certains discours technosolutionnistes veulent nous le faire croire – pas toi, on le sait bien – si on s’intéressait d’abord aux moyens d’en atténuer les effets indésirables. C’est vrai, avant de vouloir sauver le monde, est-ce qu’on peut au moins déjà commencer par le présent et voir comment atténuer ses effets indésirables. Donc rendre l’IA plus neutre sur le plan environnemental et plus inclusive, ça serait vraiment un sacré progrès.
Sasha, tu ne fais pas que nous alerter, tu as aussi des pistes et tu en as même développé de très concrètes. Tu nous as parlé tout à l’heure de cet outil qui permet de mesurer l’empreinte carbone. Par où faut-il commencer pour que l’IA soit soutenable et durable ?
Sasha Luccioni : Je pense qu’il y a plusieurs approches.
Il y a l’approche un peu bottom-up des gens qui créent ces outils-là, donc utiliser souvent CodeCarbon et, par exemple, passer à des instances de calcul qui sont alimentées par l’énergie renouvelable. C’est vraiment la première chose que j’ai faite quand je suis arrivée chez Hugging face : comprendre où tournent nos calculs et essayer de tout porter, tout switcher à des instances qui étaient au moins… En fait, c’est très rare qu’on ait assez de puissance de calcul pour l’IA qui soit 100 % renouvelable, mais, au moins, il y a un mix hydroélectricité et gaz naturel, par exemple et pas 100 % gaz naturel.
Il y a donc des choses comme ça qui sont vraiment très techniques, mais il y a aussi des solutions ou des pistes comportementales : ne pas utiliser l’IA générative quand ce n’est pas nécessaire. Je ne suis pas du tout contre l’utilisation de ChatGPT, mais l’utiliser pour tout, je trouve que c’est vraiment dommage.
Cyrille Chaudoit : Une consommation raisonnée.
Sasha Luccioni : Des gens me disent « je n’ai plus de calculatrice, j’utilise ChatGPT », pour moi c’est un peu dommage, ça m’insupporte, mais même pas qu’à cause de l’empreinte carbone ou l’utilisation énergétique, parce que ce n’est pas fait pour, ce n’est pas fait pour être une calculatrice.
Cyrille Chaudoit : Ça n’a pas de sens !
Sasha Luccioni : Exactement.
Cyrille Chaudoit : Cédric Villani nous avait dit : « Je rappelle que les IA génératives ne sont pas faites pour être fiables », alors autant sur des calculs, je pense que ça peut passer.
Sasha Luccioni : Tout à fait. Non seulement ça peut imaginer, halluciner des choses, mais ça utilise au moins 10 000 fois plus d’énergie qu’une calculatrice.
Cyrille Chaudoit : Qui peut être solaire, pour le coup, il y a de plus en plus de calculatrices solaires.
Sasha Luccioni : Exactement.
Cyrille Chaudoit : Si on revient juste un instant sur le mix énergétique qu’il faut, on en a effectivement parlé dans la première séquence. On entend beaucoup dire que l’avenir est plutôt à des modèles plus frugaux, donc des plus petits modèles qui vont tourner presque, entre guillemets, « en local ». Est-ce que ça peut, du coup, donner lieu à une alimentation énergétique qui soit, par exemple, du 100 % renouvelable ? Est-ce que tu crois à ce modèle-là ? Et si oui, à quelle échéance, et puis, dans quelles conditions également ?
Sasha Luccioni : Peut-être que l’avenir appartient aux modèles plus petits, mais ce qu’on voit depuis plusieurs années, ce sont des modèles de plus en plus grands. Récemment nous avons publié un article [9] avec Gaël Varoquaux, un chercheur en France, et Meredith Whittakert, la directrice de Signal, l’application de messagerie. On a fait une analyse et, en fait, les modèles deviennent de plus en plus grands. Non seulement ça a des conséquences environnementales, mais aussi de concentration de pouvoir, parce que de moins en moins d’organisations peuvent se permettre d’entraîner des systèmes de modèles. Je vois que beaucoup de chercheurs parlent de modèles de plus en plus petits, mais en réalité, en production, on voit des modèles de plus en plus grands, ou bien un genre d’approche à deux phases : par exemple pour Siri et Alexa, quand on parle à un assistant d’IA, souvent il y a un modèle local qui va juste détecter Alexa sur le speaker, l’enceinte, et après, l’enregistrement lui-même va quand même être envoyé dans un centre de données. Il y a donc très peu de choses qui tournent en local dans beaucoup d’applications d’IA qu’on utilise tous les jours.
Donc, oui, ça serait bien d’aller dans cette direction, mais ce n’est pas dans cette direction qu’on va, au contraire. En fait, je pense que les compagnies veulent avoir des modèles qui sont de plus en plus grands.
Thibaut le Masne : On les entend tous parler de EGI, de l’intelligence artificielle générale qui nécessiterait des ingénieurs de dingue.
Sasha Luccioni : J’ai vraiment des opinions très fortes là-dessus.
Cyrille Chaudoit : On va t’écouter, même si, effectivement, avant de savoir si c’est faisable, entendable ou pas, il va falloir des gros volumes. Elon Musk a acheté, a fait une razzia sur les GPU justement de Nvidia et il a le plus gros super calculateur au monde aujourd’hui.
Sasha Luccioni : Qui utilise de l’énergie non renouvelable, c’est au Texas, c’est une des pires, c’est comme le charbon.
Cyrille Chaudoit : C’est pitoyable. Tout ça pour dire, avec une question un peu provoc, si tu nous dis « oui, des modèles qui tournent en local, ce serait bien, et des modèles plus frugaux », mais l’avenir est quand même plutôt aux gros mammouths, parce que ce sont les grosses Big Tech qui sont derrière ça, est-ce que ce n’est pas, finalement, comme le vœu pieux de passer tous à de l’open source, parce que ça serait quand même vachement mieux, et on continue d’acheter des licences à Microsoft et compagnie.
Sasha Luccioni : C’est pour cela que j’ai choisi de travailler chez Hugging Face il y a trois ans, quand je finissais mon post-doc. J’ai travaillé au Mila [10] avec Yoshua Bengio avec qui j’ai vraiment réfléchi et j’ai fait le choix très conscient de ne pas aller travailler dans une compagnie Big Tech, parce que je voyais déjà le début.
J’ai toujours été dans les modèles de langue, j’ai commencé à travailler là-dessus pendant ma licence, c’est toujours mon truc, mais avant, c’était beaucoup moins populaire. Tout ce qui était très populaire, c’était les modèles d’images, de vision. On faisait son petit truc, on pouvait entraîner un modèle sur son laptop, c’était très démocratique et déjà, il y a trois/quatre ans, je voyais le début des grands modèles de langue, je voyais la direction que ça prenait et je ne voulais pas en faire partie. Je pensais, justement, qu’aller travailler dans une grosse boîte qui a des milliers, des dizaines de milliers de GPU, ce n’est pas bien pour la communauté en général, parce que le petit jeune qui fait son doctorat dans une petite fac, qui n’a pas des superordinateur ne pourra pas compétitionner avec ces grands géants. J’ai donc fait le choix très conscient de ne pas gagner autant d’argent, de travailler chez Hugging Face, parce que je crois vraiment dans la mission de démocratisation et aussi dans le progrès graduel. En fait, je peux entraîner un modèle, le mettre sur Hugging Face, passer à autre chose, quelqu’un d’autre peut le reprendre, l’adapter, continuer à construire, faire une start-up, vendre.
Mick Levy : C’est l’approche ouverte de Hugging Face.
Sasha Luccioni : Incrémentale et aussi trouver un bug. Par exemple, sur mon ordinateur, j’ai GNU/Linux, je n’ai pas Windows, je crois vraiment à cette philosophie. Je pense qu’en IA ça fait beaucoup sens, parce qu’on ne peut jamais trouver les bugs tout seul, même si on est Google, qu’on a des centaines de milliers de personnes qui les cherchent, je pense que l’union fait la force.
Mick Levy : Ce ne sont pas des bugs au sens classique du terme, où il y a un problème dans le code, on change le code et c’est reparti. Non, c’est l’influence de toute la corrélation, des milliards de données qui ont été utilisées qui peuvent amener des fonctionnements non attendus. C’est pour cela qu’il y a d’autant plus besoin de la communauté.
Sasha Luccioni : Maintenant, par exemple, on a les bug bounties ou les bias bountes, on parle de ça pour les modèles d’IA. Même pour les modèles qui ont été testés vraiment à mort dans les grandes boîtes, quand on ouvre les tests à un plus grand public, à des populations qui ne faisaient pas partie de ces boîtes-là à la base, elles vont trouver des comportements toxiques, un modèle de langue qui peut générer une recette pour une bombe ou des choses comme ça. Peut-être que dans une boîte on ne va pas forcément tester ça, mais on va tester, je ne sais pas, des réponses à des questions de carte bancaire, des choses un peu plus venial, comme on dit.
Mick Levy : D’où la diversité qui est effectivement importante.
Pour clarifier, les bug bounties, les bias bounties pour les biais, ce sont finalement des chasses aux bugs, des chasses aux biais, organisées de façon collaborative, publiques, plein de monde peut participer, effectivement collaboratives. Cette diversité est importante pour arriver à faire la chasse à tout ça.
J’ai une question un peu chaude finalement : est-ce qu’on avait vraiment besoin de l’IA générative ? Est-ce que c’est une bonne chose que l’IA générative arrive aujourd’hui, alors qu’il y a une telle prise de conscience des enjeux climatiques ?
Sasha Luccioni : Je pense que c’est une question très philosophique, peut-être plutôt pour Giada que pour moi. Je vois l’intérêt de l’IA générative dans des cas très bien définis. Je ne peux pas dire que ça ne sert à rien de manière générale, non, il y a quand même des utilisations qui sont très utiles, mais je n’aime pas la manière dont on vend l’IA générative comme la solution à tous les problèmes. C’est ça qui me dérange parce que non, ça ne va pas résoudre tous nos problèmes, ça va peut-être en créer plus que ça n’en résout, mais il y a quand même des utilités à l’IA générative. Il faut juste être très conscient des cas d’utilisation. Je pense qu’il y a une part de marketing, il y a une part de naïveté, il y a une part de plein de choses.
Mick Levy : C’est en train de se répandre à une telle vitesse, c’est ça qui effraie.
Sasha Luccioni : Exactement. En fait, l’IA a toujours vécu ses étés et ses hivers. Là, c’est l’été de l’IA générative, et puis dans un an !
Cyrille Chaudoit : Un tel été, on ne l’a jamais eu !
Mick Levy : On n’a jamais eu un tel été d’IA !
Justement, parmi les usages qui vont être utiles, il y a aussi tous les usages de l’IA qui vont pouvoir être appliqués à la résolution de la crise climatique, à la modélisation – on parle de jumeaux numériques de la Terre –, en tout cas de la modélisation d’enjeux climatiques forts, des choses que tu portes. Où en sont les travaux là-dessus ? Quels sont les espoirs que l’IA pourrait aussi donner pour réduire la crise climatique ?
Sasha Luccioni : Climate Change AI [4], cette organisation dont je fais partie, rassemble toute une communauté de gens non seulement en IA, qui veulent aider à combattre la crise climatique, mais aussi des gens de la biologie, de toutes ces sous-matières. On parle de climat, mais il y a tellement de poches, en tout cas au sein de cette communauté climatique, qui veulent apprendre l’IA pour aider, pour amplifier leurs efforts existants. L’IA n’est jamais LA solution, ça fait partie d’une solution, mais ce n’est jamais la solution. On voit qu’il y a beaucoup de prototypes, qu’il y a beaucoup d’applications qui pourraient avoir un impact, mais, à date, ce sont vraiment des modèles non génératifs qui ont été les plus positifs. On voit beaucoup, par exemple, de classifications, de prédictions vraiment numériques dans tout ce qui est, par exemple, modélisation climatique au sens pur, on voit beaucoup de jumeaux numériques, mais aussi, des applications un peu plus invisibles, par exemple la prédiction de maintenance de réseaux énergétiques. Par exemple, souvent, il y a un bris et ça cause un problème, des gens n’ont plus d’électricité, on peut quand même essayer d’anticiper cela en essayant d’analyser des courants, des choses comme ça. Il y a donc pas mal d’applications, comme ça, des applications un peu old school, assez simples.
Mick Levy : On est dans de la classification, de la prédication, de la modélisation, le numérique, finalement, à assez grande échelle.
Sasha Luccioni : Exactement. En termes génératifs, il y a une famille d’applications que je trouve assez intéressante, c’est pour les batteries, pour les matériaux, générer des nouvelles combinaisons de molécules qui pourraient donner des meilleures batteries que les batteries au lithium qu’on utilise maintenant. Mais, en ce moment, ça reste des start-ups, ça reste des projets académiques. On n’a pas encore eu une batterie découverte grâce à l’IA générative.
Mick Levy : On peut quand même espérer que l’IA générative permette de faire des découvertes de rupture, des découvertes scientifiques de rupture. Il y avait ce cas d’IA générative qui avait découvert je ne sais plus combien de milliers de matériaux possibles, alors que l’humanité n’en a découvert que quelques dizaines ou quelques centaines.
Sasha Luccioni : As-tu suivi la polémique autour ce ça ?
Mick Levy : Justement, je te demande la suite. Qu’est-ce qui s’est passé ?
Cyrille Chaudoit : Qu’est-ce qui s’est passé ? C’est le tableau périodique qui était revu à la hausse.
Mick Levy : Non, ce n’est pas le tableau périodique, ce sont vraiment des nouveaux matériaux qui étaient inventés par l’IA générative et puis toutes les possibilités. On avait dit « génial, on va trouver plein de nouveaux matériaux qui vont être moins coûteux en énergie à produire, qui vont amener plein de nouveaux progrès ». Mais tu me dis qu’il y a une polémique derrière, alors vas-y, raconte.
Sasha Luccioni : C’était fait par un labo informatique et après c’est allé chez Google DeepMind. Après ça, des scientifiques en chimie/physique, je pense, ont analysé, ils ont pris un échantillon et ils ont analysé, parce qu’en fait, c’étaient quand même des millions de candidats et ils ont dit que la plupart étaient des dérivés de matériaux existants, mais avec des tout petits changements.
Mick Levy : Oh !
Cyrille Chaudoit : Les tricheurs !
Sasha Luccioni : Oui. Je pense qu’il y a vraiment 1 % ou 5 %. En fait, c’est ça le problème. En fait, il s’avère que les gens qui font de l’IA ont un peu une mauvaise réputation, en dehors de notre domaine, parce qu’on est très orgueilleux, parce qu’on pense qu’on va résoudre des problèmes sur lesquels ont travaillé des gens en physique, en biologie, etc., pendant des décennies, voire des millénaires dans le cas de la morale, la philosophie. On a tendance à dire « là on a pris plein de données, on a trouvé la solution, voilà la solution, et passez à autre chose ». Dans ces domaines-là, quand les gens prennent ces solutions, ils les regardent et ils disent « oui, mais en fait, ce sont des solutions très naïves ou sous informées ou incomplètes. » En fait, il faut vraiment travailler avec les gens dans ces domaines-là pour pouvoir prétendre.
Mick Levy : En fait, ce n’est pas sérieux.
Attends, je vais te donner une autre piste. Sasha, je veux qu’on explore plusieurs pistes pour se dire qu’il y a un peu d’espoir là-dedans.
Il y a de l’IA générative pour générer des données synthétiques qui vont nous permettre – je vais expliquer en même temps pour tout le monde – de mieux modéliser partout où on n’arrive pas à avoir assez de données. C’est-à-dire que l’IA générative va permettre de générer des données qui n’existent pas, des données de synthèse, qui ne viennent pas de la réalité, mais qui savent parfaitement simuler la réalité. Ce qui fait qu’on aura beaucoup plus de données pour entraîner ensuite des IA prédictives et des IA qui savent catégoriser, permettant donc d’avoir une meilleure compréhension de ce qui se passe sur l’environnement, de mieux modéliser pour arriver à mieux résoudre la crise climatique. Je schématise un peu. Y a-t-il de l’espoir là-dedans où on n’y croit pas trop non plus ?
Sasha Luccioni : Le problème avec les données synthétiques, c’est qu’elles ont tendance à amplifier les patterns, les biais, etc., qui existent déjà dans les données. Par exemple, si on voulait faire des données synthétiques de CV de gens qui travaillent chez Apple, ça ne va être que des gars avec des diplômes en informatique.
Mick Levy : Mais pour la crise climatique ?
Sasha Luccioni : C’est un peu la même chose.
Cyrille Chaudoit : On prend un jeu de données, on le duplique et ça va faire une autre porte.
Sasha Luccioni : Exactement. Ça va amplifier, ça va multiplier les biais existants et c’est très difficile de dé-biaiser des données synthétiques parce que ce ne sont pas des vraies données.
Donc oui, il y a de l’espoir dans les données synthétiques, mais souvent ça va être juste des variations sur un thème existant, voire des amplifications d’un thème existant, et générer des données statistiques dans les cas où on n’a pas de données, c’est vraiment dur.
Cyrille Chaudoit : C’est encore plus compliqué. Rappelons que c’est très utilisé, notamment en médecine, pour créer des cohortes différentes de patients, pour tester des scénarios différents.
Thibaut, tu voulais intervenir.
Thibaut le Masne : Merci. Il y a plusieurs points qui m’interpellent. C’est déjà d’essayer de trouver des solutions à travers les IA génératives. J’aimerais bien t’entendre un petit peu plus, parce que de ce que l’on entend dans les IA génératives, c’est que, déjà, elles ne sont pas faites pour, entre guillemets, « exprimer une vérité », elles sont là juste pour générer du texte, façon de parler. Donc, derrière, quand on dit qu’on va essayer de solutionner des choses avec des choses qui ne sont pas faites pour dire des choses vraies ! Ton exemple, justement, sur le corpus des travaux qui ont été trouvés, on se dit que ce qu’ils ont dit est un peu binaire, ce n’est pas réfléchi, ce n’est pas pensé, c’est normal, une IA, ça ne pense pas ! Mais, globalement, qu’est-ce qu’on essaye de résoudre avec quelque chose dont le fait n’est pas de dire une vérité ? C’est ce que j’ai du mal à comprendre. Qu’est-ce qu’on va essayer de faire avec ça ?
Sasha Luccioni : En fait, la vérité c’est un concept relatif !
Par exemple, si on parle de batteries, la vérité, ce sont des batteries à base de lithium, mais en fait, peut-être, qu’il y a plusieurs vérités à base d’autres molécules, qu’on ne connaît pas encore, et qui pourraient être plus prometteuses que les batteries qu’on utilise en ce moment. Même chose pour les antibiotiques. En fait, il n’y a pas de vérité absolue dans ces domaines-là. Ce qu’il faut vraiment faire, c’est tester les hypothèses émises par l’IA de manière numérique, dans le monde abstrait du numérique, avec de vraies synthèses, dans la vraie vie, en essayant de créer ces molécules-là et en testant, par exemple, si elles tiennent une charge et pendant combien de temps. On ne peut pas juste s’arrêter et dire « notre IA a généré des millions de candidats potentiels », après ça, il faut tester ces candidats-là dans le vrai monde.
Thibaut le Masne : C’est justement là où il peut y avoir problème. C’est-à-dire qu’avec une IA générative on va réussir à avoir des millions de cas et si on veut vraiment la vérité, il va falloir tous les tester et on n’a qu’une vie pour tester tous ces millions de cas. C’est un peu au petit bonheur la chance !
Sasha Luccioni : Je pense que pour beaucoup de pistes prometteuses, ça ne va pas être de générer des millions de cas, mais générer, je ne sais pas, 100 candidats, les synthétiser et après, récolter les données de cette synthèse pour alimenter le modèle, pour qu’il devienne de plus en plus précis. En fait, il faut vraiment travailler avec des scientifiques du domaine pour pouvoir faire ces tests-là, parce que les gens de l’IA n’ont pas la capacité, normalement, à générer des molécules dans la vraie vie. En fait, ça va être des partenariats avec des labos de recherche ou avec des compagnies qui font ces recherches-là pour essayer de faire ça de manière itérative, pour, à chaque fois, améliorer la précision du modèle, effectivement pour ne pas avoir mis un million de candidats qui ne marchent pas, mais avoir dix candidats qui marchent très bien.
Mick Levy : Sasha, pour finir cette séquence, j’ai LA question qui tue, j’ai la question que je rêvais de pouvoir te poser et qui m’obsède à peu près tous les jours : est-ce que tu penses que peut-être avec le temps, d’ici quelques années, on va parvenir à ce que l’IA crée une balance CO2 positive ? C’est-à-dire que les gains qui seront amenés par l’IA, par l’IA de manière globale, pas que générative, versus les coûts CO2 qui vont être amenés par les mécanismes, ce que tu nous as expliqué au départ, ça fera quand même quelque chose de positif ? Peut-on y croire ou est-on en train vraiment d’aller à notre perte, en termes de carbone, avec l’IA ?
Sasha Luccioni : Je pense que d’ici quelques années, on va arrêter d’essayer de mettre de l’IA générative partout et on va se concentrer sur les cas de figure qui fonctionnent effectivement et là, on va, éventuellement, arriver à une balance, comme tu dis, mais ça va prendre du temps. Le problème, c’est vraiment une frustration que j’ai, ce mot en français n’existe pas, incentive, les motivations, les incitatifs, les incitations, le verbe existe, en tout cas encourager les gens à prendre les décisions pour aller dans la bonne direction, et, en ce moment, c’est ça qui manque pour moi.
Mick Levy : La bonne direction c’est « n’utilisez pas l‘IA générative à la place de la calculette ».
Sasha Luccioni : Aller vers une IA frugale. On n’a pas besoin d’IA générative dans nos moteurs de recherche et dans la plupart de nos cas.
Mick Levy : Ça dépend de nous.
Cyrille Chaudoit : Au-delà de ça, avant même les IA, inciter les gens à avoir des comportements différents, que ce soit avec la voiture ou autre chose, ça a mis énormément de temps à venir, ça a mis encore plus de temps à convaincre les gens, et puis c’est toujours la même chose.
Thibaut le Masne : Ce n’est toujours pas fait.
Cyrille Chaudoit : Ce sont les petits gestes du quotidien, c’est le end user à qui on demande de faire des efforts et ce n’est pas aux infrastructures. On pourrait aussi terminer cette séquence avec cette question, ce qui va nous amener à la troisième : se demander si c’est plutôt du ressort du end user de devoir prendre conscience que ses usages, donc les inférences dont on a parlé, pèsent lourdement dans la balance, ou si c’est aux infrastructures, c’est-à-dire à ceux qui font la tech et aussi à ceux qui la régulent, d’agir ?
On vous laisse réfléchir à ça pendant la « Philo Tech » d’Emmanuel Goffi, et on y répond à la troisième séquence.
Voix off : De la philo, de la tech, c’est « Philo Tech »
« Philo Tech » d’Emmanuel Goffi – Réveillez votre esprit critique
Cyrille Chaudoit : Le 8 octobre dernier, le prix Nobel de physique était attribué à deux des pères de l’intelligence artificielle, Geoffrey Hinton et John J. Hopfield. À cette occasion, tu voulais partager ton sentiment sur ceux que l’on appelle « les repentis » de la Silicon Valley.
Emmanuel Goffi : Il semble, en effet, que la mode est au repentir, une forme de réveil éthique tardif de la part de certains acteurs de la tech qui se rendent compte de leur contribution au développement d’intelligences artificielles potentiellement dangereuses. C’est en 2018, en fait, qu’on a une vague de repentis, dits de la Silicon Valley ou des applis, qui apparaît dans les médias, et ce sont majoritairement des anciens de Meta, alors Facebook, tels que Sean Parker, son premier président entre 2004 et 2005, Justin Rosenstein, inventeur du bouton like, Roger McName, un des premiers actionnaires du réseau, Tristan Harris, qui a aussi, d’ailleurs, œuvré comme éthicien du design chez Google de 2011 à 2013, mais également des repentis d’autres grandes entreprises de la tech, tels que Lynn Fox d’Apple, Marc Benioff de Salesforce, Gregor Hunt, ancien ingénieur d’Instagram, ou encore Aza Raskin, qui est un ancien d’Apple et de Mozilla, inventeur de ce qu’on appelle le scroll infini en 2006.
On peut, bien entendu, se réjouir du mea culpa et louer leurs prises de parole lorsqu’ils dénoncent tant les agissements des Big Tech que les leurs, mais on peut tout aussi bien s’interroger sur la sincérité de ces repentirs et sur leur utilité, voire sur leur raison d’être.
Cyrille Chaudoit : Mais quel rapport avec le prix Nobel de physique ?
Emmanuel Goffi : Nos deux récipiendaires, Geoffrey Hinton, de l’université de Toronto, et John Hopfield, de Princeton, bien qu’ils ne soient pas stricto sensu des repentis, portent un discours alarmiste sur l’IA, en en soulignant, d’ailleurs, les potentielles dérives. Hinton alerte d’ailleurs sur l’utilisation de l’IA par des acteurs malveillants et même sur le risque existentiel que feraient peser ces technologies sur l’humain.
Cyrille Chaudoit : C’est plutôt une bonne chose que deux personnages de ce niveau-là alertent sur les risques de l’intelligence artificielle. Non ?
Emmanuel Goffi : Je rappelle que, comme indiqué sur le site du célèbre prix, Alfred Nobel désirait que sa fortune soit utilisée pour récompenser, je le cite, « ceux qui, au cours de l’année précédente auront – et c’est important – apporté le plus grand bénéfice à l’humanité ». Du coup, je m’interroge.
D’une, comment on peut-on considérer que des travaux favorisant le développement de l’IA, dont Hinton, Hopfield et bien d’autres soulignent les potentiels méfaits, apportent le plus grand bénéfice à l’humanité ?
De deux, comment deux personnalités, qui alertent sans ambiguïté sur les dérives et risques potentiels, dont le risque existentiel, tout de même, peuvent-elles accepter ce prix ?
Imagine deux secondes que tu crées un objet technique – pour reprendre la formule de Simondon – dont tu sais qu’il peut mettre en péril l’humanité. Est-ce que tu trouverais normal et acceptable d’être récompensé pour avoir créé cet objet au motif qu’il est du plus grand bénéfice pour l’humanité ? Sauf à penser que la menace existentielle est bénéfique pour l’humanité, je pense qu’on nage en pleine schizophrénie.
Donc, pour répondre à ta question, là encore, j’interroge les motivations et la sincérité de ce début de repentir sous forme d’alerte de deux universitaires indiscutablement brillants, au sommet de leur carrière et d’un âge plus que respectable, 76 ans pour Hinton, 91 pour Hopfield. On a plutôt l’impression qu’il s’agit d’un chant du cygne au moment où ni l’un ni l’autre ne risquent plus grand-chose. Le courage vient toujours plus facilement lorsqu’il n’y a plus de risques et le conformisme n’est plus si pesant quand il n’y a plus d’enjeux.
Cyrille Chaudoit : Finalement, c’est une question de courage, celui de dire les choses lorsqu’elles peuvent nous porter préjudice.
Emmanuel Goffi : Certainement, mais c’est surtout une question, à mon sens, de responsabilité. La responsabilité que nous avons chacun et chacune, en particulier celles et ceux d’entre nous qui travaillent dans le domaine des technologies, de nous questionner sur nos actes et sur leurs conséquences potentielles, non pas une fois qu’on s’est engagé dans l’action, mais avant, avant de lancer, en fait, une dynamique irréversible dont les conséquences potentiellement désastreuses n’auraient pas été sérieusement envisagées.
Dans son ouvrage Le Principe responsabilité, le philosophe Hans Jonas proposait l’impératif suivant, justement appliqué aux technologies, il disait : « Agis de façon que les effets de ton action soient compatibles avec la permanence d’une vie authentiquement humaine sur Terre, autrement dit, qui me menace pas la pérennité de l’humanité. »
Eh bien aujourd’hui, je propose l’impératif Trench Tech qui dirait « fais en sorte d’exercer ton esprit critique sur la désirabilité et l’acceptabilité éthique à priori des actions que tu envisages, pour en évaluer et en contrôler les conséquences, en pleine responsabilité. »
Voix off : Trench Tech – Esprits critiques pour Tech Éthique.
IA et intérêt des entreprises
Thibaut le Masne : Merci Emmanuel.
Faut-il choisir entre innovation et responsabilité ? Peut-on concilier performance économique et réduction des externalités négatives ? Au-delà du greenwashing et du socialwashing, beaucoup d’entreprises en sont encore, pour le moment, à se demander comment ne pas rater le virage de l’IA. Mais ce n’est pas toujours simple de ne pas confondre vitesse et précipitation, au risque de ne pas prendre en considération les enjeux sociétaux de cette vague de transformations technologiques.
Alors, Sasha, comment les entreprises peuvent-elles transformer ces défis en opportunités en intégrant des pratiques durables, éthiques, dans leur stratégie IA ? Pas simple comme question, mais on va essayer de rentrer dans le fond du sujet.
Sasha Luccioni : Je pense que beaucoup de compagnies ont déjà, soit volontairement ou par voie de régulation, des stratégies ESG de différents types et, en fait, le problème que je vois en ce moment, c’est que l’IA n’y figure pas, parce qu’elles ne comprennent pas trop les externalités et les coûts de l’IA. Donc le défi, en ce moment, c’est de voir comment l’utilisation de l’IA va impacter les stratégies ESG des compagnies et, pour cela, il faut avoir des experts et, honnêtement, il n’y a pas assez d’experts en conseil pour dire « là, tu fais du ciment, tu utilises l’IA de telle manière, ça représente tant de gaz à effet de serre et voici ce que tu peux faire pour réduire cette quantité-là. »
Mick Levy : Il y a donc un sujet de formation, finalement, des ingénieurs en informatique, des consultants, des développeurs, pour accompagner aussi sur tous ces sujets de l’IA frugale, c’est un peu l’étiquette qu’on retrouve beaucoup sur le marché.
Sasha Luccioni : Exactement. Et aussi de transparence, parce que, par exemple, si une compagnie va utiliser ChatGPT, elle n’a pas les chiffres. Si elles ne font pas leur propre IA à l’intérieur de leur boîte, elles n’ont pas forcément ces informations-là, donc ça n’existe pas quelque part.
Mick Levy : Ce qui est très rarement le cas, en tout cas sur l’IA générative, il n’y a aucune boîte qui se dit « tiens, je vais créer moi-même mon propre modèle. »
Sasha Luccioni : Il y en a. Par exemple les digital twins, les jumeaux numériques, qui utilisent l’IA générative, ce sont souvent des choses qui sont faites à l’intérieur. Mais effectivement, si tu utilises un dérivé de ChatGPT, Claude ou Gemini, tu n’as pas ces informations-là. Malheureusement, comme les gens ne les connaissent pas les coûts, ils ont tendance à penser qu’ils n’existent pas.
Mick Levy : Il y a un véritable scandale qui tourne en ce moment. Tu dis qu’il y a un manque de transparence des grandes entreprises de la tech là-dessus, mais certains disent même qu’elles mentent. Un article du Guardian révélait que les émissions de gaz à effet de serre des data centers de Google, Microsoft, Meta à Apple pourraient être 7,62 fois supérieurs aux émissions de gaz à effet de serre que ces entreprises annoncent [11]. C’est déjà un truc gigantesque, tu nous l’as dit, et, en plus, ça pourrait être 7 à 8 fois le chiffre qu’elles-mêmes ont communiqué.
Sasha Luccioni : Il est très bien cet article. En fait, ça tourne autour de la comptabilité carbone, de la compensation. Souvent, ces compagnies vont compter du offsetting, la compensation qu’elles vont faire comme faisant partie de la réalité de la chose.
Mick Levy : Elles disent « on est en train de planter des arbres » et elles enlèvent directement, aujourd’hui, le CO2 qui sera absorbé par les arbres dans les 150 ans ? C’est un scandale !
Cyrille Chaudoit : C’est du greeenwashing.
Sasha Luccioni : Pas les arbres en tant que tels, mais il y a des mécanismes qui font, par exemple, que pour chaque kilowattheure d’énergie non renouvelable, par exemple 100 % charbon utilisé pour 1000 mégawattheures d’énergie, après ça on va acheter 1000 mégawattheures d’énergie renouvelable qu’on ne va pas utiliser, mais qu’on va quand même acheter. Elles disent qu’elles payent le double pour leur énergie, ce qui est vrai, mais elles ne vont pas utiliser l’énergie renouvelable, elles vont la remettre dans le pot commun, donc, les gens peuvent l’utiliser là où elle est générée. Elles considèrent qu’elles ont compensé leur énergie 100 % charbon avec une énergie 100 % renouvelable, mais qui n’a jamais été utilisée par elles en tant que telle. Elles font ça depuis des années. Ce sont les plus grands acheteurs de ce genre de mécanisme de compensation – on appelle ça des Renewable Energy Credits – il y a tout un marché, une structure globale et en fait Google, Amazon, Microsoft, etc., sont parmi les plus grands acheteurs, depuis des années, de ce genre de offsetting de compensation.
Cyrille Chaudoit : Sasha, une question me brûle les lèvres depuis tout à l’heure. Je suis en contact avec beaucoup d’entreprises qui se posent la question, en ce moment, en France : comment aller sur cette voie de l’IA et comment faire sa transformation, conduire sa transformation en déployant de l’IA dans ses stratégies ? Qu’est-ce qu’on répond à des dirigeants d’entreprises qui, actuellement, se posent la question de comment aller vers l’IA avec toutes les promesses que ça charrie de gains de productivité, etc. ? Comment leur parle-t-on en leur disant « allez-y, mais en prenant en considération les enjeux environnementaux qui sont derrière ? ». Par quoi faut-il commencer ? À quoi doivent-ils penser pour commencer ?
Sasha Luccioni : C’est comme pour toute technologie. Après mon doctorat, j’ai passé plusieurs années à travailler en entreprise. J’ai travaillé chez Morgan Stanley, dans la finance, et ayant vu ça, je sais que les compagnies ne sont pas bêtes. Quand elles prennent des décisions, parfois c’est quelqu’un qui se réveille et qui dit « on doit faire de l’IA », mais souvent c’est de l’analyse de coûts/bénéfices. Souvent, elles ne se concentrent que sur les bénéfices et elles n’ont pas accès aux coûts, elles ne considèrent pas les coûts. Pour cette prise de décision-là, je pense qu’il faut vraiment s’asseoir et prendre le temps de réfléchir. Dire « oui, l’IA générative peut faire ceci et cela spécifiquement pour notre entreprise, voici les coûts que ça va engendrer, pas seulement environnementaux, mais aussi, par exemple, des coûts réputationnels. Qu’est-ce qui se passe si le chatbot hallucine un truc ? ». Récemment Air Canada, notre plus grande compagnie aérienne, a dû payer des dommages parce que leur chatbot a répondu un truc qui était faux.
Cyrille Chaudoit : Il proposait des billets à des tarifs qui n’étaient pas du tout validés.
Sasha Luccioni : Exactement. Donc, en fait, il faut penser aux coûts sociétaux, réputationnels, etc., et faire ce genre d’analyse. En fait, je ne sais pas s’il y a des compagnies de consulting qui font ce genre d’analyse-là, parce qu’il faut bien comprendre l’utilisation éventuelle et les choses qui peuvent mal tourner.
Cyrille Chaudoit : Autant sur les risques réputationnels, etc., il peut y avoir de la matière, autant, on l’a dit depuis le début de cet épisode, c’est extrêmement compliqué de savoir mesurer très concrètement quelle est l’empreinte carbone, pour faire très court, d’une stratégie IA, appelons-la comme ça, pour faire aussi un peu schématique, donc c’est compliqué. À qui faut-il s’adresser véritablement ? Est-ce ce que sont vraiment les Big Four ou les Big Five des cabinets de conseil ?, je ne sais pas. Tu conseillerais quels types de profil à intégrer dans l’entreprise sur ces aspects-là ? C’est la direction de la RSE qui doit s’emparer du sujet, c’est la DSI ? C’est qui exactement ?
Sasha Luccioni : Particulièrement en matière d’impact environnemental, il y a peut-être vraiment une vingtaine de personnes dans le monde qui ont cette compétence-là. Donc, j’ai vraiment du mal à dire. Je sais que j’ai beaucoup de requêtes, je n’ai pas assez de temps, mais, je n’ai pas trouvé une compagnie de consulting, ou autre, qui soit vraiment spécialisée dans tout ce qui est impact environnemental. Je ne sais pas ce que ces compagnies de consulting font.
Thibaut le Masne : Est-ce que, finalement, le vrai problème de tous ces sujets-là – on parle d’impact environnemental et on parle aussi de l’impact réputationnel – autour de l’IA, est qu’il n’y a pas, entre guillemets de « grands scandales » ? Donc, si je fais la mesure probabilité du risque et effectivité du risque, je me dis « il vaut mieux que j’y aille, parce que tous les autres vont se lancer et, pour le moment, tu es gentil, mais il n’y a pas de raison qu’on vienne me taper dessus parce que je l’ai fait.
Sasha Luccioni : C’est le FOMO of missing out,.
Mick Levy : La peur de rater quelque chose.
Sasha Luccioni : Google, justement, avec Bard, a perdu 100 milliards de dévaluation en un jour parce que la démo de leur outil génératif a directement halluciné un truc qui était faux. Qu’est-ce qu’un grand scandale, c’est difficile à dire, mais il y a quand même eu des moyens scandales qui ont fait l’affaire et je pense que surtout dans le domaine de la finance, où, vraiment, tu ne peux pas raconter n’importe quoi, éventuellement, en marketing tu peux, mais à la limite…
Cyrille Chaudoit : Les amis marketeurs, c’est pour vous !
Sasha Luccioni : Mais en finance, si tu racontes un truc ! Chez Morgan Stanley, si tu avais donné un conseil qui coûtait un million de dollars à ton client, c’est toi qui étais coupable, donc dans ces industries-là, on fait attention avec l’IA.
Thibaut le Masne : Je vais être l’avocat du diable. Je crois que ça va être l’épisode où je vais tirer le sujet qui va à l’opposé de mes convictions. Assez récemment, il y a eu plusieurs scandales dans le domaine de la nourriture. On se souvient du lait pour bébé qui avait je ne sais plus quelle maladie ou quelle bactérie dedans, il y a eu les pizzas, je crois que c’était Buitoni, je ne veux pas citer la marque, peut-être que je me trompe, et au final, une étude est sortie disant « ce genre de scandale, ça perd un an de valeur et, au bout d’un an, on a oublié qu’il y avait eu ce scandale-là. » Je le redis, pour moi, aujourd’hui, il n’y a pas de vrais scandales. Quand on dit que Google a perdu, oui, il a perdu peut-être en valeur, après, il est remonté à sa hauteur.
Sasha Luccioni : Il n’y a pas de bébés morts à cause de l’IA générative. On est en train de dire qu’en fait, les gens s’en foutent.
Thibaut le Masne : Je pousse le scandale beaucoup plus loin. Même quand on sait que Facebook a été mis en procès pour avoir mis en danger la vie des jeunes, même Facebook continue de gagner des parts de marché.
Mick Levy : Quelle est la question du coup, Thibaut ?
Cyrille Chaudoit : Il veut du scandale ! Il veut du sang !
Thibaut le Masne : Ma question : que doit-on faire pour que les gens se rendent compte que déjà, il faut qu’on agisse, et qu’il faut qu’on agisse ensemble sur ce sujet ?
Sasha Luccioni : Je suis d’accord. On a un genre de biais cognitif de temporalité, même les ouragans, les choses comme ça au niveau du changement climatique, on les oublie assez rapidement. Mais, si on continue à en parler, je pense qu’il y a beaucoup de médias et de chercheurs, etc., qui ont pris cette voie-là, cette stratégie-là de continuer à en parler, de rappeler, de souligner. En fait, c’est un peu le rôle que je me suis donné, en tout cas que j’ai accepté, de toujours être celle qui fait chier sur un panel, qui peut dire : oui, tout ce que vous avez dit c’est beau, et les coûts de tout ça ? Je pense que c’est le cas de plus en plus de gens qui ne sont pas forcément aussi critiques que moi, qui sont un peu plus conscients, qui vont dire « oui, telle chose, mais a tel coût » et je pense que, éventuellement, la conversation va commencer à intégrer les coûts autant que les bénéfices, parce que c’est vrai que c’est le nouveau joujou. On a tendance à ne penser qu’aux fonctionnalités de ce joujou et pas forcément au prix que ça coûte, surtout qu’on ne connaît pas le prix. Je pense qu’il faut continuer à itérer à quel point il faut de la transparence, il faut prendre des choix de manière informée, etc. Et finalement, ça va commencer à influencer, petit à petit, les décisions prises, autant par les consommateurs, mais aussi par les compagnies. Elles vont se rendre compte « tiens, on n’a pas donné cette information-là, donc, les gens ne vont pas utiliser notre outil parce que, je ne sais pas, Sasha Luccioni a dit que l’IA générative ça consomme 50 fois plus que l’IA non générative ». Peut-être ça va commencer à interpeler dans les compagnies aussi.
Cyrille Chaudoit : Justement, Sasha toi qui, dans tes travaux de recherche, j’imagine, sur les phases de terrain, es en prise directe avec un certain nombre de cas d’usage d’industries et d’entreprises, est-ce que tu as observé que certaines industries seraient plus exemplaires que d’autres ? Peut-être certaines entreprises qui ont un temps d’avance sur les autres dans leur utilisation des IA, de façon plutôt positive, en minimisant les externalités négatives ?
Sasha Luccioni : Je pense que oui, comme je l’ai dit en finance, en santé, ce n’est pas forcément à cause de la conscience, mais à cause des contraintes. Ces domaines sont tellement légiférés et régulés, et c’est très bien qu’ils le soient, donc les compagnies ne peuvent pas juste commencer à mettre des chatbots dans tous les sens, qui racontent n’importe quoi en finance, ça ne marche pas. Pour le moment, je pense qu’ils sont vraiment motivés par des contraintes, sinon ils aimeraient bien, mais ils ne peuvent pas.
Cyrille Chaudoit : Spécifiquement sur l’impact écologique.
Sasha Luccioni : En fait, je vois qu’en France, on en parle beaucoup, beaucoup plus qu’en Amérique du Nord. Souvent, en Amérique du Nord, les gens n’ont jamais entendu parler du fait que l’IA a une corporalité, une matérialité. Pour eux, l’IA, c’est vraiment quelque chose d’abstrait, très éphémère. Je pense qu’en Europe on commence déjà à en parler, mais ça commence à peine. En fait, comme l’IA en elle-même est tellement sous-comprise, mal comprise, je pense que c’est encore plus difficile de comprendre son impact.
Mick Levy : Justement, tu as lâché le mot, tu disais que certaines entreprises sont un peu obligées par la réglementation. Ne penses-tu pas qu’il faudrait accentuer la réglementation autour de l’IA et autour de son impact environnemental ?
Sasha Luccioni : Oui, je pense qu’il faut, mais avant de réguler, il faut mandater, peut-être, ou insister sur la transparence et sur la standardisation.
Par exemple, un projet sur lequel je travaille en ce moment, c’est développer des genres de Nutriscore, « Énergiescore » pour des modèles d’IA. Une fois qu’on aura une règle commune pour mesurer l’impact énergétique, la consommation énergétique des modèles d’IA, là on pourra légiférer en utilisant cette règle comme base de comparaison. On peut dire « seulement un modèle qui a, je ne sais pas, trois étoiles sur cinq, peut être déployé tant de fois par jour. » Là, on peut vraiment commencer à contraindre. Pour le moment, on ne peut pas contraindre parce qu’on n’a pas encore les standards.
Mick Levy : Cette transparence est quand même demandée dans le règlement sur l’IA, dans le règlement européen qui est passé au Journal officiel en août 2024, cette transparence est demandée.
Sasha Luccioni : Pas en matière environnementale. En matière environnementale, c’est encore volontaire et très flou. Je pense qu’il y a quelques paragraphes là-dessus, mais c’est très abstrait, c’est genre « il faut communiquer sur les impacts environnementaux ». C’est ça le problème. En ce moment, on a pas de barème, pas de manière commune de comparer, il n’y en a pas, ou il y en a très peu et tu n’as pas de manière de vérifier ça.
Mick Levy : Ce n’est pas que dans le numérique, c’est de manière générale, dans le domaine industriel, ils ont les mêmes problèmes.
Sasha Luccioni : De manière générale. Il y en a qui vont comptabiliser l’eau, ils vont dire « les centres de données vont utiliser de l’eau pour le refroidissement ». Il y en a qui vont dire juste l’énergie. Ça dépend ce qu’on veut divulguer et, forcément, les compagnies vont divulguer le moins possible.
Cyrille Chaudoit : Juste, peut-être pour terminer le tour d’horizon entre les différents acteurs, les entreprises d’un côté, les institutions de l’autre avec la réglementation, quid des ONG, des associations. Est-ce que tu as observé des prises d’initiatives ou des prises de parole en particulier, pour justement transmettre et infuser cette batterie de questions que l’on se pose depuis tout à l’heure ?
Thibaut le Masne : En dehors de Trench Tech, bien évidemment.
Sasha Luccioni : Oui, bien sûr ! Je trouve qu’il y a plusieurs associations, par exemple, la Green Software Foundation travaille là-dessus, mais il y a aussi des associations plus techniques, par exemple le IEEE [Institute of Electrical and Electronics Engineers], une association vraiment en informatique qui maintenant travaille dessus, et au prochain niveau, il y a par exemple l’OCDE et l’UNEP [United Nations Environment Programme], la branche des Nations-Unies qui est responsable pour l’environnement, qui commencent à vraiment poser ces questions au niveau politique. C’est intéressant, mais j’observe que c’est un peu comme les personnes aveugles et l’éléphant : chacun tâte son côté de l’éléphant et chacun va essayer de mesurer sa petite partie et tout cela manque un peu de cohésion. Il y en a qui vont parler juste de l’énergie, juste de la consommation énergétique du hardware ; il y en a qui vont dire « il faut penser à l’analyse de cycle de vie avec les matériaux rares, le transport, l’eau, etc. », donc ça perd un peu la granularité. Justement, il y a plusieurs événements, plusieurs initiatives, qui démarrent en ce moment. Il y a vraiment un intérêt, une émulation qui est là.
Mick Levy : On peut citer notamment l’Afnor, en France, qui a publié en juillet dernier un référentiel pour l’IA frugale [12].
Sasha Luccioni : Exactement. Maintenant ils travaillent avec le ministère de l’Environnement en France, il a un autre nom.
Thibaut le Masne : Il change assez régulièrement.
Mick Levy : De la transition écologique.
Sasha Luccioni : C’est quelque chose « des territoires ». En tout cas, ils travaillent maintenant avec l’Afnor, c’est vraiment une coalition. En février 2025 il y aura le Sommet mondial de l’IA [13], Action IA, je vois déjà que l’aspect impact environnemental commence à vraiment prendre de l’ampleur dans le contexte de ce sommet.
Cyrille Chaudoit : Par rapport à cette idée de coalition, du moins de cohésion à l’échelle internationale, sinon mondiale, est-ce que tu penses que c’est envisageable, sachant qu’on n’arrive déjà pas à se mettre d’accord, tous autant qu’on est, avec des blocs qui sont parfois très américano-centrés, le bloc asiatique ? Est-ce qu’on peut avoir une espèce d’« ONU », entre guillemets de l’IA propre ? Est-ce que tu y crois vraiment ou est-ce que ça restera quand même par blocs ?
Sasha Luccioni : Je pense que l’ONU essaie de prendre cette place-là. Le problème, avec l’IA, c’est qu’il n’y a pas de territorialité. Par exemple, l’Union européenne a sorti le EU AI Act [14], mais il suffit qu’un modèle tourne aux États-Unis, en Chine, en Asie ou ailleurs, pour que le EU AI Act ne s’applique pas. En fait, c’est très difficile d’essayer de l’appliquer. Je pense que l’IA échappe toujours à la régulation. Je crois plutôt dans les approches de gens qui pratiquent l’IA, qui vont se mettre d’accord, qui vont créer des mécanismes un peu moins formels peut-être, mais plus communautaires. On va se mettre d’accord sur des standards ou des manières de faire qui, après ça, pourront être utilisées, mais qui auront déjà un certain consensus au sein de la communauté.
Cyrille Chaudoit : Merci beaucoup, Sasha, pour ces échanges extrêmement riches. On n’en attendait pas moins d’ailleurs. Vous qui nous écoutez ou réécoutez, n’oubliez pas aussi d’aller réécouter l’épisode avec l’Adème [2] que nous avions reçue l’année dernière, en saison 2, épisode 6, l’intitulé de cet épisode, c’était « Sobriété numérique, quel scénario ? ». Ils venaient tout juste de sortir leur nouveau rapport.
Merci pour cet échange, Sasha. On rappelle également ton Ted Talk AI is dangerous, but not for the reasons you think [7].
Sasha Luccioni : D’ailleurs, ce n’est pas moi qui ai choisi ce nom. Quand on fait un TED Talk, on a pas le choix du titre.
Cyrille Chaudoit : Alors il fallait faire un TEDx, parce qu’avec TEDx tu peux choisir le titre ! Et voilà ! Bim !
Mick Levy : Mais je pense qu’il n’aurait pas été autant vu.
Sasha Luccioni : Je n’ai rien à dire. En fait, je vais peut-être en faire un deuxième en mars, parce qu’il y a un évènement spécifiquement sur l’IA, donc à confirmer.
Cyrille Chaudoit : Waouh ! Tu es une des rares à faire plusieurs TED Talks et celui-ci cumule déjà au moment, où on enregistre cet épisode, plus d’un million de vues. On rappelle également ton site web, sashaluccioni.com/ [15], et celui de Climate Change AI [4], c’est important, climatechange.ai.
Sasha Luccioni : Il y a vraiment beaucoup de matière là-dessus. En fait, il y a des sommaires interactifs qui sont vraiment bien réussis pour essayer d’avoir plusieurs thématiques et plusieurs approches, ce que j’aime bien.
Cyrille Chaudoit : En plus, je suis sûr que son code est passé par Code Carbon pour vérifier qu’il était bien clean. Ça rassemble plein de travaux de nombreux acteurs, comme toi, qui cherchent à mettre le machine learning au service de la lutte contre le réchauffement climatique.
Mais vous qui nous écoutez, restez encore quelques petits instants. Nous allons débriefer, Mick, Thibaut et moi-même, des propos tenus avec Sasha, pour voir ce que l’on en retient.
Merci, Sasha.
Thibaut le Masne : Au revoir Sasha.
Sasha Luccioni : Merci.
Mick Levy : À bientôt.
Voix off : Trench Tech – Esprits critiques pour Tech Éthique.
Le debrief
Mick Levy : Les gars vous connaissez mon caractère optimiste ?
Cyrille Chaudoit : Non !
Thibaut le Masne : Non ! C’est lequel ?
Mick Levy : Là, honnêtement, elle ne m’a pas donné de grandes raisons d’espérer. On a quand même essayé sur plein de trucs, l’IA pour sauver le monde. Bof ! Pas trop. On va être raisonnable. Bof, pas trop. On va mieux communiquer sur les vraies empreintes. Ouais, mais c’est compliqué à mesurer. Les Big Tech ne veulent pas vraiment.
Thibaut le Masne : C’est ma faute Mick, j’ai joué le ronchon tout le temps.
Cyrille Chaudoit : Tu as fait le ronchon, non, tu t’es fait l’avocat du diable, tu l’as dit, tu l’as effectivement tiré par la queue plus d’une fois.
Thibaut le Masne : Si je peux te rassurer, pour moi, il faut qu’on retienne les cinq dernières minutes où elle nous a dit qu’il y a un collectif qui est effectivement en train de se réunir ou de se monter pour réfléchir sur tous ces impacts-là. Que ce soit au niveau européen, au niveau mondial, au niveau local, il y a vraiment des gens qui réfléchissent et qui essayent de regarder comment on peut s’en sortir par le haut.
Cyrille Chaudoit : Il y a des gens qui réfléchissent, à commencer par elle, puisqu’elle est l’auteure de la principale étude qui compte aujourd’hui dans le domaine. En revanche, avant de pouvoir créer une coalition, on l’a dit aussi, ce n’est pas gagné.
J’avoue que j’ai effectivement un peu le couvercle sur la marmite là, en ressortant de cet épisode, je ne suis pas serein.
Mick Levy : J’ai l’impression d’entendre ma grand-mère.
Cyrille Chaudoit : C’est dans les vieilles marmites qu’on fait les meilleures soupes.
Mick Levy : Oh ! Ma grand-mère n’est pas une marmite !
Cyrille Chaudoit : Ce que je veux dire, c’est que la seule lueur d’espoir que j’ai retenue, c’est qu’il y a bien un moment, et je cite à peu près les mots de Sasha, où les gens vont comprendre que ça ne sert pas à grand-chose de faire tous les jours de l’IA générative. Mais qu’est-ce que ça dit en creux ? Ça dit en creux que, pour le moment, le discours marketing est tellement efficace que tout le monde s’est jeté sur l’IA générative, donc en fait à qui mieux mieux, y compris pour des trucs qui ne servent absolument à rien. Donc, une fois de plus, on se fait avoir par les usages, par le discours marketing et par le marché. On se tire une balle dans le pied, et puis peut-être que dans n mois, n années, on aura compris qu’on n’en a plus besoin. OK, mais si c’est juste parce que nos usages ont diminué, je trouve que ce n’est pas une bonne nouvelle.
Mick Levy : J’espère que nous serons entendus et que c’est ce qu’il va advenir. De la part des entreprises, oui, certainement, parce qu’une logique économique va les rattraper, à un moment donné, sur l’IA générative. De la part du grand public, j’en suis moins sûr, parce que c’est un peu la même histoire que quand on a essayé de nous raisonner pour voir moins de photos de petits chats ou consommer moins de Netflix ou de YouTube.
Thibaut le Masne : Sur la voiture, on entend ce discours-là depuis très longtemps et, pour autant, il y a toujours autant de 4 X 4 et des SUV.
Mick Levy : La tentation est très forte.
Cyrille Chaudoit : Sauf que sur les vidéos de petits chats, Gilles Babinet nous avait dit que ce n’était pas très énergivore pour le coup, alors que l’IA oui. Je m’entends, la consommation des petits chats, ce n’est pas la consommation de croquettes, on ne mange pas des petits chats. La consommation de vidéos de petits chats n’est pas si énergivore que ça. Par contre, faire des petits chats sur Midjourney, là oui, on est d’accord.
Thibaut le Masne : Et est-ce qu’on a besoin de Midjourney pour faire des petits chats !
Cyrille Chaudoit : Mais ils sont mignons.
Mick Levy : Revenons à notre épisode. Ce qui est intéressant : à chaque fois qu’on parle avec des personnes comme Sasha, et là encore, c’est qu’elles nous ramènent à la matérialité de l’IA. Sasha nous rappelle que l’IA, les amis, c’est du matériel, des data centers qui consomment de l’énergie.
Cyrille Chaudoit : Elle précise, j’ai retenu – je trouve ça plutôt positif, c’est mon côté chauvin – qu’en France et en Europe, elle nous accorde le fait d’en parler déjà beaucoup, alors qu’en Amérique du Nord, le côté matériel de toute cette affaire, ça leur passe très au-dessus de la tête, dans le cloud !
Thibaut le Masne : Ils n’ont pas les pieds sur terre, mais ils ont la tête dans les nuages.
Mick Levy : Vite fait ! Quand on nous parle de la Data Center Alley, au bout de l’allée, il y a la centrale à charbon, il y a la centrale nucléaire ou autre, c’est un peu flippant.
Elle nous incite aussi à remonter la chaîne de responsabilité. Elle dit : « Il faut que les entreprises remontent la chaîne de responsabilité, comprennent finalement cette matérialité de l’IA, se renseignent : avec quelle énergie l’IA a été produite et sur quelle énergie l’inférence va se faire, il en est de leur responsabilité ». Je trouve que ça nous ramène à une grande question qu’on touche très souvent du doigt dans Trenh Tech : comment on répartit cette responsabilité, où doit-elle être ? Est-ce qu’on doit la faire peser sur les Big Tech qui fabriquent et qui font un tel marketing sur les IA qui sont utilisées de manière hyper large ? Est-ce qu’on la fait porter aux end users ? Et toi, arrête de faire des photos de petits chats sur Midjourney, pour t’amuser le week-end. Non pas toi ! Ou est-ce que c’est sur les entreprises, effectivement, dans leurs usages ? Ce n’est pas tranché.
Cyrille Chaudoit : Comme toujours, c’est un équilibre. En revanche, qui, au sein de l’entreprise, pour aider les dirigeants à prendre les bonnes décisions, pour éviter les externalités négatives, renforcer avec l’IA ? Eh bien la bonne nouvelle encore : à peu près 20 personnes, dans le monde, sont des cadors pour pouvoir le faire. Elle n’est pas tout à fait certaine que les cabinets de consulting soient équipés de ces profils.
Voix off : Trench Tech.
Cyrille Chaudoit : Et voilà, nous avons passé plus ou moins 60 minutes ensemble pour exercer notre esprit critique sur l’impact des IA sur le réchauffement climatique. On espère que cet épisode avec Sasha Luccioni vous a plu autant qu’à nous et qu’il a, une nouvelle fois, permis d’exercer votre esprit critique pour une tech éthique.
Si c’est le cas, je vous invite à redécouvrir l’épisode de l’Adème [2], en saison 2, comme je vous le proposais tout à l’heure. Et au passage, n’oubliez pas de nous mettre cinq étoiles sur la plateforme de podcasts d’Apple ou toute autre, de lever un pouce ou, mieux encore, de partager cet épisode sur YouTube. Ça donne du sens à notre engagement et ça vous prend à peu près 15 secondes. Et puis tiens, pour nous quitter, j’ai envie de vous partager cette pensée de Spinoza, rien que ça : « Tout ce qui est contraire à la nature est en effet contraire à la raison. »
À très vite.
Voix off : Trench Tech – Esprits critiques pour Tech Éthique.