Mesdames et Messieurs, bonjour et bienvenue dans IA qu’à m’expliquer, le podcast du Temps qui démystifie les intelligences artificielles. Pour conclure la deuxième saison de IA qu’à m’expliquer, nous allons parler de l’importance de promouvoir une littéracie critique de l’intelligence artificielle générative au sein des entreprises. Mon invité, Rodolphe Koller, observe de près depuis une vingtaine d’années la numérisation du monde du travail.
Mais d’abord, place à une petite page d’actualité avec les puces d’IA de Google et les modèles de langage chinois à poids ouverts. Je vous propose aussi de revenir brièvement sur cette deuxième saison qui s’est étalée sur 21 épisodes.
Nous serons de retour le 19 janvier 2026, avec une troisième saison qui continuera d’appréhender l’intelligence artificielle sous toutes ses coutures. Et, comme d’habitude, je vous signale que vous pouvez soutenir ce podcast en le partageant avec vos collègues, amis et famille. Vous êtes toujours plus nombreuses et nombreux à nous écouter et il n’y a pas de raison que ça s’arrête en si bon chemin.
Je suis Grégoire Barbey, journaliste au Temps’’ et vous écoutez le 21e épisode de la saison 2 de ’’IA qu’à m’expliquer.
Actualité
Place donc, maintenant, à l’actualité et si ces sujets vous intéressent, vous le savez, je vous mets quelques liens dans la description pour que vous puissiez les approfondir.
Les TPU de Google
La bataille fait rage dans le domaine des puces d’intelligence artificielle. Nvidia contrôle actuellement 90 % du marché, mais cela pourrait changer progressivement. Depuis plusieurs années, Google développe ses propres puces et, visiblement, elles n’ont pas à rougir en termes de performance.
Pour que vous compreniez bien, il faut rappeler les bases. Nvidia conçoit des GPU, c’est-à-dire des unités de traitement graphique. Contrairement à des processeurs traditionnels qui réalisent les opérations de calcul les unes après les autres, de manière séquentielle, les GPU peuvent réaliser plusieurs opérations en parallèle. Cette parallélisation des calculs s’avère très utile en matière d’intelligence artificielle.
Google, de son côté, a développé des TPU ou unités de traitement de tenseur. Je ne vais pas entrer dans les détails de cette technologie, mais, contrairement aux puces Nvidia, les TPU de Google sont spécialisées dans une seule fonction de calcul tensoriel, essentielle dans l’apprentissage profond. Cette approche permet aux puces de Google d’être plus performantes en matière d’efficience énergétique.
Google a récemment créé la surprise avec Gemini 3 Pro, son dernier modèle de langage, entraîné uniquement avec l’aide de TPU, de quoi susciter l’intérêt pour de telles puces. Google pourrait d’ailleurs vendre ou louer ses TPU à Meta, selon certains médias américains. Si les TPU sont peut-être plus performantes à certains égards, elles sont aussi dépendantes de Google Cloud, ce qui n’est pas le cas des GPU de Nvidia. Cette contrainte pourrait bien limiter l’attrait pour les puces de Google. Seul l’avenir nous le dira !
Les modèles à poids ouverts
Il y a un autre secteur de l’intelligence artificielle dans lequel la bataille fait rage, celui des modèles de langage à poids ouverts. Ce sont ces modèles qui peuvent être téléchargés gratuitement et qui peuvent être déployés n’importe où. C’est, par exemple, le cas de Llama 3, développé par Meta. C’est l’inverse d’OpenAI, qui limite l’accès à ses modèles à des interfaces de programmation et à son service ChatGPT.
En matière de modèles de langage à poids ouverts, la Chine se montre de plus en plus avant-gardiste. Elle avait fait sensation, début 2025, avec Deepseek R1. Ça continue avec la start-up Moonshot AI qui a récemment lancé Kimi K2, un modèle très performant, accessible à qui le souhaite. Selon une étude réalisée par le MIT et la start-up Hugging Face [1], la part totale des téléchargements de nouveaux modèles à poids ouverts chinois a dépassé celle des modèles américains. D’ailleurs, les modèles chinois sont massivement adoptés en Afrique et en Asie, mais ils intéressent aussi de plus en plus d’entreprises en Occident. La stratégie de la Chine s’avère donc payante.
Si vous m’avez bien écouté, vous avez noté que j’ai choisi de parler de modèles à poids ouvert plutôt que de modèles open source. Il y a une raison à cela. Les entreprises qui conçoivent ces modèles ne dévoilent pas toujours toutes les informations à leur sujet, par exemple, les données d’entraînement sont rarement communiquées. Difficile donc de leur attribuer le qualificatif d’open source. Si ça vous intéresse, la plateforme osai-index.eu [2] répertorie des dizaines de modèles de langage en fonction de leur ouverture. Le modèle suisse Apertus [3] figure en tête de liste. Vous pouvez retrouver le lien vers l’index en description.
Récapitulatif de fin d’année
Comme je vous le disais en introduction, je ne résiste pas à faire un petit récapitulatif de cette deuxième saison, puisque cet épisode en sera la conclusion.
Ça a été une année riche en discussions autour de l’intelligence artificielle.
Nous avons parlé des implications de cette technologie dans le domaine militaire, dans la santé, dans l’enseignement ou encore dans la culture.
Nous nous sommes intéressés à la manière dont l’industrie cherche à associer intelligence artificielle et cerveau humain.
Nous avons questionné le rôle de l’IA dans la continuité d’une logique postcoloniale et nous avons aussi compris pourquoi il vaut mieux être poli avec ChatGPT.
Ces 21 épisodes ont été vraiment passionnants à réaliser. J’espère que vous avez pris autant de plaisir à les écouter que j’en ai eu à les concevoir. Je vous remercie chaleureusement pour votre fidélité et votre intérêt et j’espère vous retrouver encore plus nombreux pour la troisième saison.
Je ne vous fais pas patienter davantage. Il est temps de passer à l’entretien.
Entretien avec Rodolphe Koller
Grégoire Barbey : Bonjour Rodolphe Koller.
Rodolphe Koller : Bonjour Grégoire.
Grégoire Barbey : Tu as été rédacteur en chef du média spécialisé ICTjournal pendant 17 ans et tu es désormais fondateur de Question Zero [4] et associé à Halberg Partners. Tu t’intéresses de près à la manière dont les entreprises intègrent les logiciels d’intelligence artificielle générative. Ton constat, c’est que cette intégration ne se passe pas toujours très bien. Or, ce sont souvent les employés qui sont perçus comme le facteur bloquant. Les entreprises cherchent donc à améliorer leurs compétences. Le problème, c’est que ça se limite souvent à leur fournir une maîtrise instrumentale de cette technologie. Or, tu estimes qu’il faudrait aller beaucoup plus loin. Est-ce que tu peux nous expliquer ce que tu entends par là ?
Rodolphe Koller : Quand on introduit une technologie, qu’aussi bonne soit-elle, on sait très bien que si les personnes ne l’utilisent pas ou si elles ne sont pas assez formées pour l’utiliser, ce sera un échec, ça n’apportera pas les gains escomptés. Donc, dans le cadre de la gestion du changement, on va pousser l’adoption des outils et on va former les personnes, c’est la clé de ce qu’on appelle la gestion du changement.
Avec l’IA générative, on a quand même affaire à des outils vraiment d’un nouveau type, ils sont très versatiles, beaucoup de latitude est laissée à l’utilisateur dans son utilisation. Et puis, on se rend compte que la seule adoption dans les entreprises n’est pas la garantie d’obtenir les gains attendus, notamment de productivité, voire, parfois, ça peut s’avérer contre-productif.
En matière de formation, aujourd’hui on parle beaucoup de AI literacy, donc de former les utilisateurs à l’emploi d’intelligence artificielle.
Néanmoins, c’est souvent assez classique, on ne tient pas vraiment compte des caractéristiques de cette technologie, c’est-à-dire qu’on l’enseigne aux personnes les outils à leur disposition, les différents chatbots, etc., avec leurs qualités et leurs défauts, on leur enseigne à bien prompter, à formuler les invites, à formuler leur demande de façon efficace. Et puis encore, on va souvent ajouter un volet un peu de sécurité et de conformité, on va essayer de rendre les utilisateurs attentifs au fait de ne pas dévoiler les secrets de l’entreprise, etc.
Grégoire Barbey : Mais justement, je t’arrête, on parle de littératie critique de l’intelligence artificielle générative. Qu’a-t-elle de différent, cette technologie, des précédentes générations de logiciels ? Je ne crois pas que les entreprises aient jamais formé leurs employés à une littératie critique de Word, Excel ou Powerpoint.
Rodolphe Koller : Tout à fait. Pour moi, cette technologie a des particularités, notamment dans la façon dont elle se présente à nous, avec des capacités prodigieuses, le fait de pouvoir converser. Elle a aussi des caractéristiques très distinctes par rapport à la façon dont elle est conçue, les principes de sa conception, puisque ce sont des machines qui sont conçues pour feindre des savoirs, pour imiter les savoirs. Et, d’autre part, elles sont aussi entraînées pour maximiser l’attention, pour séduire l’utilisateur. Tout cela pousse, d’une certaine manière, je dirais à la fois à deux tendances qui sont problématiques.
D’une part, à une délégation excessive aux machines, donc perte de compétences, de capacités cognitives, de maîtrise de ce qu’on fait.
Et, d’autre part, c’est très opaque. Quand quelqu’un travaille avec ces machines, c’est très difficile de savoir qui fait quoi et ça pose plein de problèmes, notamment pour la responsabilité, pour la motivation des personnes, etc.
Donc pour moi, littératie critique veut dire qu’on va former les gens, les éduquer à comprendre la machine, avoir une certaine compréhension de la façon dont elle fonctionne, et à comprendre leurs propres modes de connaissance pour pouvoir développer une relation avec la machine qui soit plus saine.
Grégoire Barbey : Mais, pour toi, est-ce vraiment envisageable de comprendre la machine alors même que les éditeurs comme OpenAI, Microsoft, Google et compagnie, font justement tout pour nous cacher le fonctionnement de l’intérieur de ces machines et de nous éloigner de la compréhension de leur système ?
Rodolphe Koller : Oui, je pense que c’est possible. Je ne pense pas qu’une compréhension dans le détail soit possible. Je pense qu’il faudrait développer un peu la même compréhension que j’ai de ma voiture. Je ne suis pas mécanicien, mais quand j’appuie sur la pédale des gaz ou des freins, j’ai une certaine compréhension de ce qui se passe. Je pense que c’est ce type de compréhension qu’il faut développer chez les utilisateurs pour avoir un usage raisonné de l’IA.
Grégoire Barbey : Mais justement, quand tu appuies sur la pédale d’accélérateur de ta voiture, elle va avancer. Alors que là, parfois, tu donnes deux fois la même instruction à l’IA générative et les résultats sont différents. Comment fais-tu pour, justement, comprendre comment elle arrive à ces résultats qui sont différents ?
Rodolphe Koller : Je pense que si on comprend la façon dont fonctionne l’IA générative, on comprend aussi le fait qu’elle fasse des erreurs, je dirais que les erreurs sont inhérentes à son mode de fonctionnement. Après, un des problèmes du fait qu’une machine produise des résultats différents, dans certains cas ça peut pousser, d’une certaine manière, à y voir une intention, à anthropomorphiser la machine. Ce n’est pas pour rien que, même avec ma voiture, je vais dire « je ne sais pas pourquoi ce matin elle veut pas démarrer ! ». Je vais donc lui prêter une intention dans le langage. Quand une machine ne réagit pas toujours de la même façon, on risque l’anthropomorphiser.
Grégoire Barbey : Si je me fais un peu l’avocat du diable, quel est, selon toi, le risque de se contenter d’une simple maîtrise instrumentale de l’IA générative ?
Rodolphe Koller : Au niveau de l’éducation de façon générale, je pense qu’il y a plein de choses à faire pour développer une littératie critique, afin aussi de comprendre les systèmes au niveau environnemental, au niveau économique, etc. Ce qui m’intéresse dans la réalité des organisations, c’est une littératie critique qui évite les effets pervers qu’il peut y avoir dans une entreprise avec l’utilisation de l’IA générative. J’en vois deux.
D’une part la délégation, ce qui veut dire qu’on a une perte de maîtrise sur les résultats. Par exemple on voit parfois, aujourd’hui, du code qui est produit par des développeurs mais en grande partie avec l’assistance de l’IA, que plus personne ne peut toucher pour vérifier s’il y a des erreurs, etc. Ça devient quelque chose que plus personne ne maîtrise. Il y a donc une perte de pratique donc de compétences, d’expertise, etc.
Et puis il y a cette opacité, qui est un problème. On attend des utilisateurs qu’ils vérifient les résultats, mais s’il y a une opacité sur ce qu’ils ont fait et ce qu’a fait la machine, ça peut pousser à un certain suivisme : j’ai intérêt, comme utilisateur, à me conformer à ses résultats.
Grégoire Barbey : On parle d’ailleurs de biais d’automatisation [5], si je ne me trompe pas. Tu arrives à le définir ?
Rodolphe Koller : Dans le cas des IA génératives, le biais d’automatisation c’est plus compliqué.
Le biais d’automatisation, c’est une sorte de confiance à priori qu’on a dans les machines, ce qui est un problème dans la mesure où cette confiance n’est pas calibrée en fonction de la fiabilité de la machine. Avec l’IA générative, à ce biais d’automatisation qu’on a dans l’électronique et dans les machines, s’ajoute un autre biais, qui est une sorte de confiance, plutôt, en l’occurrence, à cause du caractère humain de la machine. Le fait qu’elle parle, le fait qu’elle ait un ton plein de confiance, le fait qu’elle ait réponse à tout, tout cela va concourir à ce qu’on la suive, à ce qu’on s’y conforme. C’est même souvent dans les objectifs, on veut que les utilisateurs soient familiers avec ces outils pour qu’ils aient davantage confiance. En fait, si je devais dire ce qu’est la littératie critique, je pense qu’elle vise à préserver l’étrangeté de ces machines et à développer la défiance envers les résultats, ce qui est pour moi la condition d’un usage raisonné.
Grégoire Barbey : Rodolphe Koller, si je résume, l’esprit critique ça nécessite du temps. Il faut digérer l’information pour pouvoir la recontextualiser et éventuellement la questionner. Or, ces outils se déploient avec une forte injonction de productivité, d’efficacité, donc de rapidité. Est-ce que tu crois vraiment qu’on peut, dans ces conditions-là, donner aux utilisateurs une vraie capacité critique vis-à-vis des outils qui leur sont imposés ?
Rodolphe Koller : Oui, j’y crois, parce que je crois en l’humain. Je crois en ses capacités, en la possibilité de développer de nouvelles compétences et puis parce que les humains, contrairement à l’IA, pensent. Maintenant, bien entendu, le contexte, la pression à la productivité, etc., c’est important et ça peut jouer. Si je n’ai pas le temps d’exercer mon esprit critique, si les objectifs ne sont pas clairs, c’est problématique. Je pense que souvent, du côté des organisations, beaucoup de choses sont dans le flou. L’IA générative exige, pour un déploiement raisonné, que les entreprises se posent des questions : est-ce que mon but c’est d’ajouter du volume et je suis OK avec la qualité, même médiocre, des résultats ? Est-ce que mon objectif, c’est la qualité et, à ce moment-là, je dois donner du temps aux utilisateurs pour vérifier l’intégralité des contenus ? Les entreprises doivent se poser toutes ces questions. Et, de façon plus générale, quelles sont les compétences que j’ai dans mon organisation ? Parmi ces compétences, lesquelles sont accessoires, que je peux très bien déléguer, elles ne sont pas importantes pour ma compétitivité, et lesquelles sont stratégiques et je dois me soucier de leur pérennité ?
Grégoire Barbey : Aujourd’hui, on entend dire que, dans les entreprises, beaucoup de projets d’intégration de l’IA générative échouent. Un des arguments qu’on entend beaucoup, c’est que ce n’est pas la faute de l’IA générative en tant qu’outil, mais des entreprises qui n’ont pas fait les bons choix. Es-tu d’accord avec cette assertion ?
Rodolphe Koller : Oui, en partie. Je pense qu’il faut distinguer. Aujourd’hui, dans les entreprises, en gros on a deux types d’usage.
Je dirais qu’on a une utilisation de façon vraiment outil de productivité que ce soit avec ChatGPT, Copilot, etc. ; d’une certaine manière on a des assistants qui sont utilisés de façon très libre.
De l’autre, on a – c’est plus compliqué et c’est sans doute là qu’il y aura les projets les plus intéressants – des outils d’automatisation. On va s’intéresser à un processus, voire à une partie particulière de processus, qu’on va automatiser.
La technologie a plein d’atouts et on connaît ses défaillances, on sait notamment qu’on ne peut pas s’y fier à 100 %. Aujourd’hui le travail des entreprises c’est de s’emparer de cette technologie car, je dirais, les façons de faire habituelles de l’informatique ne vont pas fonctionner, ni celles où on essayerait de faire comme avec des humains. Je pense que ce sont des outils qui nécessitent d’être encadrés, un petit peu endigués. Il ne s’agit pas de laisser piloter le bateau, mais de construire les digues pour que ce bateau suive plus ou moins le chemin qu’on souhaite.
Grégoire Barbey : Du coup, si on regarde un petit peu le narratif qu’on entend actuellement, on parle aussi beaucoup des agents d’intelligence artificielle qui vont pouvoir faire beaucoup de choses de manière totalement autonome, tu n’y crois pas vraiment. Il y aura toujours, nécessairement, du cadrage humain derrière pour que ça fonctionne, à ce stade en tout cas.
Rodolphe Koller : Oui et non. On peut imaginer des usages et le cadrage humain peut fonctionner de différentes manières.
Si, par exemple, j’envoie une newsletter marketing une fois par semaine à mes clients, je peux très bien imaginer que je considère qu’une erreur dans ce contenu n’est pas si grave que ça, et que je laisse l’IA générative créer cette newsletter. Ça peut être un choix d’une entreprise, il faut que ce soit un choix conscient et l’entreprise pourrait dire « je fais des audits ponctuels pour voir s’il y a pas d’erreur », même s’il n’y a pas de contrôle systématique.
En revanche, il y a d’autres cas de figure où l’entreprise va dire « là c’est sensible ». Ce sont des contrats, ce sont des offres envoyées aux clients, donc, là, il est exclu que ça parte avec une erreur.
Je pense, de nouveau, qu’il faut mettre de la granularité. Ce n’est pas noir ou blanc, il faut voir toutes les couches de gris aussi dans le type d’intervention de l’humain.
Grégoire Barbey : Si on regarde cette façon de penser et d’autoriser l’erreur, ça va un peu à contre-courant de nos modèles. Jusqu’ici on a, je pense, mis de plus en plus d’échelons de contrôle dans beaucoup d’organisations, que ce soit dans l’État, que ce soit dans les entreprises, pour éviter, justement, qu’il y ait des erreurs qui soient problématiques. Et aujourd’hui, en fait tu dis qu’avec la machine qui est censée rendre les choses beaucoup plus efficaces, beaucoup plus précises, on doit accepter une part d’erreur. Ça peut quand même paraître un peu contre-intuitif.
Rodolphe Koller : Je ne dis pas qu’il faut accepter ce type d’erreur, je dis que ça doit être un choix conscient. Si l’entreprise introduit un outil d’IA générative, qu’elle dit que, d’une certaine manière, elle laisse à l’utilisateur le soin d’arbitrer, celui-ci se retrouve avec des injonctions contradictoires : on lui demande de faire plus, il a une machine qui fait des erreurs et on ne lui donne pas le temps pour pouvoir vérifier. C’est un problème dans une entreprise. Je dis donc que l’entreprise doit encadrer cet usage, elle doit faire ce choix de façon délibérée et dire « pour nous, cette qualité, avec des erreurs possibles, est OK », pas l’utilisateur.
Grégoire Barbey : Rodolphe Koller, si on regarde toujours du point de vue des entreprises, le fait de déployer ces outils change aussi la façon dont certaines personnes vont exercer leur métier, leurs tâches. De créateur total, on va peut-être passer à un métier un peu plus de contrôle, de vérification de ce qu’a fait l’IA générative. Est-ce que, de ton point de vue, cela peut aussi avoir des effets sur l’attractivité de ces emplois, sur l’accompagnement que les entreprises doivent mettre en place pour que ces gens ne soient peut-être pas fatigués par cet emploi qui a complètement changé de nature ? Qu’est-ce que t’inspire tout cela ?
Rodolphe Koller : Je pense qu’un métier dans lequel je ne fais plus que valider des outputs d’intelligence artificielle, c’est une qualité travail dégradée, je ne vois pas comment on va motiver, à la longue, les personnes à faire cela. D’autre part, un autre problème, pour valider ces contenus, d’une certaine manière, il faut aussi avoir de la pratique, ce qui est un problème : si on ne fait que valider, comment va-t-on développer son expertise ?
De mon point de vue, une direction plus intéressante aussi bien pour l’entreprise que pour le collaborateur, c’est de faire évoluer ces rôles vers le rôle non pas de vérificateur de l’output où, d’une certaine manière, je dirais que c’est l’IA qui pilote et l’humain est accessoire, mais le contraire, c’est-à-dire dire que ces métiers évoluent vers de vrais entraîneurs de l’intelligence artificielle : je vais lui apporter des inputs pour qu’elle apprenne, pour qu’elle s’améliore, et puis je suis responsable non pas de valider ce que produit la machine, mais je suis responsable de cet algorithme.
Grégoire Barbey : En l’occurrence, si je continue de faire un peu l’avocat du diable, on arrive vers une espèce d’extériorisation du savoir de la personne, de son expérience, vers la machine qui, ensuite, quand cette personne va partir – soit être remplacée, soit aller à la retraite, peu importe –, ça va quand même rester entre les mains de l’entreprise et cette personne aura délégué une partie de son savoir à cette machine. Ça pose aussi des questions sur la valeur du travail, sur beaucoup de choses en fait, on ne peut pas simplement se dire : ça fonctionne et puis ça va être chouette.
Rodolphe Koller : Tout à fait. Quand j’imagine qu’une personne devienne un formateur, son métier évolue vers le rôle d’être le propriétaire, je dirais, de cette IA au sein de l’entreprise, j’imagine bien entendu qu’il y a une rémunération, une rétribution qui va avec. On pourrait même imaginer, d’une certaine manière aussi, de propriété intellectuelle, pourquoi pas.
Grégoire Barbey : Penses-tu que cette tendance est possible ? Parce qu’on a plutôt l’impression, aujourd’hui, que les tâches qui sont en partie automatisées par l’intelligence artificielle générative ont tendance à plutôt pousser les salaires à la baisse des métiers concernés. C’est parce que cette intégration n’est pas faite comme tu le suggères que ça provoque cet effet-là ?
Rodolphe Koller : Je le pense, si l’humain est effectivement réduit à vérificateur. Une anecdote : il y a une année, une plateforme qui n’existe plus, qui, sauf erreur s’appelait Payman, se proposait, par exemple, de donner un compte de carte de crédit aux agents d’IA pour que eux puissent solliciter, à un moment donné, des humains pour vérifier leurs propres outputs. Donc, là, on serait dans une logique où c’est vraiment l’humain qui est au service de la machine. Ce que je propose, comme métier, c’est vraiment plutôt de dire « développons les métiers experts vers un rôle de propriétaires d’algorithmes, dont ils prendraient soin, dont ils veilleraient à améliorer les résultats », ce qui me semble beaucoup plus épanouissant.
Grégoire Barbey : Dans le cadre des entreprises, il y a aussi un discours qui est très présent : la peur de rater le virage. Donc beaucoup d’entreprises se posent la question : « comment vais-je intégrer ces outils dans ma pratique quotidienne ? », plutôt que de se demander si ces outils répondent à leurs besoins spécifiques. Quel est ton conseil pour des entrepreneurs qui nous écouteraient aujourd’hui et qui se poseraient cette question : qu’est-ce que je dois faire aujourd’hui ?
Rodolphe Koller : Premièrement, de toute façon, il n’y a pas de technologie inéluctable. Je pense qu’il faut effectivement refuser cet impératif, c’est la première chose à faire.
Ensuite, du côté des directions d’entreprises, des entrepreneurs, il faut une compréhension de la technologie – on parlait avant des projets qui échouent – pour pouvoir décider, justement par rapport à la fois aux capacités prodigieuses et aux défaillances prodigieuses de ces machines et dire, dans ce cas de figure, ça fait sens, dans ce cas de figure, ça ne fait pas sens. Plein de facteurs doivent entrer, par exemple, justement, ma tolérance à l’erreur dans tel processus par rapport à tel autre processus ; combien va me coûter, d’un point de vue économique, le risque d’erreur ? Tous ces facteurs doivent entrer en compte pour choisir façon judicieuse les domaines où on introduit de l’IA.
Grégoire Barbey : Après, on a aussi tout un pan de concepts qui naissent avec le développement de l’IA générative. On a notamment, en Suisse, par exemple l’association AI Suisse [6] qui a développé une notion de « co-penser » avec l’IA. Qu’est-ce que t’inspire ce genre de vocabulaire ?
Rodolphe Koller : Je suis assez réfractaire à ce genre de vocabulaire.
Premièrement, je dirais déjà que « co-penser » ça anthropomorphise, ça laisse penser à une relation d’égal à égal entre la machine et l’humain.
D’autre part, mais comme d’autres termes, on entend le terme d’« agentivité », d’agent, le terme de « collaborer avec l’IA », on a tout un lexique qui s’est développé et qui est problématique. Ce n’est pas seulement le fait des sociétés qui développent ces systèmes, c’est aussi le fait qu’on est face à ces machines qui conversent, ce qui peut faire qu’on tend à les anthropomorphiser.
Grégoire Barbey : C’est l’effet ELIZA [7].
Rodolphe Koller : Exactement. Pour moi, c’est un problème. Donc, plutôt que de dire de « co-penser » avec l’IA, on va plutôt dire : c’est l’humain qui a les rênes, il l’encadre, il endigue la production de ces machines. Cette littératie critique veut aussi dire que l’utilisateur est attentif à l’intellect qu’il mobilise quand il travaille avec l’IA, pour éviter une délégation excessive et des pertes de compétences.
Grégoire Barbey : Est-ce que tu penses qu’on peut aujourd’hui, avec l’IA générative, éviter d’arriver à un stade où tous ces métiers qui sont en partie automatisés par l’IA générative, qui, jusqu’ici, avaient plutôt été préservés par le machinisme, tous ces gens qui étaient des artisans deviennent, entre guillemets, « des manœuvres », parce que leur rôle, c’est plutôt de piloter la machine, de l’aiguiller ? Que faut-il faire pour que ces métiers conservent du sens aussi ? Pour citer un exemple qui est, à mon avis, parmi les plus criants, se lancer dans la traduction, ce n’est plus du tout la même chose aujourd’hui, avec l’IA générative, qu’il y a 20 ans.
Rodolphe Koller : Je n’ai pas la réponse absolue. C’est clair qu’avec l’IA générative il y a des métiers qui sont menacés, un peu les cols blancs, à l’image des cols bleus à l’époque de la révolution industrielle. L’exemple du traducteur est criant et je n’ai pas de solution, je vois pas quel avenir radieux se profile pour le métier de la traduction. Ce qui m’intéresse, c’est de dire que les entreprises elles-mêmes, par rapport à leurs objectifs, doivent veiller. Ce n’est pas une relation aussi simple, ce n’est pas qu’on aurait des soucis sociétaux et les entreprises auraient d’autres soucis. Dans de nombreux cas, je pense que ces soucis dont on parle, du sens du travail, sont aussi des soucis pour les entreprises. On parle de productivité, un des principaux facteurs de productivité dans l’entreprise, c’est la motivation des collaborateurs. Donc, si je mets de l’automatisation qui les démotive, c’est totalement contre-productif.
Grégoire Barbey : On voit aussi et c’est d’ailleurs un phénomène qui inquiète de plus en plus : au lieu de supprimer des postes d’employés seniors ou même au milieu de leur carrière, on dirait que ça efface plutôt des carrières de juniors. Les entreprises semblent moins disposées à prendre des juniors, parce que, en général, c’est à ces personnes-là qu’on confie des tâches assez rébarbatives, facilement automatisables avec ces outils, du coup, ça pose la question de la formation. Si ces gens-là ne peuvent plus accéder à un premier emploi, comme fait-on pour qu’ils puissent développer leurs compétences et prétendre, ensuite, être employables ailleurs ?
Rodolphe Koller : Je pense que c’est un risque. Ça fait peu de temps que cette technologie est là, mais certains signes laissent effectivement penser que dans certains métiers, je pense notamment au développement informatique, qu’il y aurait moins d’embauches de juniors. Tout à l’heure, tu posais aussi la question des salaires. Cette tendance-là semble aller dans le sens de plus hautes rémunérations, par contre moins d’emplois et que des emplois de super experts. J’ai rencontré des entrepreneurs il y a deux jours, ils sont parfaitement au fait, conscients de cette problématique, ils se demandent comment ils vont former de futurs experts, de futurs seniors, s’ils n’engagent pas de juniors. Là où c’est compliqué, c’est que si on engage des juniors, qu’on leur met des outils d’IA entre les mains, on pourrait dire aussi que ça va être un problème, qu’ils ne vont pas monter en compétences, puisqu’on monte en compétences, on devient un expert, en effectuant des tâches simples, pour, après, monter en grade et effectuer des tâches de plus en plus complexes.
Grégoire Barbey : Rodolphe Koller, je te pose une dernière question. Ça fait trois ans, quasiment, que ChatGPT a été lancé au moment où on réalise cet entretien. Il y a comme un vent de ras-le-bol, par moment, qu’on peut entendre de plus en plus, une forme de désillusion vis-à-vis des résultats que ces systèmes ont mis en place. Il y a eu un très fort engouement ces trois dernières années, n’a-t-il pas été un peu prématuré ? Ce qui ne veut pas dire que ces outils ne vont pas, à un moment donné, répondre aux promesses très élevées qu’on leur a fixées, mais aujourd’hui, maintenant, n’est-on pas allé un peu trop vite ? Ne faudrait-il pas, justement, prendre un peu plus de temps pour intégrer ces outils et voir quels sont vraiment leur potentiel à long terme, plutôt que de se précipiter à tout-va ?
Rodolphe Koller : De toute façon, c’est ce qu’on devrait faire avec toute technologie.
Pour l’effet ras-le-bol, je pense que c’est parce que, au niveau des informations, on est bombardé, les entreprises sont bombardées d’informations : « si vous n’y allez pas, vous êtes mort », « cette technologie est géniale ».
D’autre part, en tant qu’utilisateurs particuliers, cette technologie nous semble effectivement prodigieuse.
Il faut toujours raison garder. Il y a ce fameux cycle d’adoption d’une technologie : on dit qu’il y a une sorte de fort engouement, puis une sorte d’étape de désillusion, avant que des usages pérennes ne se développent. De mon point de vue, la technologie a un formidable potentiel dans le domaine de l’entreprise, plus que, par exemple, dans le domaine des thérapies. Maintenant, pour qu’un usage sain, utile à l’entreprise, épanouissant pour le collaborateur, se développe, il faut bien réfléchir dans quels endroits, dans quels processus on déploie cette technologie. Et puis, j’insiste toujours là-dessus, il faut développer cette littératie critique des utilisateurs.
Grégoire Barbey : Merci, Rodolphe Koller. J’ai une dernière question, c’est la question rituelle du podcast : si on veut de suivre, où est-ce qu’on peut te retrouver ?
Rodolphe Koller : Pour l’instant j’ai un blog, mais bientôt un site. Donc c’est www.questionzero.org.
Grégoire Barbey : Merci beaucoup, Rodolphe.
Rodolphe Koller : Merci.
Conclusion
Voilà qui conclut cette deuxième saison. Je vous donne rendez-vous le 19 janvier 2026 pour la suite. En attendant, si vous avez des questions ou des remarques, vous pouvez nous écrire à cyber chez letemps.ch. Vous pouvez aussi nous lire sur letemps.ch, et découvrir nos autres podcasts, Brise-Glace et Sous la Coupole. D’ici-là, je vous souhaite d’excellentes fêtes de fin d’année.