Face à l’IA générative, la fin de l’enseignement ex cathedra IA qu’à m’expliquer

Voix Off : Cet épisode a été réalisé avec le soutien d’Infomaniak. Les intelligences artificielles représentent un danger majeur pour la propriété intellectuelle de vos données. Notre partenaire vous propose de recourir à des intelligences artificielles souveraines, hébergées en Suisse, qui n’enregistrent pas vos informations sensibles et respectent strictement le droit suisse et européen en matière de protection des données. Pour plus d’informations rendez-vous sur infomaniak.ch.

Voix Off : IA qu’à m’expliquer.

Grégoire Barbey : Mesdames et Messieurs, bonjour et bienvenue dans IA qu’à m’expliquer, le podcast du Temps consacré aux enjeux politiques et économiques de l’intelligence artificielle.

Faut-il arrêter de faire des études ? C’est en tout cas ce qu’affirment certaines voix face à l’essor de l’intelligence artificielle générative, mais ce n’est pas l’avis de l’invité de cet épisode, Richard Emmanuel Eastes, qui travaille à la Haute École spécialisée de Suisse occidentale, il nous dira pourquoi c’est même tout l’inverse. Avant d’aborder ce sujet passionnant, je vous propose, comme d’habitude, de revenir brièvement sur l’actualité.

Le Forum économique mondial de Davos a été l’occasion, pour les principaux patrons américains de la tech, de faire le show. Je vous parlerai également d’un colloque auquel j’ai assisté, à l’Assemblée nationale, sur les enjeux politiques et stratégiques de l’intelligence artificielle.
Si ce contenu vous plaît, pensez à le partager avec vos amis, proches et collègues. Vous contribuerez ainsi à son succès.
Je suis Grégoire Barbey, journaliste au Temps et vous écoutez le deuxième épisode de la saison 3 de IA qu’à m’expliquer.

Actualité

Forum économique mondial de Davos

Si vous écoutez régulièrement IA qu’à m’expliquer, vous savez que les déclarations messianiques sont monnaie courante dans la bouche des patrons américains de la tech. Le Forum économique mondial de Davos [1] a été l’occasion, pour eux, de nous en donner un nouvel aperçu.

Elon Musk a esquissé les contours de l’abondance. Selon lui, la robotique, combinée à l’intelligence artificielle, permettra de produire une telle quantité de biens et services que tous les besoins humains seront comblés.
Le directeur général de Microsoft, Nadia Satella, a comparé l’IA à un ange gardien, avant de mettre en garde. Sans une diffusion rapide et massive de cette technologie, elle perdra sa légitimité. Ses besoins en énergie, en eau et en matières premières sont tels qu’il faut que les gains, pour toute la société, soient à la hauteur.
Jensen Huang, le patron de Nvidia, a affirmé, pour sa part, que les ouvriers du bâtiment pourraient bientôt prétendre à des salaires à six chiffres, compte tenu du nombre de centres de données en construction.
Le patron de l’entreprise d’analyse de données, Palantir, Alex Karp, a délivré un discours, lui, plus politique. Palantir, c’est cette entreprise qui fournit des logiciels à la controversée police américaine de l’immigration, l’ICE [United States Immigration and Customs Enforcement]. Eh bien, Alex Karp a promis que l’IA allait réduire à néant la nécessité de recourir à l’immigration, puisqu’elle va détruire une quantité phénoménale d’emplois.

Évidemment, rien ne permet d’étayer toutes ces affirmations. Si les gains de productivité de l’IA générative sont encore difficiles à mesurer, ses effets sur notre environnement informationnel sont de plus en plus documentés.

IA générative et droit d’auteur

Mon collègue Anouch Seydtaghia [2] cite, dans son article sur Davos, une étude externe consacrée à Grok, l’IA générative d’Elon Musk. Elle aurait permis, ces dernières semaines, de générer pas moins de trois millions d’images à caractère sexuel, dont 23 000 représenteraient des enfants. Ça nous donne une idée de ce futur promis par l’IA !

Vous le savez, l’entraînement des grands modèles de langage soulève, depuis plusieurs années, la question du respect des droits d’auteur et, plus généralement, de la propriété intellectuelle. Une récente étude publiée par les universités de Yale et de Stanford remet une pièce dans la machine, si j’ose dire. Les chercheurs ont réussi à faire régurgiter des extraits de livres entiers à des logiciels d’intelligence artificielle générative grand public. Ils les ont évidemment déconnectés pour qu’elles ne puissent pas chercher ces informations sur le Web. Les auteurs de l’étude ont ainsi pu récupérer 77 % du texte Harry Potter à l’école des sorciers avec Gemini 2.5 Pro et 96 % avec Claude 3.7 Sonnet. L’ouvrage est pourtant protégé par le droit d’auteur. Pour obtenir ce résultat, ils ont demandé au logiciel de compléter la première phrase du livre et ensuite procédé petit bout par petit bout. En s’inspirant de cette méthode, le média français Le Monde n’a pas réussi à obtenir des extraits de livres soumis au droit d’auteur, mais uniquement des résumés. L’étude n’a pas encore été évaluée par la communauté scientifique, et Le Monde précise que les résultats obtenus doivent être nuancés. Certains extraits s’apparentent davantage à des paraphrases, par exemple. Pour autant, si l’étude devait être validée, elle pourrait bien s’avérer décisive pour trancher certains contentieux opposant des détenteurs de droit d’auteur aux éditeurs de programmes d’IA générative. On ne manquera pas de suivre ce dossier.

Colloque à l’Assemblée nationale sur les enjeux politiques et stratégiques de l’IA

Sinon, côté coulisses, j’ai assisté, mercredi 21 janvier, à un colloque sur les enjeux politiques et stratégiques de l’IA à l’Assemblée nationale. Il était coorganisé par le député du Puy-de-Dôme, Nicolas Bonnet, et l’association Data for Good. Nous avions d’ailleurs reçu la secrétaire générale de Data for Good, Lou Welgryn, dans la précédente saison de IA qu’à m’expliquer [3].
Les intervenants se sont essentiellement intéressés à la question des centres de données [4] dans le cadre d’une loi qui va simplifier leur implantation en France. Sur tout le territoire, on en compte déjà 350 et 47 sont en cours de déploiement. Le gouvernement français a aussi prévu 63 sites clé en main dans le cadre de son programme visant à accélérer la construction de ces infrastructures. Cette accélération est présentée par les autorités françaises comme une nécessité absolue pour ne pas être en retard dans la course à l’IA. Le problème, c’est que ces centres de données ont des conséquences sur l’environnement, la biodiversité et les populations locales. En plus, ils sont souvent opérés par des acteurs étrangers et je vous le donne en mille, ils sont souvent Américains. Les Marseillais le savent d’ailleurs très bien. La cité phocéenne est devenue un véritable hub de la connectivité mondiale ces dernières années. Il y avait d’ailleurs, lors de ce colloque, un représentant du collectif « Le nuage était sous nos pieds » [5] qui lutte contre l’installation de nouveaux centres de données. Si le sujet vous intéresse, vous devriez faire un saut sur leur site web qui est très bien documenté. Je prévois, moi aussi durant cette saison, d’aborder les enjeux autour des centres de données dans un épisode dédié. Et si jamais, vous pouvez retrouver sur le temps.ch mon article consacré à ce colloque [6].

En bref, enfin, ChatGPT cite désormais Grokipedia, le Wikipédia d’Elon Musk généré par son IA Grok vous avez dit fiabilité des sources ?
ChatGPT toujours. Vous découvrirez bientôt des publicités si vous utilisez le service d’OpenAI. Sam Altman a fini par revenir sur sa promesse initiale. Qui a dit qu’il fallait croire sur parole un patron de la tech ?

Et voilà qui conclut ce petit horizon de l’actualité de l’IA. Il est désormais temps de passer à l’entretien.

Entretien avec Richard-Emmanuel Eastes

Grégoire Barbey : Bonjour Richard-Emmanuel Eastes.

Richard-Emmanuel Eastes : Bonjour.

Grégoire Barbey : Vous êtes membre du groupe de pilotage IA de la Haute École spécialisée de Suisse occidentale. Vous avez une approche interdisciplinaire, car vous êtes chimiste, philosophe et pédagogue. L’arrivée de ChatGPT a bouleversé l’enseignement. On entend parfois dire que les profs sont désespérés face à l’usage massif de l’IA générative par les étudiants. Est-ce c’est vrai ?

Richard-Emmanuel Eastes : Je dirais “yain”, comme on dit en Suisse alémanique.
D’abord, il y a une grande disparité d’utilisation chez les étudiants et chez les élèves. Ce n’est pas du tout homogène dans l’utilisation, dans les usages et même dans les disciplines.
Ensuite, chez les enseignants, c’est la même chose. Il y a une grande disparité et les postures varient entre l’ignorance volontaire, le déni, le rejet, la sidération, l’exaspération, l’hésitation, la peur, voire la panique. Parfois, ça va jusqu’à la remise en question de l’identité. Il m’est arrivé, dans une conférence, d’avoir une enseignante qui me dise « tout ça me fait flipper, je ne sais plus à quoi je sers », et elle était au bord des larmes. Mais il y a aussi des enseignants et enseignantes qui l’intègrent consciemment dans leurs enseignements comme outil d’enseignement ou d’apprentissage pour les élèves, pour faire évoluer leurs évaluations, les objectifs d’apprentissage ou même qui l’utilisent comme objet d’enseignement. Globalement, c’est vrai que ça bouscule l’enseignement, mais pas forcément pour le pire, d’ailleurs, parce que c’est toujours intéressant de questionner les contenus et les méthodes de l’école.

Grégoire Barbey : On entend aussi certaines voix, très largement médiatisées, qui affirment qu’à l’ère de l’IA générative, faire des études ne sert plus à rien. J’imagine que vous n’êtes pas vraiment de cet avis.

Richard-Emmanuel Eastes : Je suppose que vous faites référence à l’ouvrage de Laurent Alexandre et Olivier Babeau, paru récemment avec ce titre.
Le terrain médiatique de l’IA est malheureusement occupé par quelques personnes qui rivalisent de punchlines pour gagner leur place notamment sur les plateaux télé et je trouve que c’est un peu fatigant, parce que la question de l’IA mérite des traitements beaucoup plus nuancés, comme, je crois, vous essayez de faire dans ce podcast.
Je ne suis pas tellement fan de Laurent Alexandre que je trouve un peu trop technolâtre et très marqué politiquement dans ses postures, mais son ouvrage défend paradoxalement une thèse qui est diamétralement opposée à son titre et qui, néanmoins, repose, selon moi, sur une bonne intuition, l’intuition selon laquelle les études et les études supérieures notamment, doivent s’adapter au raz-de-marée de l’IA et ne pas se limiter à enseigner des connaissances pures. Laurent Alexandre l’ignore peut-être, mais on n’a pas attendu son livre pour le faire, ça se développe déjà beaucoup, mais je suis absolument d’accord sur un point : c’est justement parce que l’IA a des capacités impressionnantes qu’il faut étudier pour apprendre à la maîtriser et à l’exploiter ; qu’il faut développer non pas seulement une culture générale et des savoirs faire, comme le propose Laurent Alexandre, mais ce que, dans l’enseignement supérieur professionnalisant, nous appelons des compétences.

Grégoire Barbey : Justement. Richard-Emmanuel Eastes, vous avez développé une approche par compétences comme réponse pédagogique aux bouleversements induits par l’IA générative. En quoi cela consiste-t-il ?

Richard-Emmanuel Eastes : L’approche par compétences n’est pas nouvelle, c’est très répandu dans l’enseignement supérieur professionnalisant, ça commence à se développer à l’université et même à l’école obligatoire, avec, bien sûr, toujours des acceptions un peu différentes, les objectifs étant variés. Ça part de l’idée qu’il est nécessaire de former les étudiants et les élèves à la vraie vie. Dans ce cadre, les connaissances sont insuffisantes et même les savoir-faire ou les soft skills. Ce qui compte, c’est de savoir mobiliser le tout, adéquatement, selon les situations. La compétence est donc définie comme un savoir agir complexe en situation, en situation professionnelle ou en situation de vie réelle. Et dans le monde du travail, la compétence, c’est véritablement ce que l’on vend à son employeur ou alors ce qu’on mobilise dans sa vie de citoyen.

Grégoire Barbey : Pour bien comprendre, est-ce que vous pouvez nous donner un exemple, parce que ça peut paraître un peu abstrait pour des gens qui ne sont pas habitués à ce sujet ?

Richard-Emmanuel Eastes : Justement, on entend parfois opposer la connaissance et la compétence, mais les deux ne s’opposent pas. La compétence suppose la connaissance, mais la connaissance est insuffisante. Par exemple, je sais ce que c’est qu’une compétence, c’est mon domaine d’expertise, mais ça ne me fait pas pour autant, de moi, quelqu’un qui est capable de l’expliquer convenablement dans une interview. Ce que je suis en train de mettre en œuvre maintenant, c’est non seulement la connaissance de la notion de compétence, mais aussi tout un tas de savoir-faire, de savoir-être, de soft skills qui me permettent d’essayer de la rendre accessible à vos auditeurs.

Grégoire Barbey : En quoi cette démarche peut-elle rendre l’enseignement et l’évaluation résilientes face à l’IA générative ?

Richard-Emmanuel Eastes : Je voudrais illustrer cette question par une métaphore. Imaginez les caisses automatiques dans les supermarchés, ce n’est pas de l’IA, c’est du numérique, mais ça fonctionne pour comprendre. Quand une caisse automatique tombe en panne ou qu’elle bugue, on appelle un humain. On ne fait pas le contraire : on n’appelle pas un robot pour débugger les humains ! Et ce qui distingue l’humain de la machine, dans ce cas, c’est sa capacité à appréhender une situation complexe, parce que réelle, où la connaissance et l’automatisation ne suffisent plus. L’IA peut brasser d’immenses quantités de connaissances, les combiner, les mobiliser de manière ultra experte, mais dès que la situation devient un peu complexe, elle a besoin de l’humain.
Prenez, par exemple, l’outil NotebookLM de Google, qui peut résumer 50 ressources en quelques dizaines de secondes, mais ne peut pas écrire une thèse de doctorat ou ne sait pas comment agir devant un patient arrivant ensanglanté aux urgences. Vous allez peut-être me dire « oui, mais on utilise déjà l’IA pour trier les patients aux urgences », bien sûr, je n’ai pas dit que l’IA avait zéro compétence. D’ailleurs, vous pourriez interviewer une IA, ça ne serait pas forcément complètement ridicule. Mais c’est justement pour cela qu’il faut former les humains en développant leurs compétences, parce que, sur le terrain des savoirs, des savoirs faire, ils sont déjà dépassés.
Cela montre donc que l’approche par compétences rend surtout les étudiants, futurs professionnels et citoyens, résilients vis-à-vis de l’IA.
Au niveau de l’enseignement et de l’évaluation, c’est beaucoup plus simple avec l’approche par compétences de réagir à l’intelligence artificielle. L’IA devient une donnée supplémentaire dans les situations que l’on enseigne, on enseigne pour des situations qui se déroulent à l’ère de l’IA. Et puis, l’IA est un outil à disposition pour résoudre des problèmes. Dans nos formations, par exemple, on observe vraiment que les professeurs les plus impactés par l’IA et les plus déroutés par l’IA sont ceux qui ont une approche traditionnelle de l’enseignement, ex cathedra, en évaluant des connaissances. Les autres, ceux qui ont déjà intégré l’approche par compétences, sont beaucoup moins impactés.

Grégoire Barbey : Concrètement, pour qu’on se représente bien ce que ça veut dire, quelle est la différence ? Comment enseigne-t-on avec cette approche par compétences ? Qu’est-ce que ça modifie dans la façon dont on va mener les cours et les évaluations ?

Richard-Emmanuel Eastes : Eh bien, on la lie aux situations réelles, on enseigne ce dont les étudiants ou les élèves auront besoin plus tard dans leur vraie vie. Ce n’est pas pour autant utilitariste. On peut très bien enseigner l’esprit critique, la pensée complexe, mais on part d’objectifs d’apprentissage qui sont concrets et on essaye de les restituer dans l’enseignement et dans les évaluations. Je peux vous donner un exemple. J’enseigne de temps en temps dans un master en muséologie et histoire de l’art de l’Université de Neuchâtel. Les étudiants doivent régulièrement produire des dissertations qu’ils pourraient très bien faire avec ChatGPT. Je n’ai pas envie de lire du ChatGPT et je pense que ce n’est pas intéressant, pour eux, de faire ça. Je leur donne donc une question d’examen qui ressemble à un mandat qu’ils pourraient recevoir d’un client, un musée, mais qui nécessite de mobiliser, bien sûr, les contenus de mon cours. S’ils utilisent l’IA pour répondre à cette question d’examen, ce sera très mauvais parce qu’elle est très complexe et c’est un mandat réel. Je n’ai pas de problème à ce qu’ils utilisent l’IA et je les encourage même à le faire, c’est important parce qu’ils sont en train de se former pour être des futurs professionnels de la muséologie, et s’il leur arrive de recevoir un mandat tel que celui de mon sujet d’examen, évidemment qu’ils utiliseront l’IA, donc autant qu’ils apprennent à le faire tout de suite. Par contre, ils ont besoin des connaissances que je leur ai apportées dans mon cours.

Grégoire Barbey : Qu’est-ce que l’IA va leur apporter justement, pour répondre à cette question que vous leur posez ? Qu’est-ce que ça va leur apporter, en partie, pour répondre à cette exigence ?

Richard-Emmanuel Eastes : Évidemment, de manière très simple, ça peut les aider à rédiger et ce n’est pas forcément tricher, ce n’est pas forcément un oreiller de paresse. Vous avez des étudiants qui sont allophones, vous avez des étudiants qui sont dyslexiques et ça les aide à rédiger, à organiser leurs textes. Ils peuvent produire des illustrations – l’IA ce n’est pas seulement du texte –, ils peuvent aussi, et à mon avis c’est l’utilisation la plus intéressante, s’en servir de partenaire de réflexion sparring partner.
Je suis un peu gêné par le fait qu’on associe trop souvent l’utilisation de l’IA par les élèves et les étudiants comme de la triche. Premièrement, ce sont les professeurs qui définissent ce qu’est la triche. La triche, c’est ce qui dépasse ce qui a été autorisé, il n’y a pas de triche dans l’absolu : on peut tout à fait utiliser l’IA en trichant parce que ça a été interdit ou l’utiliser légitimement parce que ça a été autorisé, voire encouragé. Ils peuvent, par exemple, utiliser l’IA pour structurer leurs rapports, pour trouver des idées, même pour se faire questionner. Je connais beaucoup d’étudiants qui utilisent l’IA pour anticiper les questions d’examen. Ils demandent à ChatGPT quelles questions le professeur, à l’examen, pourrait poser. On nous a rapporté que des étudiants enregistrent le cours de l’enseignant, ils prennent le support de cours, ils donnent tout ça à ChatGPT qui leur fait une chanson. Ils mettent les paroles de la chanson dans Suno et ensuite ils révisent le cours en écoutant la chanson générée par plusieurs outils d’intelligence artificielle. C’est particulièrement intéressant.

Grégoire Barbey : En plus de ça, ce n’est pas quelque chose qu’on a vu dans un discours marketing des entreprises. C’est un usage qui s’est fait spontanément, quelque part.

Richard-Emmanuel Eastes : Oui, et je trouve que c’est assez intéressant de regarder ce que les étudiants font. Personnellement, je partage mon compte sur les chatbots avec mes enfants, avec leur accord, pour comprendre quels usages se développent chez cette génération qui, évidemment, n’a pas du tout le même rapport à la connaissance et à l’effort que nous.

Grégoire Barbey : Selon vous, l’approche par compétences vise à former des humains augmentés plutôt que de simples opérateurs d’IA. Quelle est la différence ?

Richard-Emmanuel Eastes : On oppose souvent l’IA et l’humain en disant que l’IA va prendre nos métiers. En réalité, dans la plupart des situations, l’IA et l’humain vont travailler ensemble. Mais ce qui va compter dans un métier, c’est la capacité à mettre en œuvre des compétences, comme on l’a vu, pour atteindre les buts de l’organisation. Finalement, peu importe comment, avec ou sans IA.
On a vu que ce qui distingue l’humain de l’IA, c’est la capacité à mobiliser des savoirs dans des situations complexes. Si vous formez des humains avec de fortes compétences, ils ne risqueront pas d’être remplacés par des machines. Même mieux ! Ils pourront utiliser l’IA pour prolonger leurs compétences, ils seront augmentés par l’IA. Mais, si vous formez des étudiantes et des étudiants en leur transmettant seulement des savoirs hors-sol et désincarnés, même des savoir-faire techniques, ils risquent, finalement, d’être moins bons que des IA qui vont être opérées par des humains, des humains qui n’auraient pas forcément besoin de comprendre ce qu’ils font et qui seraient moins chers à employer qu’eux, parce que eux auraient été juste formés à utiliser des IA. C’est ce que j’appelle les humains diminués, ce sont des humains qui se trouvent au service de l’intelligence artificielle.

Grégoire Barbey : Étant donné que l’approche par compétences impose des exigences accrues, n’y a-t-il pas un risque de laisser plus d’élèves sur le bord de la route, avec, comme seule perspective pour eux, de se retrouver dans des emplois consistant à actionner des machines plutôt qu’à exercer leurs propres compétences cognitives ?

Richard-Emmanuel Eastes : Je pense que vous l’avez compris dans ce que j’ai dit précédemment, c’est justement exactement le contraire. La seule manière de ne pas se retrouver sur le bord de la route, c’est justement de développer des compétences, c’est de savoir faire plus que l’IA.

Grégoire Barbey : Est-ce que tout le monde peut acquérir plus de compétences ? On sait qu’on n’est pas tous égaux face aux capacités, etc., donc comment fait-on pour que cette exigence, qui est supplémentaire, ne crée pas de nouvelles inégalités ?

Richard-Emmanuel Eastes : Eh bien en intégrant l’approche par compétences dans les enseignements. C’est absolument ce que nous faisons à la HES-SO [7]. Toutes les filières de formation ont un référentiel de compétences qui définit un profil de sortie des étudiants, qui dit quels sont les savoir-agir complexes fondamentaux que les étudiants doivent être capables de mobiliser en sortant. Ça ne veut pas dire qu’ils sont plug and play, ils vont continuer à se former et, du reste, on n’acquiert pas une compétence, on la développe tout au long de la vie. Je continue à développer ma compétence langagière depuis que je suis né, depuis que j’ai appris mes premiers mots. On doit former et c’est justement en intégrant l’approche par compétences dans les enseignements qu’on rend les étudiants, les élèves aussi, résilients aux évolutions du monde, parce qu’on crée un enseignement qui est connecté aux évolutions de la vraie vie. Il n’est pas dicté par la vraie vie non plus, ce n’est pas que utilitariste. On peut aussi enseigner des choses qui sont destinées à faire évoluer le monde dans une direction qu’on estimerait préférable. L’idée de l’approche par compétences, c’est vraiment de l’empowerment.

Grégoire Barbey : Le fait de mettre un peu moins l’accent sur des connaissances théoriques qui peuvent sembler plus abstraites, pas immédiatement mobilisables, n’est-ce pas un risque d’abaisser le niveau général dans certains domaines ? Il y a quand même une différence entre le fait de pouvoir accéder rapidement à des connaissances grâce à ChatGPT et le fait de les avoir intériorisées soi-même au fil d’un parcours scolaire, n’est-ce pas ?

Richard-Emmanuel Eastes : Oui et justement, ce n’est pas du tout ce que j’ai dit. Il faut faire un état des lieux clair des connaissances à enseigner à l’ère de l’IA, à l’égard de l’IA, avec l’IA, et pas seulement de l’IA d’ailleurs, de la transition écologique, des transformations géopolitiques du monde, et les faire intérioriser, mais celles qui doivent l’être. Par exemple, dans la filière informatique de la HES-SO tout change. Le métier d’informaticien a changé, donc les référentiels de compétences doivent changer. Maintenant, les étudiants s’entraînent à coder avec l’IA et, à l’examen, s’ils utilisent l’IA pour produire du code, les enseignants ne sauront pas qui a produit quoi, l’IA opérée par un étudiant ignorant ou l’étudiant qui a la compétence attendue. Les professeurs ont donc identifié des savoirs fondamentaux, pour lesquels ils sont revenus à l’examen papier-crayon, en expliquant aux étudiants que ça, ils doivent savoir absolument le faire. Parce que, justement, ils utiliseront de l’IA pour coder, mais qu’ils ont besoin de savoir contrôler et vérifier les productions de l’intelligence artificielle. Ces savoirs-là sont devenus tellement importants que les professeurs ont décidé de les évaluer sans ordinateur et sans intelligence artificielle.

Grégoire Barbey : Et ça marche ?

Richard-Emmanuel Eastes : Bien sûr que ça marche ! C’était déjà le cas avec l’apprentissage du calcul mental à l’école. Ce n’est pas parce que la calculatrice est arrivée qu’on a arrêté de l’enseigner, par contre, quand on l’évalue, c’est sans calculatrice.
Développer ses compétences dans un monde d’IA, c’est disposer d’une littératie critique qui suppose notamment beaucoup de connaissances. Ça rejoint totalement les propos de votre invité Rodolphe Koller dans votre podcast du 8 décembre dernier [8]. Je dois ajouter que ce n’est pas forcément une bonne nouvelle pour les élèves et les étudiants, surtout pour les moins attirés par l’effort. D’ailleurs, c’est ce que dit Laurent Alexandre, dont on a parlé tout à l’heure, dans son livre. Il dit « ce n’est pas une bonne nouvelle pour les faignants ». En effet, puisque l’IA se développe, elle nous pousse, elle nous oblige à développer des compétences qu’elle n’a pas et ça crée des exigences supplémentaires. Je crois que l’approche par compétences peut contribuer à donner du sens aux apprentissages, donc augmenter la motivation nécessaire pour faire admettre la nécessité des efforts. C’est peut-être aussi une bonne occasion de revisiter l’enseignement, pour le redynamiser, même si, évidemment, c’est difficile.

Grégoire Barbey : Et du côté des enseignants, qu’est-ce qui doit évoluer pour les aider à mieux tenir compte de cette nouvelle donne ? Il m’arrive d’être sollicité pour donner des formations sur les enjeux technologiques à des enseignants. Ils se sentent souvent insuffisamment formés pour aller au-delà de la seule dimension instrumentale de ces systèmes.

Richard-Emmanuel Eastes : Les formations qui sont dispensées aux enseignantes et enseignants sont peut-être insuffisantes, mais elles existent. Les hautes écoles pédagogiques, en Suisse, en développent en formation continue et pas forcément en formation initiale ; nous-mêmes, à la HES-SO, nous en développons beaucoup. On peut également se former en ligne gratuitement, il y a beaucoup de vidéos, il y a des podcasts sur les sites de certains médias.
Le conseil principal que je pourrais donner aux enseignantes et enseignants, c’est déjà d’y aller, d’essayer soi-même, de comprendre ce que l’IA peut faire, de se construire une culture de l’IA, de faire passer ses évaluations dans un chatbot avant de les donner à ses élèves pour voir ce qu’un élève ignorant pourrait faire simplement en faisant la même chose, mais surtout, interroger toujours en même temps les trois pôles de ce qu’on appelle la cohérence pédagogique. Ce qu’un enseignant évalue, c’est ce qu’il estime que les élèves doivent avoir appris, ce sont donc ses objectifs d’apprentissage. Il est fondamental que les objectifs d’apprentissage et les évaluations soient mis en cohérence. Mais, on va aussi enseigner en fonction de l’évaluation. On va enseigner ce qu’on veut que les élèves apprennent. Donc, quand on s’interroge sur l’évaluation, par exemple, il faut d’abord se demander ce qu’on veut que les élèves ou les étudiants apprennent. C’est vraiment fondamental.
Ensuite, en faisant un pas de côté, je donnerais aussi ce conseil aux enseignants qui consiste à leur dire de ne pas forcément se concentrer uniquement sur la question de la véracité. C’est quelque chose qui, dans le monde académique évidemment, est très prégnant : est-ce que c’est juste ? Est-ce que c’est faux ? Je crois que ça peut nous faire perdre de vue l’un des grands dangers de l’intelligence artificielle, je ne veux pas ouvrir une boîte de Pandore, celui qui est lié à l’anthropomorphisation, à l’influence que ces chatbots peuvent avoir en termes de manipulation, de dérives, avec à la clé, on le sait, on l’a vu dans l’actualité, des suicides d’adolescents. Cette question du rapport à l’IA est presque, à mon avis, plus sensible pour protéger les jeunes que la question des hallucinations qui doit se régler, mais, quelque part, ce n’est pas nouveau de tenir un discours aux élèves, aux étudiants qui consiste à leur dire qu’ils doivent exercer leur esprit critique sur ce qu’ils lisent sur Internet.

Grégoire Barbey : C’est un élément qui me semble très important parce qu’on a, à la fois, une injonction qui est de se servir de ces outils comme moyen d’enseignement, tenir compte du fait que les élèves peuvent l’utiliser donc on doit faire évoluer la pratique de l’enseignement pour éviter que ça serve simplement à répondre systématiquement correctement aux évaluations. Mais, en même temps, on doit aussi former les élèves, peut-être un peu moins dans une haute école, parce que, là, on est déjà dans une approche où il y a eu cette formation initiale, mais l’école publique, les premiers degrés doivent quand même apporter un peu une approche de formation critique, de citoyenneté, de comment évaluer les résultats que fournissent ces outils et ne pas tomber dans l’anthropomorphisation de ces outils qui est aussi déployée par ces entreprises. Je suis un peu long, mais, en gros, comment fait-on pour tenir à la fois compte des besoins de formation de compétences et, en même temps, dire « attention, la machine est une chose, ne vous faites pas hypnotiser par elle. » ?

Richard-Emmanuel Eastes : C’est exactement le genre de réflexion qu’il faut avoir dans l’enseignement à tous les niveaux : que doit-on enseigner aux élèves pour qu’ils puissent vivre dans le nouveau monde qu’a créé l’intelligence artificielle ? On va peut-être se rendre compte que c’est quelque chose de fondamental. Cela va supposer des connaissances – comment ça fonctionne – et peut-être pas que des connaissances ou des savoir-faire techniques du style plant engineering : savoir comment ça fonctionne, qui est derrière, qui finance, comment les modèles sont entraînés, quels sont les biais, etc. Je suis 100 % convaincu que cela doit être enseigné à tous les niveaux et on peut commencer assez tôt. L’intelligence artificielle est un objet du quotidien, on peut donc l’enseigner à l’école primaire. Ça ne veut pas dire qu’on va mettre ChatGPT dans les mains des élèves, même qu’on va leur faire utiliser un clavier. On peut commencer à en parler, à le thématiser, on peut l’utiliser en classe, et la maîtresse ou le maître peuvent produire deux textes, montrer aux élèves qu’ils sont différents, montrer les limites, montrer les biais, etc. C’est une exigence qui se développe absolument à tous les niveaux. Vous dites que nos étudiants, dans l’enseignement supérieur, ont été formés à ça, mais je rappelle, vous le savez bien, que ChatGPT n’a que trois ans donc la plupart de nos étudiants n’ont pas été formés. Ils arrivent, ils sont vierges de tout recul critique, de toute connaissance. On doit l’intégrer dans les enseignements, c’est ce qu’on vise à faire, mais, avant tout, il faut qu’on l’intègre dans les formations des enseignants et tout le monde doit se former, malheureusement à marche forcée, c’est un peu pénible, mais c’est fondamental et, en même temps, assez passionnant.

Grégoire Barbey : Une chose que j’entends de la part de professeurs avec qui je m’entretiens, c’est parfois une injonction des autorités, enfin des directions, à utiliser l’IA générative pour, par exemple, accélérer le travail de préparation des cours. Cela vous semble-t-il pertinent comme approche ou faut-il faire attention ?

Richard-Emmanuel Eastes : Je ne pense pas qu’il faille développer des injonctions pour accélérer quoi que ce soit. L’IA va accélérer bien assez de choses avec des impacts environnementaux majeurs et probablement sur le burn-out aussi. Pour le moment, ce sont ceux qui utilisent l’IA qui sont valorisés. Je pense sincèrement que, d’ici quelques années, ceux qui ne l’utiliseront pas seront montrés du doigt parce qu’ils ne seront pas assez efficaces. Personnellement, je ne pense pas que ce soit une bonne idée d’aller dans ce sens-là.
J’ai aussi eu des étudiants qui m’ont dit « OK, vous nous avez montré qu’on pouvait créer un scénario pédagogique grâce à l’IA, mais moi j’aime créer mes scénarios pédagogiques, donc, je vais continuer à le faire moi-même, sans IA » et j’ai répondu que c’était très bien et que, finalement, c’est comme cela qu’il faut considérer l’IA. C’est un ensemble de possibilités et, parfois, on n’a pas envie d’être efficace, il n’y a pas de problème.
Par contre, le thématiser auprès des élèves, savoir comment ils l’utilisent, quels sont les risques lors de l’utilisation et pas seulement les risques en termes de connaissances, mais aussi en termes de dette cognitive, en termes de dépendance, c’est fondamental. Pour cette raison, les enseignants doivent, a minima, comprendre comment ça marche, ce que ça fait aux humains qui les utilisent même s’ils ne veulent pas les utiliser eux-mêmes. L’essentiel, de nouveau, c’est qu’on se soit interrogé sur les bons objectifs pédagogiques et que l’équipe enseignante se soit mobilisée pour que les élèves acquièrent et développent les compétences nécessaires à l’issue de leur scolarité ou de leur formation.

Grégoire Barbey : IL y a quand même un risque qui est qu’on se dise « ces outils existent, ça permet d’aller plus vite, on va réduire le temps de préparation des cours et augmenter le temps d’enseignement ». C’est une possibilité que le politique, un jour, se dise, pour des questions de coût, d’efficacité, de performance. On risque d’arriver plutôt dans ce modèle-là. Quelque part, parce que les contraintes temporelles sont plus fortes, on pousse les gens à se tourner vers ces outils plutôt que d’exercer soi-même, si on le souhaite. On peut imaginer plein de choses, mais ça peut être aussi quelque chose qui se développe à la marge et qui a une influence dans ce sens.

Richard-Emmanuel Eastes : Ça pourrait être une envie, mais j’aimerais rappeler qu’enseigner ce n’est pas seulement se retrouver devant ses élèves. D’ailleurs, je dis souvent qu’enseigner ce n’est pas donner son cours, c’est faire apprendre ses élèves et réfléchir à comment faire apprendre ses élèves, ça prend du temps, c’est très long. Les évaluer de sorte qu’on puisse effectivement comprendre quels ont été leurs apprentissages, quelles sont leurs difficultés, ça prend du temps. Pour cela, il faut que les enseignantes et enseignants qui, déjà, doivent faire face à beaucoup d’injonctions contradictoires et beaucoup de dilemmes, aient le temps, chez eux, pour préparer leur enseignement. L’enseignement ne commence pas au moment où on entre dans la salle de classe.

Grégoire Barbey : Richard-Emmanuel Eastes, on arrive gentiment au terme de cet entretien. J’entends aussi beaucoup de parents qui sont un peu inquiets de voir leurs enfants recourir massivement à des services comme ChatGPT. Si vous aviez un conseil à leur donner à ce sujet, ce serait lequel ?

Richard-Emmanuel Eastes : Je pense que c’est comme pour les jeux vidéo ou les écrans en général : regardez ce que font vos enfants avec l’IA, regardez à quoi ils jouent, regardez quels usages ils en ont, regardez quelles vidéos ils regardent sur YouTube. Encouragez les usages les plus vertueux, faites avec eux. Je suis toujours étonné d’avoir l’impression que l’éducation s’arrête à la porte des écrans, que c’est comme si c’était un mur infranchissable. Mais bien sûr que non ! On peut y aller avec ses enfants, ensemble. Pourquoi ne pas jouer à leurs jeux vidéo pour comprendre ce qu’ils y trouvent ? Combien de temps leur faut-il pour jouer une partie ? Peut-être que ce sera plutôt une heure tous les deux jours qu’une demi-heure par jour, parce que les parties, ça dure plus qu’une demi-heure. Ça doit se discuter, ça doit se négocier. Je pense qu’il faut faire la même chose que dans la vie non virtuelle : il faut les accompagner, les conseiller pour qu’ils développent une autonomie, des usages sains et qu’ils sachent se passer de nous, ce qui est finalement notre rôle de parent. C’est faire en sorte que nos enfants soient autonomes dans la vie, les aider à développer leur propre discipline, leur propre capacité à réguler tous ces dangers dont ils sont entourés. Vous m’avez demandé un conseil, le deuxième, c’est évident, c’est les aider à développer des compétences pour qu’ils puissent évoluer dans la vraie vie, pas seulement leur donner une culture générale ou des savoir-faire désincarnés.

Grégoire Barbey : Je vous relance une dernière fois là-dessus. On entend parfois quand même un discours, presque une forme de panique morale autour de tous ces sujets, on dit aux parents « attention, vos enfants vont devenir débiles parce qu’ils utilisent ChatGPT ». On entend aussi beaucoup ça avec les écrans. Il faut peut-être dépassionner le sujet et être un peu moins dans la diabolisation. En fait, on constate que les jeunes développent parfois des approches, des utilisations tout à fait vertueuses, tout à fait saines. On le voit aussi notamment dans la vie privée, on parle beaucoup des réseaux sociaux comme un enfer pour la vie privée, pour les jeunes. En fait, ils développent des stratégies de mise en place, ça a été documenté par des travaux, notamment à Genève par la professeure Claire Beyeler, des approches de gestion de la vie privée qui sont beaucoup plus développées que les adultes, qui n’ont pas été bercés par les réseaux sociaux. On peut voir que des stratégies se mettent en place et l’être humain n’est pas qu’une machine à imprimer ce qu’on veut bien lui donner comme technologie.

Richard-Emmanuel Eastes : Oui, absolument. Je ne suis pas de ceux qui vont vous dire que la technologie est neutre et qu’elle dépend seulement de l’usage qu’on en fait. En revanche, je suis convaincu qu’on peut en faire des bons usages et des mauvais usages et qu’on est constamment sur le fil. Nous-mêmes, nous pouvons nous en servir comme un oreiller de paresse et, finalement, nous appauvrir et nous fabriquer une dette cognitive. Mais, en même temps, il y a des tas d’endroits, des tas de moments où j’ai l’impression de penser mieux, de penser plus efficacement, plus vite aussi, même pas forcément plus vite, parfois je vais passer plus de temps pour un résultat qui me satisfera mieux. Et c’est la même chose pour les écrans. J’ai un fils qui parle couramment l’anglais parce qu’il regarde des vidéos YouTube en anglais et, étant malvoyant, il a développé son acuité visuelle en jouant aux jeux vidéo, il a développé son attention. Ce sont des usages tout à fait intéressants. Et c’est parce qu’on a regardé, avec lui, ce qu’il faisait, qu’on a pu l’orienter et que, finalement, il a pu utiliser ces outils numériques de la meilleure manière possible. C’est ce qu’on doit essayer de viser en tant qu’enseignant, en tant que parent.

Grégoire Barbey : Richard-Emmanuel Eastes, merci. Une dernière question : où peut-on vous retrouver sur les réseaux sociaux et comment peut-on vous suivre ?

Richard-Emmanuel Eastes : J’ai quitté X, lorsqu’il s’appelait encore Twitter, au moment de son rachat par Elon Musk. On peut me retrouver sur Linkedin et sur ma chaîne YouTube « Savoir en société » [9] sur laquelle on trouve beaucoup de contenus sur l’intelligence artificielle, notamment à l’intention des enseignantes et enseignants, et aussi sur la parentalité, le numérique et même le complotisme ou les relations science et société.

Grégoire Barbey : Merci beaucoup.

Richard-Emmanuel Eastes : Merci.

Grégoire Barbey : Et voilà, c’est la fin de cet épisode. Si vous avez aimé ce contenu, je vous l’ai dit, vous pouvez le partager autour de vous, ça nous aidera beaucoup. En attendant, si vous avez des questions ou des remarques, vous pouvez nous écrire à cyber chez letemps.ch. Moi, je vous donne rendez-vous dans deux semaines. D’ici là, vous pouvez continuer de nous suivre sur le site du Temps et vous pouvez aussi découvrir nos autres podcasts, Brise-Glace et Sous la Coupole.