Comment l’IA est intégrée à Parcoursup 2024 ? Parlez-moi d’IA - Radio Cause Commune

Diverses voix off : Parlez-moi d’IA.
Mesdames et Messieurs, bonjour. Je suis un superordinateur CARL, cerveau analytique de recherche et de liaison.
C’est une machine qui ressent les choses.
On nous raconte n’importe quoi sur l’IA ! Qu’est-ce que tu en dis ? — Moi, je n’en dis rien du tout.
La créativité, elle reste du côté humain.

Jean-Philippe Clément : Bonjour à toutes et à tous. Je suis Jean-Philippe Clément. Bienvenue sur Parlez-moi d’IA sur Cause Commune, la radio pour débattre, transmettre et comprendre.
Transmettre et comprendre, c’est aussi l’objectif que se fixe cette émission sur le sujet spécifique des data, des algorithmes et des intelligences artificielles. Nous avons 30 minutes pour essayer de mieux comprendre ces nouveaux outils.
Cause Commune, que vous pouvez retrouver sur le Web, cause-commune.fm, sur la bande FM 93.1 à Paris et le DAB+ et en podcast sur votre plateforme préférée.
Merci, Jérôme Sorel, de réaliser cette émission. Merci à Olivier Grieco, notre directeur d’antenne, de nous donner cette opportunité de vous parler de data et d’IA. Merci à vous chères auditrices et chers auditeurs de tester ou d’écouter de nouveau cette émission. N’hésitez pas à vous abonner et à partager cette émission autour de vous, pour y donner plein de like et d’étoiles si vous l’appréciez. Et puis, n’hésitez pas à nous laisser des commentaires aussi, à nous donner votre avis sur nos émissions, c’est notre seule récompense.

Cette semaine, émission spéciale pour sujet spécial. Je ne reçois pas un mais trois invités dans le studio. L’annonce de la semaine dernière mérite un débat et nous allons inaugurer ce format ensemble. Vous n’avez pas pu louper cette annonce. Je veux, bien entendu, parler du communiqué du ministère de l’Éducation nationale annonçant, l’air de rien, l’introduction de l’IA dans le dispositif Parcoursup 2024. Le principe est exposé de manière très simple : éviter aux étudiants des hésitations dans leur orientation, limiter au maximum le phénomène des errances post-bac et des échecs en premier cycle universitaire. Certains résument en disant « amener rapidement et efficacement l’étudiant sur le marché du travail ». Pour rappel, c’était déjà l’objet de la loi d’orientation et de réussite des étudiants en 2018, dite loi ORE [1], qui instaurait Parcoursup [2]. Il s’agissait de mettre fin au tirage au sort dans les formations sous tension et de limiter le taux d’échec en licence. Eh bien, le ministère souhaite continuer sur cette lancée. Pour limiter encore le taux d’échec à l’issue du premier cycle universitaire le ministère a souhaité faire appel à l’IA.
Si nous comprenons bien le dispositif, et nous allons voir ça ensemble, des centaines de milliers, voire des millions de parcours post-bac anonymisés ont été analysés. En fonction de cette analyse profonde l’IA est capable de proposer à l’étudiant la filière et la formation la plus adaptée à son propre profil, pour éviter l’échec en premier cycle. Le dispositif ne s’arrête pas là. Si l’étudiant accepte cette proposition et candidate dans la filière et dans les formations qui lui sont proposées, il augmente son scoring de sélection pour ces formations. À contrario, s’il fait d’autres choix, ceux-ci se voient attribuer un malus dans son score de sélection.
Ce dispositif, comme vous le voyez, pose de nombreuses questions.
Pour en débattre avec nous, en studio, j’ai le plaisir de recevoir Madame Marie Crinquant, fondatrice et CEO de la société qui porte bien son nom, AvenirAI, qui a été sélectionnée par le ministère de l’Éducation nationale pour implémenter ce dispositif ; Rémy Ibarc, qui est expert en intelligence artificielle, spécialiste dans les risques éthiques de ces technologies ; et puis Valentin, dont on ne dira pas le nom de famille parce qu’il est encore lycéen, élève en terminale au lycée Carnot dans le 17e à Paris, qui passe son bac cette année – toujours une grande année que celle du bac – avec les spécialités maths et physique.
Bonjour à vous trois.

Marie Crinquant : Bonjour.

Valentin : Bonjour.

Rémy Ibarc : Bonjour Jean-Philippe.

Jean-Philippe Clément : Merci d’être en studio avec nous-
Parlez-moi d’IA. On va commencer avec Madame Marie Crinquant. Vous représentez la société AvenirAI. Comment avez-vous mis au point votre solution et comment pouvez-vous garantir que cela fonctionne ?

Marie Crinquant : Notre solution est basée sur un algorithme d’intelligence artificielle. On a utilisé énormément de données pour l’entraîner. Ces données vont être les parcours des différents élèves français dans les dix dernières années. Ça va être leur parcours scolaire du collège et du lycée, toutes leurs notes, les appréciations de leurs professeurs mais aussi, du coup, leur parcours post-bac : est-ce qu’ils ont réussi dans l’orientation qu’ils avaient choisie dès le départ ? Est-ce qu’ils se sont réorientés ? On peut prendre aussi en compte, par exemple, les activités extra-scolaires pour avoir des informations autres que les activités scolaires classiques.
Ensuite, cet algorithme a été testé sur de nombreux exemples et on a obtenu, aujourd’hui, un score de 90 % de réussite, ce qui est déjà extrêmement bien pour un algorithme d’intelligence artificielle de cette envergure.

Jean-Philippe Clément : D’accord. Certains pourraient dire que 10 % !, du coup, on ne sait pas trop si le résultat est optimal ! On va y revenir après, ne vous inquiétez pas. OK. Très bien. Donc, pour vous, le dispositif est fonctionnel.
Monsieur Rémy Ibarc, vous êtes expert en IA, vous vous occupez souvent de ces questions d’éthique autour des technologies pour les entreprises. Est-ce que le dispositif proposé par la société de Madame Crinquant vous paraît opérationnel et conforme ?

Rémy Ibarc : C’est une très bonne question Jean-Philippe. Pour qu’un système soit conforme aux attentes et qu’on puisse le déployer de manière fiable, il faut s’assurer qu’il a été développé, de la collecte des données jusqu’au retour utilisateur, d’une bonne manière. Ces types d’algorithmes peuvent halluciner, ils peuvent aussi avoir des biais.

Jean-Philippe Clément : On a déjà parlé des hallucinations [3] ici. C’est une manière, en fait, de répondre comme si c’était correct, mais la réponse est fausse, c’est ça ?

Rémy Ibarc : Exactement. L’algorithme, l’IA générative, va donner une information fausse ou biaisée.

Jean-Philippe Clément : Très bien. Du coup, sentez-vous que cette conformité est potentiellement possible pour cet outil-là ?

Rémy Ibarc : Il faut respecter des étapes clés pour que cette solution soit conforme et qu’elle puisse être déployée, parce que ça va être déployé à trois millions d’élèves. C’est notamment avoir un audit de sécurité, une documentation qui soit faite pour chaque étape et, à la fin, quand on déploie ce système, il faut le tester, le retester, parce qu’il y aura toujours des biais et des hallucinations, même avec un super audit de sécurité. L’avantage c’est d’avoir des retours.

Jean-Philippe Clément : Est-ce bien le cas Madame Crinquant ? Vous avez essayé de respecter ces types d’éléments de conformité.

Marie Crinquant : Évidemment. Nous avons respecté toutes les consignes et les choses d’IA responsable.

Jean-Philippe Clément : D’accord. D’ailleurs, on parlait de données. On a dit que les données scolaires que vous avez prises en compte étaient anonymisées. Y a-t-il d’autres données que les données scolaires qui sont prises en compte dans l’algorithme aujourd’hui ?

Marie Crinquant : Aujourd’hui non, puisque, pour cette première version, nous nous sommes focalisés sur ces données scolaires-là pour avoir une première version viable, assez rapidement, à la demande du Gouvernement. Mais on peut éventuellement, dans les futures versions, envisager de rajouter d’autres données comme les données des réseaux sociaux, par exemple, qui peuvent donner d’autres informations sur les étudiants.

Jean-Philippe Clément : Carrément ! OK. Avec le consentement comme des étudiants à priori.

Marie Crinquant : Oui, bien sûr.

Jean-Philippe Clément : D’accord, je préfère demander quand même !
Valentin, vous allez devoir prochainement saisir vos vœux, ça va s’ouvrir normalement décembre/janvier si ma mémoire est bonne. Vous allez effectivement devoir remplir des données un peu parascolaires, complémentaires. Que pensez-vous de ce dispositif ? Finalement vous le découvrez en même temps que tout le monde. Selon vous, est-ce que ça va vous faciliter les choses ? Est-ce que ça vous provoque des questions particulières ?

Valentin : Je découvre l’outil et, en même temps, je découvre tout le processus d’orientation. D’un côté, c’est un petit peu rassurant parce que, en fait, je n’ai aucune idée de ce que j’ai envie de faire plus tard, que ce soit comme formation ou comme métier.

Jean-Philippe Clément : Alors ça va vous aider.

Valentin : Et, en même temps, j’ai l’impression que ça m’apporte aussi un petit peu de confusion. De ce que je comprends, l’outil m’amène vers une formation que je suis certain de terminer, mais qu’est-ce qui me dit que, par la suite, c’est le métier que je veux faire toute ma vie ? Quand je regarde autour de moi, mes proches, ma famille, je ne connais personne qui fait le métier dont il est question après la formation.

Jean-Philippe Clément : On change beaucoup, effectivement. Vous n’êtes pas fermé. Je note déjà que vous vous voulez bien regarder un peu le dispositif, que vous n’êtes pas fermé, de base, face à ce dispositif ; je trouve que c’est déjà intéressant. C’est votre côté scientifique, votre spécialité maths-physique qui fait que vous êtes curieux par rapport à ça.
Monsieur Ibarc, on en a parlé juste avant, parfois les IA peuvent halluciner, justement, elles peuvent reproduire des biais. Dans le cas présent, qu’est-ce que ça pourrait provoquer en termes de risques ? Qu’est-ce qu’on pourrait imaginer comme situations catastrophiques par rapport à la solution ?

Rémy Ibarc : Je peux vous donner un exemple au niveau des hallucinations. Une hallucination c’est quand le résultat est biaisé ou erroné. Si l’algorithme est mal paramétré et qu’on l’a mal testé, ça pourrait être un étudiant qui veut en licence de maths et on lui propose une licence de chimie. Certes, il y a des maths dans la chimie, mais ça ne sera pas ce qu’il aurait voulu.

Jean-Philippe Clément : Y a-t-il d’autres styles de biais potentiels ?

Rémy Ibarc : En termes de biais, ça va être basé sur la collecte des données, c’est-à-dire est-ce qu’on aura fait une représentativité statistique des données qu’on a données à l’algorithme ? Par exemple, on a des métiers qui sont moins choisis par les femmes, comme mécano, donc l’algorithme ne va pas le proposer à une femme qui voudrait être mécano. Il faut donc faire attention au poids qu’on va donner à chaque donnée dans l’algorithme. Ce sont des choses qu’il faut absolument regarder pour éviter d’avoir encore cette fracture entre certains métiers.

Jean-Philippe Clément : Et que vous inspire l’utilisation des données des réseaux sociaux comme potentiels risques ?

Rémy Ibarc : Quand on parle des données des réseaux sociaux, on va prendre le nom de famille, on va pendre le physique, on va prendre des caractéristiques : ces types de données sont-ils nécessaires pour que l’algorithme nous donne un résultat ? Je ne pense pas. Prenons l’exemple d’un étudiant qui vient d’un quartier plus populaire, pendant ses vacances il ne va pas aller à New York, il va rester en France. Quelqu’un qui vient d’un quartier plus aisé va partir à New York et faire des choses plus intéressantes, jugées plus riches par l’algorithme qui va donc l’orienter vers des métiers qui vont être plus rémunérateurs.

Jean-Philippe Clément : Ah oui ! Effectivement, dans ces cas-là, il faut faire attention à ce qu’on poste sur ses réseaux sociaux.
Je vous donne la parole Madame Crinquant. Là, on est en train d’essayer de voir un peu comment on peut trouver des biais dans votre dispositif. Comment vous êtes-vous prémunis, en fait, de tous ces risques ?

Marie Crinquant : Comme je le disais tout à l’heure, on a utilisé toutes les bonnes pratiques de l’IA responsable. Tout d’abord, on a utilisé l’explicabilité. L’explicabilité c’est quoi ? Une fois que l’algorithme aura donné une réponse, il va donner une explication de la raison pour laquelle il a donné cette réponse. Dans ce cas-là, par exemple, si l’algorithme prédit une licence de maths pour notre étudiant, il va justifier son choix par les notes qu’il a pu obtenir au lycée, une remarque de son professeur, ce genre de choses, ou ses activités extrascolaires.

Jean-Philippe Clément : C’est intéressant. En fait, quand vous proposez un résultat, à côté du résultat vous mettez la raison pour laquelle ce résultat est proposé, c’est-à-dire quels sont les paramètres qui ont fait que l’algorithme, que le dispositif est arrivé à ce résultat. C’est ça ?

Marie Crinquant : C’est ça. Exactement. En fait, dans le dossier scolaire de l’étudiant, on va mettre en valeur ce qui a servi à pouvoir donner cette réponse-là.

Jean-Philippe Clément : D’accord. Il y a une explication.

Marie Crinquant : C’est ça. Du coup, l’étudiant pourra vérifier si les données prises en compte sont cohérentes, ou pas, avec ce que lui aimerait avoir pour la suite.

Jean-Philippe Clément : On a parlé de pas mal de types de biais potentiels, on a parlé notamment de ce que l’on peut trouver sur les réseaux sociaux. Comment vous prémunissez-vous, éventuellement, des mauvais effets de ces éléments-là ?

Marie Crinquant : C’est une bonne question. Les biais c’est toujours une question très importante dans l’intelligence artificielle, notamment quand on touche à des données personnelles et à la vie des gens très précisément. On a déjà essayé d’avoir des données très diversifiées, puisqu’on a pris la totalité de la population française sans faire de tri particulier entre quartiers populaires ou quartiers plutôt riches, jeunes filles ou jeunes hommes. On a pris toutes les données sans distinction. Du coup, cela nous permet d’avoir une représentativité de la totalité de la population française. Par conséquent, l’algorithme fonctionne sur la population française, mais on ne peut pas l’appliquer, par exemple, sur une autre population.

Jean-Philippe Clément : On ne pourra pas le revendre en Europe.

Marie Crinquant : En tout cas, pas tel quel. Peut-être, mais pas tel quel.

Jean-Philippe Clément : Il faudra l’entraîner à nouveau.

Marie Crinquant : C’est ça, parce que chaque population a ses caractéristiques, donc on ne peut pas transférer l’algorithme.
Du coup, on a déjà cette représentativité de la totalité de la population dans nos données. Ensuite, on a essayé d’avoir une équipe de développement la plus diversifiée possible. Pourquoi veut-on une équipe diversifiée ? Pour limiter les biais. Avec une équipe diversifiée, on va avoir une diversité de points de vue, ce qui nous permet d’avoir des tests qui sont représentatifs de la totalité des points de vue qu’on pourrait avoir. Du coup, on va avoir des gens plutôt de milieux aisés, de milieux plutôt pauvres, des hommes, des femmes.

Jean-Philippe Clément : D’accord. Qui vont vérifier l’algorithme depuis leur fenêtre.

Marie Crinquant : Exactement, parce que chacun arrive avec ses préjugés et ses qualités, du coup va avoir un point de vue différent sur l’algorithme.

Jean-Philippe Clément : D’accord.
Valentin, on commence à être un peu plus au fait de ce que le dispositif va pouvoir proposer. Avez-vous, un peu, des idées sur la manière d’aborder votre remplissage de dossier dans les prochaines semaines ? Il y a les données scolaires, vous n’y pouvez rien, c’est ce que vous avez fait depuis quelques années, c’est comme ça, c’est enregistré dans le logiciel. Par contre, il y a toute cette partie-là qu’on connaît désormais un peu, dans Parcoursup, le parascolaire. Avez-vous déjà, un peu, une stratégie sur les données du parascolaire ?

Valentin : J’ai réfléchi un petit peu. Sans avoir la prétention d’être spécialiste, j’ai bien compris que le fonctionnement de l’outil c’est plus il a de données sur nous, plus il devrait être pertinent dans notre orientation, en tout cas dans le processus. Je me suis un petit peu posé la question concernant ce que seraient les données supplémentaires qu’il faudrait y incorporer. J’ai l’impression qu’un test de personnalité, ce ne sont pas forcément des éléments qui sont pris en compte par l’outil, qui pourraient toutefois être assez intéressants. Je me suis aussi posé la question des réseaux sociaux. Comme je sais que les réseaux sociaux vont avoir beaucoup de données sur moi, sur mon quotidien, qui ont été accumulées au cours des années, probablement que ce sont des données qui vont servir aussi à l’outil pour m’aider. Mais, d’un côté, est-ce que ce n’est pas déjà biaisé dès son origine ? Par exemple, si je prends le réseau Instagram, de base tout ce qu’on va mettre sur Instagram ce sont plutôt des aspects positifs de notre vie.

Jean-Philippe Clément : C’est bien !

Valentin : Oui, mais ce n’est pas forcément représentatif de tout mon quotidien.

Jean-Philippe Clément : Ce n’est pas votre vrai vie.

Valentin : Non ! Ça fait de la donnée supplémentaire, mais est-ce que cette donnée-là ne pose pas un problème de représentativité ? De la même manière, comme, de mon côté, ça fait quand même déjà six/sept ans que je suis sur les réseaux sociaux, j’ai l’impression qu’il y a des choses qui se sont accumulées depuis des années. Est-ce que je suis encore en phase avec des choses que j’ai dites il y a cinq/six ans ? Est-ce que je suis à l’aise avec le fait que ces données puissent m’orienter alors que, potentiellement, j’ai complètement changé sur ces sujets-là ?

Jean-Philippe Clément : Il va falloir publier des disclaimers sur ce que vous avez dit il y a plusieurs années, c’est ce que vous vous redoutez ?

Valentin : En tout cas, il va falloir que je fasse le tri.

Jean-Philippe Clément : D’accord.
Monsieur Ibarc, finalement on sait que cette IA n’a pas l’intuition du conseiller d’orientation qui va être capable, de manière un peu plus émotionnelle, de voir quelle est la motivation de l’étudiant qu’il a en face, de voir comment, peut-être, un parcours atypique va pouvoir s’uniformiser. À un moment donné, quand on fait rentrer tout cela dans une machine, le parcours, justement, ne finit-il pas par ressortir très uniforme et être proposé de manière très uniforme à un étudiant ou futur étudiant ?

Rémy Ibarc : Déjà, l’IA va être très forte à faire des liens entre les données que nous nous n’aurons pas faits, donc va faire des propositions auxquelles l’étudiant n’aura pas pensé.

Jean-Philippe Clément : C’est un bon point ça !

Rémy Ibarc : C’est un bon point. Il y a du bon. L’IA va notamment avoir la connaissance de tous les métiers, alors que les étudiants eux-mêmes, les conseillers et conseillères n’ont pas accès à toutes ces informations directement. D’un autre côté, cette IA va être basée sur les données de l’étudiant, soit les réseaux sociaux, comme le disait Marie, soit sur les notes, mais est-ce que ces données sont représentatives de l’étudiant ? On sait qu’à 17/18 ans on change et à 20 ans...

Jean-Philippe Clément : C’est ce qu’on disait avec Valentin, on évolue beaucoup à cet âge-là.

Rémy Ibarc : Exactement et, au final, le fait de se tromper n’est-ce pas la manière dont on arrive à trouver ce qu’on veut faire ?

Jean-Philippe Clément : Madame Crinquant, n’avez-vous pas peur d’inhiber toute une génération d’étudiants ? Je me souviens d’une anecdote : Steve Jobs disait qu’il avait pris comme matière, en première année de fac, calligraphie et tout le monde lui disait « mais à quoi ça te sert de faire de la calligraphie en première année ? Tu es brillant dans les matières scientifiques. » Il avait expliqué que cette matière-là l’avait aidé beaucoup d’années plus tard dans la manière de sélectionner les typos des premiers Apple et de faire la différence avec ses concurrents. Du coup, ce qui paraissait complètement atypique à une époque, lui a servi, quand même, dans sa vie professionnelle. N’avez-vous pas peur qu’on perde de ça, finalement, en donnant une direction trop franche ?

Marie Crinquant : Effectivement, on va se réorienter dans sa carrière.
Avec ce produit, notre objectif c’est d’avoir un maximum d’étudiants et d’étudiantes qui arrivent à valider leur premier diplôme. Ils peuvent très bien rentrer en licence dans la prédiction de l’intelligence artificielle, valider cette licence, travailler quelques années dans ce domaine-là, puis totalement changer. Notre objectif, aujourd’hui, c’est d’améliorer ce score de 31 % des étudiants qui arrivent en licence et qui en sortent diplômés : uniquement 31 % des étudiants qui arrivent en licence sont diplômés. C’est quand même très peu, c’est de l’argent que le Gouvernement investit, que les familles investissent, pour rien, c’est du temps que les étudiants perdent, finalement, puisqu’ils vont passer une année, deux années, dans cette licence que, finalement, ils ne vont pas valider. Du coup, l’objectif premier de ce produit c’est de faire gagner du temps et de l’argent.

Jean-Philippe Clément : Et vous, Valentin, avez-vous envie de prendre un peu de temps dans votre post-bac ? Avez-vous envie de faire des essais ? Comment voyez-vous les choses ?

Valentin : C’est ça. J’ai toujours eu du mal à me projeter professionnellement, ce sont plutôt les stages qui m’ont permis de comprendre ce que j’aimais faire ou, à l’inverse, ce que je n’aimais pas trop faire. Le fait d’avoir un outil qui me dit, à l’avance, « c’est cela que tu vas à faire », peut-être que ça fonctionne, mais là, comme ça, c’est assez difficile à croire dans le sens où, même pour moi, c’est déjà très difficile de le savoir. J’y ai quand même beaucoup réfléchi et je pense qu’aujourd’hui, par exemple, j’ai envie d’aller voir ce qui se passe du côté du secteur de l’aéronautique. Si l’outil me dit que, finalement, ce n’est pas du tout pour moi, je reviens à la case départ et je ne sais plus du tout où j’en suis.

Jean-Philippe Clément : Oui, un peu de doute va peut-être s’immiscer dans votre réflexion.
Monsieur Ibarc, finalement ce dispositif induit un principe de société, il donne des grandes lignes. La techno utilisée va nous conduire à une société qui se dessine. N’y a-t-il pas des adaptations à faire pour que ça soit un peu moins fort en termes de prédétermination ?

Rémy Ibarc : D’un côté, c’est comme avoir un assistant personnel qui va nous aider à choisir notre parcours professionnel, c’est donc un vrai avantage, mais, de l’autre côté, comment sensibilise-t-on les étudiants au fait que c’est un outil mais que ce n’est pas une vérité ? Comme je le disais, c’est en se trompant qu’on arrive à trouver ce qu’on va faire et c’est vraiment avec cette intuition qu’on arrive à comprendre qui on veut devenir.

Jean-Philippe Clément : Votre préconisation serait plutôt de l’utiliser comme une aide à l’accompagnement plutôt que quelque chose de déterminé.

Rémy Ibarc : C’est une super aide, par contre ça doit rester une aide et ça ne doit pas être une vérité.

Jean-Philippe Clément : Et vous, madame Crinquant, seriez-vous prête à adapter un peu cet outil ? Personne ne l’a encore testé, c’est donc la première année. Si jamais quelques critiques se font jour, est-ce que vous êtes en capacité d’adapter un peu les éléments ? Est-ce que vous sentez que le ministère est quand même sur une écoute par rapport à ce qu’il peut se passer ?

Marie Crinquant : Évidemment. De toute façon, comme pour tout produit d’intelligence artificielle qui débarque sur le marché, nous avons fait nos tests en interne, mais ça ne sera jamais aussi développé que des tests grandeur nature. Aujourd’hui, ce produit est ouvert à l’utilisation, aux tests, et nous sommes ouverts aux retours. Chaque étudiant/étudiante qui va utiliser le produit va nous produire des retours et nous, derrière, nous allons améliorer l’algorithme d’intelligence artificielle en fonction de ces retours pour avoir quelque chose de beaucoup mieux pour l’année suivante.

Jean-Philippe Clément : D’accord.
Au-delà de cette question de pertinence des recommandations concernant l’orientation, il faut quand même qu’on se pose la grande question, souvent oubliée quand on parle d’IA, du côté énergivore du dispositif, surtout, quand même, à l’échelle des trois millions d’étudiants qui vont s’interroger sur leur orientation avec cet outil-là. Monsieur Ibarc, c’est le genre de dispositif qui peut être optimisé de ce point de vue-là ?

Rémy Ibarc : Il faut se souvenir que ces IA sont gourmandes en énergie, en électricité, en eau, en matières rares aussi. Une requête d’IA représente 1000 recherches Google, c’est donc conséquent et si trois millions d’étudiants l’utilisent quotidiennement, ça va faire une sacrée facture d’électricité. Il y a des moyens pour optimiser. Nvidia, qui est le leader sur marché, fait des GPU [Graphics Processing Unit] spécialement pour l’IA, ça avance, mais il faut faire attention à sa consommation.

Jean-Philippe Clément : Peut-être décaler dans le temps l’usage du dispositif : les étudiants n’auront le droit de l’utiliser que la nuit, peut-être, pour que ça puisse marcher correctement avec l’énergie ? Je rigole !

Rémy Ibarc : Ça pourrait se faire !

Jean-Philippe Clément : Valentin, c’est vous qui allez avoir le mot de la fin de ce débat, puisque c’est quand même votre avenir qui est en jeu. Qu’est-ce que vous voudriez garder comme élément de ce dispositif et de cette manière de le présenter ? Est-ce qu’il y a des choses qui vous font un peu peur, du coup ?

Valentin : À la lumière de nos échanges, j’en tire que c’est un outil qui pourrait m’aiguiller, ça serait complètement bénéfique. Si c’était plutôt une contrainte ou une restriction, je serais plutôt moins enclin à utiliser l’outil. Si finalement on trouvait un compromis, que l’outil indique plusieurs propositions d’orientation, qui sont des recommandations, mais que je suis pas obligé de suivre, sans forcément un malus, je pourrais plutôt y adhérer.

Jean-Philippe Clément : Déjà un premier retour, Madame Crinquant. Le truc n’est pas encore lancé que vous avez déjà des retours d’étudiants.
Merci beaucoup pour ce débat. C’était Parlez-moi d’IA sur la question de la manière dont l’IA peut être insérée dans le dispositif Parcoursup en 2024.
Merci à tous pour ce débat. Nous avons pu voir que les questions sont nombreuses et que les demandes d’ajustement et de régulation ne sont pas anodines. Merci. À très bientôt.

Jérôme, stop ! Attends ! Pour les auditrices et les auditeurs qui sont encore là, en fait c’était un gros canular. J’espère que vous êtes encore là parce que sinon vous ne serez pas au courant que c’était un gros canular. Ce débat et le sujet de ce débat était des fakes, comme les IA génératives peuvent en produire très facilement avec un pouvoir de diffusion extrême. Chères auditrices et auditeurs excusez-nous. C’était destiné à vous faire réagir, à vous faire réfléchir.
Nous avons organisé ce faux débat avec les amis de Data For Good [4] et de Latitudes [5] pour vous dire que ce type de réflexion sur l’IA est essentiel, qu’il s’agit, bien sûr, d’un objectif de trois dispositifs parce que, en fait, il y a trois dispositifs. Il y a Parlez-moi d’IA qui essaye d’être techno-lucide, il y a le livre blanc Les grands défis de l’IA générative [6] de Data For Good et, désormais, le jeu sérieux la Bataille de l’IA [7] propulsé par Latitudes, sur lequel vous pouvez réagir maintenant que vos vraies identités sont révélées.
Peut-être Rémi dont c’est le vrai nom, Rémi Ibarc, peux-tu parler du livre blanc sur la techno-lucide en une minute ?

Rémy Ibarc : En une minute, sur le livre blanc. On voyait l’IA évoluer et devenir mainstream mais on parlait peu des risques. On a voulu écrire un livre blanc sur les défis et les challenges sociétaux et environnementaux de ces IA.

Jean-Philippe Clément : On le trouve en ligne sur le sur le site de Data For Good. C’est un livre blanc très complet qui balaye tous les éléments dont on a parlé aujourd’hui, notamment les biais. Et quoi d’autre ?

Rémy Ibarc : Exactement. On parle de fiabilité, on parle de propriété intellectuelle, on parle de biais et on parle, bien évidemment, d’environnement. Ces quatre rubriques sont incluses. Allez sur Data For Good pour pourvoir le livre blanc, il est riche.

Jean-Philippe Clément : Et c’est le livre blanc qui, du coup, a inspiré le jeu sérieux, La Bataille de l’IA, qui a été conçu par les équipes de Latitudes avec, aussi, Data For Good, me semble-t-il.
Valentin, tu peux maintenant enlever ton masque, tu n’es pas étudiant et lycéen. Tu as dit que tu avais fait des stages, c’est rare pour un lycéen d’avoir fait des stages ! Dans quel contexte s’est créé La Bataille de l’IA ?

Valentin : À Latitudes, depuis plusieurs années, on a une expertise avec la création d’ateliers, justement, de sensibilisation sur le numérique responsable et engagé, donc les enjeux sociaux et environnementaux. Ça faisait déjà un petit moment qu’on avait en tête tous ces sujets d’IA générative. Quand on a vu le travail formidable produit par l’équipe Data For Good, on a tout de suite compris que c’était le contenu qu’il fallait qu’on adapte sur un serious game pour pouvoir faire vivre, dans la durée, tout ce contenu.

Jean-Philippe Clément : Marie, tu es aussi de Latitudes, tu fais partie de l’équipe Latitudes. Comment se passe cet atelier, La Bataille de l’IA.

Marie Couvé alias Marie Crinquant : Je suis bénévole de Latitudes, Marie Couvé de mon vrai nom et vraiment data scientist.

Jean-Philippe Clément : Et tu peux le dire : tu ne cautionnes pas ce dispositif d’IA pour Parcoursup 2024.

Marie Couvé alias Marie Crinquant : Non, je ne le cautionne pas, je ne l’utiliserais pas et j’espère qu’il ne sera jamais développé.

Jean-Philippe Clément : Tu le défends bien, quand même !

Marie Couvé alias Marie Crinquant : Oui, j’ai essayé !

Jean-Philippe Clément : Les explications sur l’atelier ?

Marie Couvé alias Marie Crinquant : Cet atelier dure au minimum deux heures. Il a pour objectif de sensibiliser aux enjeux de l’IA générative.
Il se passe en trois étapes.
La première étape va être de refaire un historique de l’intelligence artificielle, des années 50 à aujourd’hui ; le jeu est basé sur le jeu Timeline pour celles et ceux qui connaîtront.
La deuxième étape, ça sera plutôt des débats autour des enjeux de l’intelligence artificielle générative. On va poser des petites questions autour des différents enjeux.

Jean-Philippe Clément : Et la troisième partie c’est un débat, comme on l’a fait aujourd’hui, avec des vrais-faux interlocuteurs, des profils qui se gèrent autour.

J’espère que cette vraie-fausse émission de Parlez-moi d’IA ne vous a pas trop choqués, qu’elle vous a donné l’occasion de réfléchir et qu’elle va vous donner l’occasion de réfléchir avec le livre blanc et avec le futur jeu sérieux, La Bataille de l’IA, que vous pouvez aller voir sur les sites de Latitudes et de Data For Good.
On se retrouve bientôt pour un vrai entretien, cette fois-ci, de Parlez-moi d’IA, je vous le promets.
Restez sur 93.1 FM sur Cause Commune. Je vous laisse avec les bonnes émissions, dans les bonnes mains de Cause Commune, Rayons libres pour le vélo avec Jérôme.
Merci Jérôme pour la réalisation et puis, tout de suite, c’est Sous les lapsus de l’actu.
À bientôt.