Diverses voix off, extrait du long métrage Dragon Ball : Dis donc, qu’est-ce que c’est l’onde de choc ?
C’est l’arme psychique la plus puissante au monde. Il va concentrer toute son énergie mentale et physique et la projeter d’un seul coup.
On a de la chance. Je connais des gens qui vendraient leur âme pour assister à ça.
Voix off : Trench Tech – Esprits critiques pour Tech Éthique.
Mick Levy : Bonsoir.
Cyrille Chaudoit : Bonsoir Paris.
Mick Levy : Bonsoir à tous.
Cyrille Chaudoit : Bienvenue dans ce Trench Tech All Star numéro 3, « IA, l’onde de choc ».
Mick Levy : Il y a une petite tradition, Cyrille, dans Trench Tech All Star, je sais que tu n’aimes pas, mais je m’en fous, j’y vais quand même, c’est de le chanter, c’est le Trench Tech All Star. C’est bon, cette fois on est parti pour de vrai. Merci.
Cyrille Chaudoit : C’est surtout pour défoncer les oreilles de tout le monde.
Mick Levy : Non, j’ai éloigné le micro quand même !
De quoi va-t-on parler ? « L’IA, l’onde de choc », je crois qu’on peut tous ressentir cette onde de choc, sans exception, même ma grand-mère me parle maintenant de ChatGPT et des prouesses qu’elle fait avec cet outil fantastique, parfois autour d’un poulet frites, effectivement.
Plus sérieusement, dans cet épisode, on va voir comment cette onde de choc de l’IA s’est déversée en chacun de nous, on pourrait dire, plus largement comment elle est aussi en train d’impacter la société. Ça va être assez passionnant.
Cyrille Chaudoit : Effectivement. Et pour pouvoir en parler, on a quand même un line-up de folie. On a, ce soir, parmi nous François Saltiel, journaliste et producteur chez France Culture, vous l’avez peut-être écouté dans Le Meilleur des mondes jusqu’à la fin de l’année dernière, même un peu avant, en vrai. Il était toujours là, en matinale, et il est revenu avec une super émission qui s’appelle La Fabrique de l’information, tous les vendredis de 14 heures à 15 heures. François Saltiel.
Mick Levy : Salut François.
François Saltiel : Heureux d’être là. Bonsoir à tous.
Mick Levy : Avec nous aussi, nous sommes ravis de te recevoir, Ophélie Coelho, qui est chercheuse en géopolitique du numérique à l’IRIS [Institut de relations internationales et stratégiques], qui nous avait livré plein d’informations passionnantes lors de l’épisode qu’elle avait enregistré avec nous [1]. Nous sommes ravis ce soir, Ophélie, de t’avoir aussi sur ce débat du All Star.
Bonjour à toi.
Ophélie Coelho : Bonjour. Merci pour l’invite.
Cyrille Chaudoit : Et enfin on accueille Yann Ferguson. Si vous vous intéressez à l’impact de l’IA sur le travail, sur l’emploi, peut-être que vous connaissez ses travaux à l’Inria [Institut national de recherche en informatique et en automatique], notamment au LaborIA [2], on aura l’occasion de développer tout à l’heure ; des travaux sur cet impact qui, pour ma part, m’ont beaucoup inspiré. Yann Ferguson est directeur scientifique et directeur de recherche du LaborIA.
Bienvenue à toi Yann.
Yann Ferguson : Bonjour. Merci beaucoup pour l’invitation.
Mick Levy : Vous connaissez Trench Tech. Le grand débat va être organisé en deux séquences. On va d’abord voir comment l’IA vient nous impacter en tant qu’individus et ce que la dépendance à l’IA, qui est en train de se mettre en place pour certains, dit de nous.
Cyrille Chaudoit : Comme nous ne sommes pas que des individus mais aussi des communautés, au sein de la famille, au sein de l’entreprise et au sein tout simplement d’un pays, d’une démocratie, on va essayer de voir à quel point, de façon systémique, l’IA a un impact sur les ensembles que nous sommes.
Mick Levy : Et puis la grande tradition des Trench Tech All Star, c’est d’avoir la quintessence de la pensée de chacun de nos invités. On va d’ailleurs démarrer par là avec la battle de pitchs. On va entendre chaque invité, pendant trois minutes, exprimer la quintessence, le cœur de sa pensée, ce qui nous donnera aussi une bonne base, derrière, pour en discuter lors du grand débat.
Cyrille Chaudoit : Un dernier atout de l’ADN de Trench Tech, ce sont quand même ses chroniqueurs, donc on innove : chaque invité va se faire tirer le portrait, si j’ose dire, par un tandem de chroniqueurs et vous allez voir que ce n’est pas mal, c’est du gratiné.
Voix off : Trench Tech – Esprits critiques pour Tech Éthique.
Cyrille Chaudoit : Nous allons commencer avec toi, François, cette battle de pitchs, parce que c’est par ordre alphabétique du prénom et, pour tirer le portrait de François Saltiel, tenez-vous bien, nous appelons dès à présent sur scène Laurent Guérin, le chroniqueur d’un « Moment d’égarement » et Laura Sibony nouvelle chroniqueuse chez Trench Tech de « Mémoire vive ».
Portait de François Saltiel
Laurent Guérin : François Saltiel, en prononçant votre nom un peu trop vite, j’ai d’abord cru que vous étiez une femme alors qu’en fait non, je suis déçu.
Laura Sibony : Pas moi !
Laurent Guérin : Vous êtes journaliste, auteur, chroniqueur, producteur et accessoirement plutôt beau gosse. Je suis déçu.
Laura Sibony : Pas moi ! Sinon je suis très contente de pouvoir vous dire combien votre deuxième livre, La société du sans contact – Selfie d’un monde en chute, m’avait inspirée parce qu’il permet de raconter la technologie, de pouvoir la raconter à travers des récits et des belles histoires et peut-être même de la sauver, comme le héros de votre premier livre, Le vendeur de thé qui changea le monde avec un hashtag.
Laurent Guérin : On ne le précise pas assez, mais c’est un ouvrage disponible dans tous les palais d’été, avec un nuage de lait et un petit sucre, bien sûr.
Vous écrivez, François, avec votre femme Virginie et on se demande quand même si ce n’est pas un peu compliqué, un peu trop dur d’écrire avec son conjoint, alors qu’il y a tellement d’autres choses à faire avec son conjoint, comme du tennis ou des gâteaux.
Laura Sibony : Moi-même, quand j’écris toute seule, j’ai parfois envie de divorcer de moi-même, je ne sais pas comment vous faites ! Mais surtout, vous vous érigez contre les pratiques sans foi ni loi, contre une tech sans les femmes, contre une société sans contact, contre une éducation sans règles par rapport aux écrans. Vous êtes la head de la tech, vous êtes le compteur des temps virtuels, le Père Castor d’un monde hyperconnecté et pour cela, on a envie de vous redonner du contact, de vous remercier et Virginie, si vous écoutez, on m’a forcée à dire ça, de vous redonner du contact et un gros câlin.
Laurent Guérin : François Saltiel, surtout, ne changez rien !
[Applaudissements]
Cyrille Chaudoit : Merci Laurent. Merci Papilo. Merci Mamilo.
Mick Levy : François, ton portrait étant maintenant tiré, ça va être à toi de jouer. Trois minutes. Tu es prêt ?
Pitch de François Saltiel
François Saltiel : Bonsoir à tous. Donc trois minutes pour essayer d’expliquer ce qui se passe dans mon métier de journaliste avec l’impact de l’IA.
Je vais revenir un tout petit peu en arrière, avant novembre 2022, avant l’arrivée de ChatGPT, pour vous expliquer ce qu’était finalement un journaliste.
Journaliste était l’une des professions les plus détestées de France, avec les politiciens. Personne n’aime les journalistes, c’est dans tous les instituts de sondage et des baromètres.
En parlant de baromètre, il y en a un autre, c’est le baromètre de la confiance qui a lieu chaque année, c’est le très bon quotidien La Croix qui le publie et, vous le savez, cette confiance est en érosion, les gens n’ont plus du tout confiance dans l’information que l’on peut délivrer. À cause de quoi ? À cause d’une connivence : les journalistes sont suspectés d’être un peu trop proches du pouvoir, notamment du monde politique, à cause d’un manque de représentation, les gens ne se sentent plus concernés, et aussi à cause d’une fatigue informationnelle. On est dans un monde de flux constants, même un monde de context collapse comme le dit Danah Boyd [3]. Le context collapse c’est ce qu’on vit tous à cause des réseaux sociaux, c’est-à-dire qu’on va alterner le message de son cousin avec la guerre en Ukraine et ensuite une recette de cuisine ou, pourquoi pas, de tennis puisque j’en entendais parler et c’est vrai qu’on peut faire du tennis avec son conjoint. D’un coup tout s’entremêle, tout se mélange et le public, nous, le citoyen, avons tendance à nous détourner de l’information, c’est même un phénomène d’évitement. Ce phénomène a été documenté, notamment par le rapport Reuters qui a lieu chaque année et il est en progression. Aujourd’hui, on parle même d’exode informationnel, c’est-à-dire que les gens se détournent, ils ne veulent plus l’écouter parce que ça les rend anxieux. Il y a aussi une éco-anxiété latente, un contexte international que je ne vais pas développer ici, qui ne donne pas forcément envie d’écouter les nouvelles et cet exode amène à un repli sur soi.
Donc voilà, c’est à peu près le contexte du milieu journalistique plus, peut-être, la dépendance aux réseaux sociaux, où les médias essayent tant bien que mal d’aller chercher une audience qui leur échappe, notamment plus jeune, en pensant qu’en mettant trois/quatre vidéos sur Instagram ou sur Facebook ils vont pouvoir récupérer cette audience sur leur média traditionnel.
On me dit qu’il reste une minute. Une minute pour vous dire qu’à un moment donné ChatGPT arrive et c’est une intelligence artificielle. À votre avis, est-ce que ça amplifie ce phénomène ? Est-ce ce que l’intelligence artificielle devient une solution ? La réponse est non. Ça amplifie la désinformation, ça amplifie ce qu’on appelle l’Internet zombie, c’est-à-dire cette espèce de répétition et surtout, cette croyance s’altère encore davantage, on va encore moins croire le journaliste, car il est si facile de déformer et de faire de la manipulation de l’information.
Mais, il y a évidemment une solution, dans les dernières secondes, c’est stratégique, finalement, de ne réserver que quelques secondes aux solutions et d’exposer les problèmes pendant à peu près deux minutes trente.
Les solutions, c’est justement faire ce qu’on est en train de faire ce soir, tous ensemble : recréer du lien. Le journaliste est un média qui doit redonner la confiance. Comment ? Peut-être en s’affranchissant finalement de l’intelligence artificielle pour aller sur le terrain, en redonnant un pouvoir d’agir. Pour cela il y a un genre qu’on appelle le journalisme de solutions, qui est très mal compris parce qu’on le voit souvent comme un journalisme de Bisounours qui apporte les bonnes nouvelles. Or, le journaliste de solutions c’est juste un journalisme de construction qui doit permettre aux gens de déclencher du pouvoir d’agir en dépit du timing, en dépit justement de notre volonté transgresser. Merci à tous.
[Applaudissements]
Cyrille Chaudoit : Bravo ! Qu’est-ce qu’il est fort. Tu es vraiment la head du numérique et de la tech !
Vous retrouverez tous ces beaux mots, avec la complicité de ton épouse Virginie Sassoon, dans ce nouveau livre Faire la paix avec nos écrans aux Éditions Flammarion, il vient juste de sortir. Je vous invite aussi à lire Une société sans contact.
Mick Levy : Il a quasiment réussi à faire la paix avec le chrono déjà, François, ce qui n’est pas mal.
Cyrille Chaudoit : Eh oui, tu as des leçons à prendre !
Mick Levy : D’ailleurs, François on rappelle ton épisode en saison 3, la saison précédente, « Nos médias sont-ils à la hauteur des enjeux numériques » [4] spoiler alerte, pas complètement. Je crois que si on devait retenir un point de l’épisode, c’est celui-là, « pas complètement », mais il faut évidemment l’écouter pour bien comprendre tout ce qui se joue derrière.
Prochain portrait.
Cyrille Chaudoit : Ophélie Coelho. Pour le portrait, vous allez voir, on est en mode hybride. Nous avons en vidéo Sandrine Charpentier, chroniqueuse de « Elles font la tech », et Louis de Diesbach de « La tech entre les lignes ».
On peut les applaudir.
[Applaudissements]
Portait de Ophélie Coelho
Sandrine Charpentier : Vous savez, quand on parle de géopolitique et de numérique dans Trench Tech, il y a des experts et des expertes auxquelles on pense tout de suite. Évidemment, Ophélie Coelho fait partie de ces femmes incontournables de la tech pour nous éclairer et nous faire réfléchir sur l’impact de nos choix sur le monde de demain.
Ophélie Coelho est doctorante à Paris-Panthéon-Assas, tiens, comme moi, nous avons étudié dans la même université, mais aussi, au-delà de cela, une chercheuse indépendante, elle a plus de dix ans d’expérience dans l’industrie du numérique. Et puis surtout, elle est l’autrice d’un livre devenu incontournable, paru en 2023, qui s’appelle Géopolitique du numérique – L’impérialisme à pas de géants. Louis, est-ce que tu peux nous en dire plus sur cette expertise ?
Louis de Diesbach : Oui. On retrouve cette expertise également dans le travail académique et rédactionnel d’Ophélie qui, en plus de son livre, on en a parlé, fait office de référence dans le domaine, publie des articles, notamment dans la revue Recherches internationales mais aussi, et peut-être surtout, vulgarise son domaine et son travail et ne le laisse pas prendre la poussière dans une tour d’ivoire et je trouve que c’est extrêmement important.
De de la gestion des câbles sous-marins à celle du numérique africain, en passant par les usual suspects que sont la Chine, les USA et la Russie, le regard d’Ophélie est simplement incontournable si on veut traiter ces enjeux de façon holistique.
Et maintenant, place donc à la géopolitique de la tech ou à la géopolitech. Bref, trêve de géo-politesse comme dirait l’autre, Ophélie Coelho, surtout, ne changez rien !
[Applaudissements]
Cyrille Chaudoit : Bravo. Merci Sandrine. Merci Louis. Désormais la parole est à Ophélie. Même punition, trois minutes pour pitcher ta grande idée.
Pitch de Ophélie Coelho
Ophélie Coelho : Je commence par une recette de cuisine, en fait je commence par une pâtisserie. On a commencé par parler d’un mille-feuille, eh bien l’intelligence artificielle c’est la couche de sucre sur le mille-feuille, c’est-à-dire que c’est une couche sucrée qui repose sur un ensemble de couches, en fait tout le reste : l’infrastructure, la couche logicielle, les données, etc. Pour avoir cette couche de sucre, du coup il faut tout le reste du mille-feuille.
Cette couche de sucre a clairement un côté addictif, c’est très facile à manger, parfois on achète le mille-feuille pour cette couche de sucre et on devient très facilement accro. D’ailleurs, ça nous donne un petit coup de boost, rapide, qui ne dure pas forcément très longtemps et quelles sont les conséquences ? Ce sont des conséquences pour notre santé. Tout comme le sucre, l’IA n’est pas particulièrement bonne pour notre cerveau et notre capacité d’agir.
Par ailleurs, ça a un côté un petit peu écœurant quand on sait comment c’est fabriqué, comment c’est cuisiné.
Concernant l’IA, c’est clair que l’exploitation des données, le traitement des données à la fois personnelles, stratégiques, de santé, etc., peu importe le nombre de données, dans ce type de domaine, qui ont servi à l’entraînement du modèle, ça repose sur du travail humain, ça repose sur énormément d’investissements. Quels sont ces investissements ? On a parlé de la bulle internet, on a parlé de la bulle IA. Les fonds d’investissement reposent sur des fonds indiciels, qui reposent sur des fonds de pension, qui font fonctionner les retraites par capitalisation et soutiennent des modèles sociaux qui ne sont pas forcément ceux qu’on a choisis au départ. En fait, qu’est-ce qu’on a avec l’expansion technologique et l’expansion de l’IA ? On a un cofinancement par des fonds de pension et des fonds indiciels de technologies qui du coup, derrière, concentrent les richesses, de plus en plus.
Il reste très peu de temps.
Ma grande idée, au final, c’est de considérer que l’IA n’est pas décorrélée de la société et notre modèle social. On a des technologies qui, aujourd’hui, sont financées par des systèmes de fonds d’investissement, qui reposent sur des fonds indiciels, des fonds de pension, des retraites par capitalisation. Qu’est-ce que ça détruit, au final ? Ça détruit d’autres modèles sociaux, comme le nôtre, des retraites par répartition, et d’autres pays qui ont choisi ces modèles par répartition. Pour donner du sens à l’IA et aux technologies, il faudrait les rapprocher de nos modèles de société, qu’elles nous servent à la sécurité, à l’éducation, qu’elles nous servent, en fait, à l’administration, qu’elles nous servent aux secteurs clés, à la santé, et qu’on évite de continuer à concentrer la technologie aux mains de quelques-uns avec les richesses qui vont avec.
[Applaudissements]
Cyrille Chaudoit : On avance sur le timing. Bravo !
Mick Levy : Parfaite maîtrise de la recette. En avance sur le timing, elle est partie à dix secondes de retard, elle arrive avec dix secondes d’avance.
Cyrille Chaudoit : Tu sais que le mille-feuille est un de mes desserts préférés. Tu m’as donné envie au début et là, finalement…
Mick Levy : Je croyais que c’était le gâteau nantais, mec ! On avait dit les gâteaux nantais, on était quand même fidèle à notre patrie initiale.
Cyrille Chaudoit : C’est plus le sucre, j’avoue.
Bravo Ophélie. On rappelle ton épisode « Guerre froide numérique » [1], à écouter sur toutes les plateformes et sur YouTube, puisque c’est effectivement aussi en vidéo Trench Tech.
À présent Yann Ferguson.
Mick Levy : Et, pour faire le portrait de Yann Ferguson, on va avoir un trio, attention, soyez prêts, Gérald Holubowicz de « On refait la tech », s’il vous plaît, Emmanuel Goffi de la « Philo Tech » et bien sûr Fabienne Billat du « Patch Tech ».
Portrait de Yann Ferguson
Gérald Holubowicz : Ah, la question du travail et de l’IA, remplacé, pas remplacé, tout le monde tremble un peu en allant au bureau le matin, espérant ne pas avoir R2-D2 siroter un café à sa place dans l’open office.
Pour ce portrait on a utilisé un des deux, à toi de deviner lequel, du bon travail humain ou de l’IA facile, il faudra deviner.
Donc Yann Ferguson est un expert sur le sujet parce qu’il est quand même docteur à l’Inria, le fameux Institut national de recherche en sciences et technologies du numérique, et qu’il bosse sur les relations entre les travailleurs et les applications de l’intelligence depuis pas mal d’années. Emmanuel.
Emmanuel Gof : Comme Tic et Tac, nos deux amis, l’ont dit tout à l’heure, apparemment vous êtes, alors je sais pas si c’est directeur de recherche ou directeur scientifique, en tout cas l’un des deux au LaborIA, comme tu l’as dit, qui est programme conjoint du ministère du Travail et de l’Inria. J’ai regardé ça, je me suis tout de suite dit « ce n’est pas super sexy, ça ne fait pas rêver comme job ! ». À priori, ce n’est pas un job temps plein, parce que vous avez quand même eu le temps de travailler sur deux bouquins en 2020, je donne les titres, je ne les connais pas par cœur, Puissance de calcul, force de l’emprise ? Critique de l’« organisation augmentée », pas sexy non plus, pardonnez-moi, aux Éditions Érès, et puis un autre bouquin Une intelligence artificielle au travail – Cinq histoires d’Homme, aux Éditions L’Harmattan, toujours en 2020. Du coup, nous nous sommes posé la question, à savoir si vous n’aviez pas eu un petit coup de main pour écrire des bouquins un d’ami qui commencerait par « Chat » et finirait par « GPT », à débattre, on va on verra ça plus tard.
En tout cas, vous êtes bien ici aujourd’hui, on vous remercie, il n’y a pas d’intelligence artificielle, il n’y a que de l’intelligence humaine et on est très ravi pour cela. Et puis, vous l’aurez compris, Yann – je vous appelle Yann comme si on se connaissait, mais on ne se connaît pas du tout, peu importe, ça fait classe – est avant tout un explorateur en l’occurrence de la condition humaine au travail et de ses enjeux éthiques face à l’intelligence artificielle. Quand vous aurez un rendez-vous avec vos DRH, vous penserez à ce que Yann vous dit. En tout cas, Yann, ne changez rien.
[Applaudissements]
Mick Levy : Merci. En fait, Fabienne a vraiment l’air timide du coup. Tu as coordonné, d’accord.
Cyrille Chaudoit : Tu as coordonné. Derrière chaque grand homme se cache une grande femme !
Merci. Je ne sais pas comment tu le prends, Yann, « ça ne fait pas rêver », on va voir si ça fait ne fait pas rêver.
Mick Levy : Par contre, une autre chose, il faut qu’on revienne dessus : c’est toi Tic ou c’est moi ? E Tac ? Je ne sais pas.
Cyrille Chaudoit : Il y a une question de nez dans tout ça.
Yann, tu vas défendre un petit peu tout ça et nous montrer que c’est quand même sexy.
Pitch de Yann Ferguson
Yann Ferguson : Merci à ceux qui m’ont dressé le portrait.
Je ne sais pas si mes travaux font rêver, en tout cas j’occupe le job de mes rêves. Je dirige scientifiquement le LaboriIA et c’est vraiment le travail que j’aurais pu imaginer. Si ça avait été possible, c’est celui-là que j’aurais fait. Je le dois à un rapport de la mission Villani [5], qui a été publié en mars 2018. Dans le rapport de cette mission, le mathématicien Cédric Villani et ses coauteurs ont dit « il faut mettre en place un lab public d’exploration et d’expérimentation de l’IA au travail. » Trois ans plus tard ce lab est créé, donc ce rapport me donne le job de mes rêves.
Je lisais ce rapport à ce moment-là et je ne savais pas que cette proposition allait être pour moi.
Il y a d’autres choses intéressantes dans ce rapport, il dit notamment que travailler avec l’IA ça peut être aliénant, tout n’est pas beau dans le travail avec l’IA, mais, par contre, il y a un potentiel incroyable qui est de désautomatiser le travail humain : il y aurait un robot en nous que l’IA va nous enlever et elle va s’occuper de ce qu’il y a de robotique dans notre travail. En contrepartie qu’est-ce qu’il y a ? Eh bien, au travail nous allons pouvoir nous concentrer sur des propriétés qualifiées de proprement humaines. Quelles sont ces propriétés ? La créativité et les relations humaines. Génial, j’ai trouvé ça incroyable parce qu’en fait c’était moi, c’était le job de mes rêves : être créatif et les relations humaines, c’est exactement ce que j’essaie de faire toute la journée, mais c’était aussi Cédric Villani.
À un moment, je me suis demandé « tous ces gens qui parlent du futur du travail et sur le fait que ça va les reconcentrer sur le proprement humain ne sont-ils pas en train de se décrire eux-mêmes, ne font-ils pas un transfert dans le futur du travail ? ».
Après, j’ai regardé ce que disent les sciences du travail : quel est le sens du travail ? Elles ne parlent pas du tout de créativité et de relations humaines. Les sociologues du travail disent que le sens du travail repose sur trois piliers :
le jugement d’utilité, je sers à quelqu’un ;
le jugement de beauté, ce que je fais est beau, ce que je fais est bon, c’est-à-dire correspond à mes valeurs ;
et enfin, la réalisation de soi au travail.
Ce n’est pas du tout la créativité et les relations humaines.
Après, je me suis donc demandé dans quelle mesure l’IA peut véritablement activer ces trois éléments du sens du travail. Ce n’est pas ce que je vois dans les projets d’entreprise où souvent le projet d’IA c’est davantage un projet de management algorithmique : déposséder le travailleur de son expertise, parcelliser à nouveau le travail, diviser à nouveau le travail pour ensuite mieux contrôler le travailleur.
Et puis il y a aussi les usages spontanés de l’IA au travail, les collaborateurs qui l’utilisent et eux trouvent que ça a du sens, mais je ne vois pas du tout de la créativité ; je vois de la créativité individuelle, mais je vois de l’homogénéisation du travail collectif.
Je ne vois pas forcément des gens qui sont meilleurs dans les relations humaines, je vois des gens qui écrivent les mails avec l’IA, voire qui préfèrent échanger avec l’IA plutôt qu’avec leurs collègues. Ils brainstorment avec l’IA et ne brainstorment plus avec leurs collègues.
Donc ma contribution à une technique plus éthique, ce n’est pas forcément l’éthique de l’IA au travail, mais c’est l’éthique du travail avec l’IA.
[Applaudissements]
Cyrille Chaudoit : Waouh ! On vous l’avait dit, on a un line-up extraordinaire, ils se sont chauffés, c’est incroyable, le timing parfait.
Mick Levy : Vous voyez qu’on a du niveau juste en trois fois trois minutes, on plie l’affaire, la soirée est faite.
Cyrille Chaudoit : On a des grands professionnels, on peut les applaudir.
[Applaudissements]
Mick Levy : Yann, on retrouve ton épisode « Travail : l’IA va-e-elle nous rendre obsolètes ? » [6] qui est rentré directement dans le top 3, j’ai le top 3 des meilleurs épisodes sous les yeux, c’est d’ailleurs vous trois.
Yann Ferguson : Tu ne le dis pas à chaque fois !
Mick Levy : Non !
Cyrille Chaudoit : On va arrêter de cirer les pompes. Néanmoins, c’est vrai que nous sommes très heureux de vous avoir. Un tout petit clin d’œil particulier à Yann, je vois que Raphaël est là, quelques personnes de mon entourage professionnel savent à quel point je parle des travaux de Yann depuis plusieurs années, je les gonfle avec ça. Si vous n’avez pas envie de vous taper les rapports qui font 100 à 120 pages, vous pouvez aussi écouter l’épisode, vous aurez un bon résumé. On aura l’occasion de revenir sur tes travaux, notamment sur cette dimension, tu viens de nous tendre la perche pour lancer la première séquence : de l’individuel au collectif. On va donc attaquer. Maintenant que vous avez les grandes idées, on va rentrer un peu dans le détail de tout ça.
Voix off : Trench Tech – Esprits critiques pour Tech Éthique.
La dépendance individuelle comme enjeu de pouvoir
Mick Levy : Dans cette première partie, nous allons voir comment, finalement, une dépendance a pu se créer aussi vite, avec ces outils qui ont pénétré aussi rapidement notre quotidien, et comment ils sont venus transformer, comment ils viennent déjà transformer nos comportements vis-à-vis des médias, vis-à-vis de la géopolitique, vis-à-vis du travail en particulier.
Cyrille Chaudoit : Nous allons attaquer avec toi, François, et avec l’information. Je le disais tout à l’heure, tu as relancé une nouvelle émission, La Fabrique de l’information, et j’ai été assez heureux d’entendre le tout premier épisode qui portait précisément sur ce sujet-là [7]. Si vous écoutez, si vous avez des enfants, des ados, vous vous en rendez peut-être un petit peu compte, ça devient un des premiers réflexes, en tout cas, l’une des premières sources d’information c’est d’aller se renseigner sur son LLM [Large Language Model], sur ChatGPT, sur Perplexity, ce que vous voulez. Finalement, il y a 15 ans, on a déjà vécu un petit peu ce rapport à l’information avec les réseaux sociaux, on a vu qu’il y a eu une forme de glissement de consommation de l’information vers les médias. Je me suis assez rapidement posé une question : finalement, ce qu’on est en train de vivre n’est-ce pas tout simplement ce qu’on a l’habitude de vivre globalement tous les 15 ans, ce qu’on a vu avec les réseaux sociaux ? Sinon, quelle est la différence ?
François Saltiel : C’est une bonne question. En fait, on se rend compte que le numérique c’est déjà un amplificateur de phénomènes existants. On a toujours tendance à croire que le numérique invente des phénomènes, d’ailleurs c’est pour cela qu’on le diabolise. Je prends un exemple tout simple, le cyber-harcèlement. On en parle énormément, sauf que le numérique n’a pas inventé le harcèlement scolaire, il existe depuis toujours, sauf qu’il l’a amplifié, c’est-à-dire que quand on est cyber-harcelé, ça dure 24 heures sur 24 et la maison ne devient plus un refuge. Cet exemple-là, d’un numérique amplificateur, on peut l’appliquer à peu près à beaucoup de domaines.
Comme avec les réseaux sociaux, on pourrait dire que l’intelligence artificielle, l’IA, est un amplificateur d’un phénomène numérique qui était lui-même une amplification.
Les médias ont déjà vécu cette transformation que tu évoques sur les réseaux sociaux, sauf que la différence c’est que la marque média apparaissait encore un peu, c’est-à-dire qu’on avait une marque média qui essayait de s’exporter, de migrer sur un réseau social, en l’occurrence au départ c’était Facebook, mais il y avait encore une sorte d’identification, d’appartenance de la marque média.
Avec l’IA et la manière dont les médias sont un peu perdus, du moins utilisent différentes stratégies pour continuer à exister, quelque part c’est le côté de manque de lisibilité des sources. Une IA va donner ce qui est en censé être une vérité avec, bien sûr, son omniscience puisqu’elle est censée tout savoir, tout comprendre, sans forcément citer ses sources, avec souvent des techniques anthropomorphiques où on a l’impression que c’est la voix d’une personne, d’un humain, on lui donne même un prénom, ça lui confère donc déjà un esprit d’autorité, l’autorité de la technologie et, en même temps, l’empathie humaine. Quand on va poser une question, que l’IA va répondre, on va avoir tendance à la prendre pour argent comptant.
Mick Levy : Ça endort notre esprit critique encore plus que dans les approches habituelles, ne serait-ce qu’avec les réseaux sociaux ?
François Saltiel : Exactement. L’esprit humain est ainsi fait, nous sommes tous comme ça, on adore court-circuiter les efforts, c’est vraiment l’économie de la flemme et c’est d’ailleurs là-dessus que le monde du numérique s’est bâti, sur cette économie de la flemme : on n’a pas envie de descendre pour aller manger, on va commander à distance ; on n’a pas envie d’aller prendre une bière juste à côté pour rencontrer les gens, on va passer par une application de rencontres, etc. On est donc dans une forme de délégation, c’est notre nature, et ces outils-là, eux aussi, exploitent et amplifient les vulnérabilités, nos vulnérabilités.
Sur la question de l’information, finalement se dire qu’on peut tout avoir en quelques secondes, sans forcément faire l’effort critique de comprendre d’où vient cette info, ça peut être un problème. C’est là où l’IA devient complexe car elle exige de nous une capacité de discerner et, finalement, d’évaluer le résultat. Pour moi, si on veut bien utiliser l’intelligence artificielle, il faut exercer un effort en amont et en aval : savoir prompter, on le sait tous, comment poser la question, et arriver à analyser la réponse, donc, finalement, on ne gagne pas de temps.
Cyrille Chaudoit : C’est presque faire un travail de journaliste : aller croiser l’information. Pour celles et ceux qui ne verraient pas très bien ce que ça donne, il y a quelques années de cela on allait chercher le média, on allait s’informer, et puis Google nous a déjà un petit peu, entre guillemets, « freinés », parce que, rapidement, on consultait les deux premiers résultats, on ne se scrollait pas des masses. Désormais, l’IA nous formule une réponse packagée à une demande et, éventuellement, elle cite une, deux, trois sources, ce qui pose d’ailleurs d’autres problèmes.
Mick Levy : Qui ne sont pas toujours juste, d’ailleurs.
Cyrille Chaudoit : De fait. Ça pose d’autres questions pour être bien référencé, être vu, être montré, d’une certaine manière, par ces IA. D’ailleurs, ça a un véritable impact sur l’audience des sites médias en tant que tels, c’est-à-dire qu’on a constaté une chute de quasiment 50 %, je crois, du trafic sur les sites médias dès lors qu’on se renseigne sur ChatGPT, c’est bien ça ? Tu as notamment reçu Dreyfus, du Monde, as-tu des statistiques à nous partager ?
François Saltiel : Effectivement. En tout il partageait ses statistiques. Louis Dreyfus dirige le groupe Le Monde et le groupe Le Monde a fait le choix de faire alliance avec OpenAI, justement pour tenter d’apparaître en premier dans les sources. Il disait qu’il arrivait à convertir une bonne partie, à récupérer de nouveaux lecteurs ou des abonnés grâce à ce nouvel outil.
Tu faisais ce petit historique, on se rend bien compte que l’on est, encore une fois, dans une sorte de disparition de l’effort :
on est passé de se déplacer à un kiosque à journaux pour regarder et choisir un journal, donc un déplacement physique, aller vers un kiosquier, communiquer et acheter un journal ;
ensuite, on est passé par la numérisation : plus besoin de se déplacer, le truc vient à toi sur une application, c’est vraiment du push and pull ;
avec l’IA, tu ne passes même plus par l’application, tu ne passes même plus par le journal, tu passes par une seule interface qui va, en plus, augmenter globalement son pouvoir et finir sans doute, à un moment donné, avec une situation quasi monopolistique comme on a pu la connaître avec Google, pour te donner ce qu’elle veut que tu entendes ou que tu lises. Ou alors elle le fait parce que, derrière, il y a des accords financiers, avec les uns et pas les autres, et je suis certain, il n’y a pas de raison que ça n’arrive pas, que demain il y aura de la publicité en placement de produit dans les réponses, puisque, de toute façon, le modèle économique de Google c’était AdWords [régie publicitaire de Google] et ça fonctionnait très bien comme ça : les trois premiers résultats étaient sponsorisés, tu le savais, tu ne le avais pas. Pourquoi en serait-il autrement dans cette économie de l’attention ? Évidemment que les annonceurs vont arriver et vont intégrer les réponses et là ce sera encore plus difficile de discerner ce qui est de la communication de l’information.
Mick Levy : Yann, sur le fond du travail aussi, les choses vont changer très fortement avec l’IA et il semble que, finalement, les premiers touchés soient les plus jeunes puisque ce sont, semble-t-il, les plus faciles à remplacer dans les travaux par l’IA, en tout cas beaucoup, connaissant les travaux qu’on a tendance, aujourd’hui, à déléguer à l’IA. Est-ce que tu le constates aussi, sur le terrain, et comment va se passer l’entrée dans le travail pour cette population-là ?
Yann Ferguson : En fait, il y a deux phénomènes qui cohabitent, qui vont dans des directions différentes. Les plus jeunes sont les plus grands utilisateurs de l’IA générative : 85 % de la classe d’âge 18/24 ans utilisent l’IA, 99 % des étudiants dans le supérieur utilisent l’IA
Mick Levy : On va s’arrêter sur ce chiffre : 99 % des étudiants, dans leurs études supérieures, utilisent de l’IA au quotidien pour leurs études, donc, arrivés dans l’entreprise, ils ne peuvent pas imaginer travailler sans IA.
Yann Ferguson : Exactement. D’ailleurs 65 % disent que la présence de l’IA générative sera un des critères déterminants pour choisir leur premier employeur. Ils sont donc très demandeurs et ils sont très IA-enthousiastes sans avoir les compétences que tu viens d’évoquer, c’est-à-dire poser les bonnes questions et interpréter les résultats.
Mick Levy : S’ils n’ont pas ces compétences, c’est par manque d’expérience professionnelle dans leur travail. Du coup, on en revient à ma question : comment rentre-t-on sur le marché de l’emploi ?
Yann Ferguson : Pour l’instant, on rentre, mais on commence à détecter les phénomènes d’IA. Des études ont montré qu’il y a effectivement une tendance à la diminution de l’embauche sur certains secteurs, notamment les secteurs où il y a une forte intensité en production textuelle ou en génération de contenu.
Cyrille Chaudoit : On peut citer les Big Four en conseil qui crunchaient beaucoup de juniors, il y en a de moins en moins.
Yann Ferguson : Exactement. Aujourd’hui, il y a pas mal de sujets sur les consultants. Beaucoup ont annoncé le fait de diminuer, récemment, Accenture l’a annoncé, en même temps, Deloitte doit rembourser l’argent que lui a donné l’État australien parce qu’il y a plein d’erreurs dans le rapport qui a été livré et qui a été vendu plusieurs centaines de milliers de dollars australiens.
Mick Levy : J’ai le chiffre de 600 000 dollars en tête.
Yann Ferguson : Oui. Ils doivent rembourser une partie.
En fait, les jeunes arrivent, très fans d’une technologie dont on dit que, précisément, elle va venir tailler leur part du gâteau, leur possibilité, tout simplement, de commencer leur carrière professionnelle. On a donc ce sujet des tâches d’entrée.
Est-ce que ça va durer ?
Le numérique a très rarement automatisé le travail, il a plutôt déplacé, restructuré le travail. Dans les rédactions, il y a de moins au moins de secrétaires de rédaction, mais le boulot de secrétaire de rédaction n’a pas disparu, on a fait des interfaces où bien souvent c’est le journaliste qui doit produire lui-même le travail de la secrétaire de rédaction ou du secrétaire de rédaction. Quand vous allez dans un supermarché, qu’on vous donne une scannette pour scanner les produits en vous disant « c’est vachement innovant, vous ne ferez pas la queue », vous faites le travail du caissier ou de la caissière, mais on vous vend ça comme un progrès. Le numérique déplace beaucoup le travail et aujourd’hui, si on dit qu’on n’aura plus de juniors, on va dire que ce sont les seniors qui vont faire, avec un outil, le travail du junior. Il n’est pas évident qu’ils vont vouloir continuer à le faire très longtemps, même s’il y a l’IA pour l’automatiser à leur place.
Cyrille Chaudoit : Le senior qui fait une partie du travail qui était assigné au junior, à l’aide d’un outil, l’équivalent de la calculatrice en quelque sorte, OK, mais on sait aussi, parce que nous avons tous un petit peu de bouteille et que nous sommes passés par là, qu’on apprend vachement sur le terrain. Que ce soit quand on est encore stagiaire ou quand on rentre dans la boîte, il y a cette notion de transmission, dont d’ailleurs beaucoup de seniors sont fiers parce qu’on transmet à ceux qui vont nous succéder, pendant 10 piges on est encore à peu près tranquilles, ça ne va pas nous remplacer dans six mois. Comment cette transmission va-t-elle se passer, du coup, si elle n’existe plus vraiment ?
Yann Ferguson : Dans une collaboration que j’ai faite avec un magazine, un jeune qui travaille dans une banque a dit : « Je me fais « senioriser par l’IA ». Déjà, ça pose la question de la relation au senior, mais là on n’est plus sur des assistants, ce qui est la terminologie officielle, on est sur des seniors qui nous ré-assurent. On a donc là un vrai sujet concernant ces compétences, ces acquisitions de compétences terrain où finalement tout ce qui compte – c’est l’effet d’accélération que produisent souvent les technologies – c’est le résultat final, ce n’est plus le processus d’acquisition. C’est déjà arrivé : avant, quand on traversait l’Atlantique, on le faisait en bateau. Il y a toute une littérature de romans où on racontait ce qui se passait pendant les voyages. Aujourd’hui, il n’y a plus de littérature de voyages parce qu’on ne passe que quelques heures dans un avion et on est arrivé, ce qui est important c’est d’arriver, ce n’est plus de voyager. Et aujourd’hui, dans le travail, on commence à voir que les gens se préoccupent uniquement du fait que c’est fini sans avoir le chemin pour arriver. Se pose effectivement la question, au-delà du fait d’avoir un job ou pas un job, de la courbe d’apprentissage : quelles sont les étapes nécessaires pour devenir un expert ?
Mick Levy : Ta question me renvoie surtout à une autre chose, que tu as évoquée pendant ton pitch, le sens du travail. Est-ce que le sens du travail c’est le résultat ou est-ce que le sens de travail c’est l’effort ? C’est aussi cela qui est derrière.
Yann Ferguson : L’effort va plutôt relever, quelque part, de la valeur humaine qui est derrière le travail. En fait, il faut un peu souffrir pour travailler, c’est l’éthique protestante qui est un peu à l’origine du capitalisme dont on parle, qui fait un peu controverse.
Cyrille Chaudoit : C’est l’étymologie.
Yann Ferguson : En tout cas, il y a effectivement cette idée que ce qui s’obtient sans effort n’est pas méritant. D’ailleurs, une des raisons du Shadow AI aujourd’hui, le fait d’utiliser l’IA en cachette, c’est en grande partie parce que les utilisateurs de l’IA anticipent le fait que leurs collaborateurs, leurs collègues, leurs managers vont juger négativement leur usage, je ne parle même pas d’un journaliste, là ça doit être l’enfer ; le journaliste qui utilise l’IA aujourd’hui, il faut vraiment qu’il se cache. On ne le dit pas, donc, de fait, on ne peut pas avoir cet élément fondamental du sens du travail et de la qualité du travail, ce que la science du travail appelle les conflits de qualité. La qualité du travail ne se décrète pas dans un cahier des charges, elle ne se décrète pas individuellement, elle se décide et elle se négocie collectivement. Un conflit de qualité, ce sont des critères définis collectivement sur ce qu’est le bon et le beau travail. Un des grands risques aujourd’hui de l’IA au travail, notamment pour les jeunes qui l’utilisent, c’est ce qu’on appelle l’individualisme épistémique. C’est-à-dire qu’ils sont seuls pour faire les questions et les réponses, ils construisent eux-mêmes leur référentiel, indépendamment d’un collectif qui pourrait porter un regard sur la notion de travail bien fait : je me fais « senioriser par l’IA », en fait c’est « je demande à l’IA si j’ai fait du bon travail », comme si elle le savait !
Cyrille Chaudoit : Je me fais valider finalement.
Ce que j’aime, quand je t’écoute, c’est que j’entends aussi Orelsan, « l’important ce n’est pas l’arrivée, c’est la quête ».
Mick Levy : Ça me donne encore envie de chanter !
Cyrille Chaudoit : Non ! J’aurais mieux fait de me taire.
Ophélie, on ne peut pas s’empêcher de se dire qu’on est dans cette séquence où l’IA pénètre nos sociétés par chacun d’entre nous. Nous sommes un peu livrés à nous-mêmes depuis qu’OnpenAI a lâché en pâture ChatGPT fin 2022, bonne vieille stratégie du winner takes all. Ça pénètre donc par l’individu avec du Shadow AI, avec tout un tas de limites, tout un tas de failles également. Du coup, on peut s’interroger : à qui profite le crime, au-delà du crime, entre guillemets, « économique » ?
Sur un plan géopolitique, n’est-ce pas tout à fait intéressant d’utiliser comme ça un outil technique qui agit un peu comme un cheval de Troie, dont on sait aujourd’hui que non seulement il est faillible parce qu’il a des limites techniques, mais qu’il est aussi largement intoxiqué par certains pays ? Comment penser cette appropriation et dépendance naissante à l’outil à titre individuel pour remonter collectivement sur des enjeux géopolitiques ?
Ophélie Coelho : Ce n’est même pas un cheval de Troie. Quand on regarde les annonces de Trump ces derniers mois, au travers de la stratégie IA par exemple, il parle réellement de technology of dominance, avec cette envie vraiment clairement écrite de cette manière-là dans le rapport, qu’il s’agit d’étendre les technologies américaines via les infrastructures et via, du coup, les systèmes d’intelligence artificielle américains. Ce n’est donc pas un cheval de Troie, c’est clairement établi comme étant une arme économique, technologique, c’est une stratégie impérialiste et c’est la même chose du côté chinois. On a affaire à des empires, que ce soit les big companies de la tech donc Big Tech, Télécoms chinois ou grandes entreprises de la tech chinoise, ce sont des compagnies à charte du 21e</sup< siècle qui sont, en quelque sort, les ambassadeurs de la puissance de leur État d’origine.
Mick Levy : Mais qu’est-ce que ça veut dire de nous ? Nous utilisons tous ces technologies-là. Ça fait de nous des idiots utiles de la stratégie US ? Des agents qui vassalisons de l’interne ? Quel est le plan ?
Ophélie Coelho : Oui. J’aime bien « idiots utiles ». On parlait de la paresse, du fait qu’il faut que les choses soient simples.
Dans les années 2000, l’un des livres qui s’est le plus vendu pour tous les designers c’était Don’t Make Me Think, « Ne me faites pas réfléchir » tout simplement, traduction simple et littérale. L’objectif même du design, c’est effectivement de nous faciliter les choses pour qu’on ingurgite de l’interface et que tout soit excessivement fluide et ceux qui arrivent à fluidifier au maximum l’action, ceux qui effacent le plus la complexité technique arrivent à gagner, finalement à faire venir vers eux le plus d’utilisateurs. On est donc dans cette logique de la paresse et ça fait effectivement de nous à la fois des idiots utiles, des idiots peut-être même au sens de plus en plus littéral puisque on externalise de plus en plus de compétences cognitives, et, par ailleurs, ça fait de nous des passeurs de technologies parce qu’en devenant des utilisateurs, on va aussi très souvent former, amener d’autres utilisateurs à les utiliser. Donc, en termes de passeurs de technologie c’est aussi une stratégie d’expansion assez forte sur le dernier kilomètre on va dire.
Cyrille Chaudoit : On sait aussi qu’avec ces systèmes d’outils qui sont très addictifs dès le début, au-delà du fait qu’ils soient gratuits, ça crée des data loops : plus on les utilise, plus on affine les modèles qui sont derrière, donc plus ils nous rendent dépendants à leur design.
Mick Levy : Ça y est, ChatGPT te dit « Yo » quand tu commences à lui parler.
Cyrille Chaudoit : Non, mais tu as vu qu’OpenAI a signé un deal avec Stripe, désormais tu peux acheter directement depuis ChatGPT. Ça rejoint aussi ce qu’on disait sur l’évolution des business modèles auxquels on est clairement exposé.
Pour revenir sur les deux rapports que tu citais, ils sont parus cet été, à une semaine d’intervalle, les Américains d’abord, les Chinois juste après. La guerre est clairement ouverte.
Ophélie Coelho : De toute façon, en 2025 il y a eu énormément de textes très intéressants, à la fois sur la technologie, l’IA, sur les infrastructures et sur l’énergie, vraiment énormément de choses là-dedans. D’ailleurs les Big Tech vont sur l’énergie, ils veulent récupérer de la valeur sur ce secteur-là. C’est clair.
Pour revenir sur ta question, à qui profite le crime ? Je parlais tout à l’heure du mille-feuille. Ceux qui vont le plus profiter du crime sont ceux qui ont vraiment réussi à intégrer de manière verticale la technologie et après ceux qui sont sur des secteurs spécialisés : Nvidia fait du cloud maintenant, néanmoins pour l’instant c’est plutôt du semi-conducteur, les fabless sont importants ce côté-là. OpenAI est un acteur très intéressant de ce point de vue-là, mais ce n’est pas encore une plateforme en tant que telle.
Mick Levy : Quand tu dis « vertical », c’est un Google, par exemple, qui occupe plusieurs couches ?
Ophélie Coelho : Ils sont à la fois sur les câbles, sur les données, qui sont aussi un fabless, parce que, de plus en plus, ils sont en train de concevoir des puces, ils ne les fabriquent pas, ils les conçoivent justement pour leurs propres modèles, jusqu’à la couche d’intelligence artificielle, la couche de sucre.
Mick Levy : Eh bien, on est bien rendu avec cette captation de richesses oligopolistiques du coup.
François, il y a un autre point qu’Ophélie a tout juste commencé à toucher, c’est finalement le risque de propagande par les IA, l’information pourrait être encore attaquée, finalement, par ces IA. D’ailleurs, on a vu plusieurs attaques, notamment d’organismes russes sur ces sujets-là. Jusqu’où va aller cette affaire ? Est-ce que nous pourrions être complètement manipulés, encore plus fortement qu’avec les ingérences qu’il y a eu sur les réseaux sociaux ?
Cyrille Chaudoit : Il faut juste préciser que ce sont des sources NewsGuard, ce n’est pas une vue de l’esprit que ces réseaux d’open gangers, tu vas nous en parler, qui viennent pourrir les datasets pour frelater, je dirais, les réponses données par les LLM.
Mick Levy : NewsGuard [8], dont on a reçu la VP stratégique, Chine Labbé, dans un épisode tout récent [9], si vous voulez creuser le sujet.
Dis-nous, François, sur le rapport à l’information finalement.
Cyrille Chaudoit : Et la désinformation du coup.
François Saltiel : NewsGuard a effectivement fait un travail précieux dans son rapport précédent sur la question de l’intoxication par les IA.
Quand on interroge tous ceux qui travaillent sur ces questions-là, ils nous disent tous que l’IA c’est ce qui permet de manipuler plus avec un coût d’entrée plus faible, en gros c’est payer moins pour désinformer plus, pour reprendre un certain slogan d’un homme politique pour être Premier ministre, non, il est plutôt ailleurs. Finalement, ils nous disent qu’avec pas grand-chose on peut facilement arriver à manipuler parce que l’IA permet de dupliquer des sites très facilement, c’est-à-dire qu’on peut avoir des sites dont le contenu est uniquement généré avec de l’intelligence artificielle, on peut le faire dans toutes les langues, en fait les LLM aiment bien aussi avoir différentes occurrences langagières. C’est donc comme cela qu’on arrive, presque par le sous-sol, à intoxiquer ces LLM pour faire passer des éléments de langage. Et, encore une fois, OpenAI et les autres n’en ont finalement que faire de savoir si ce qu’ils vont produire a un sens de vérité ou est une information juste. La grande différence par rapport à ce qu’on évoquait tout à l’heure, c’est que même la grande arnaque, on pourrait dire, avec les réseaux sociaux c’est de se faire passer avec le statut d’hébergeur ; ils tiennent à leur statut d’hébergeur et, avec ce statut-là, ils échappent à toute responsabilité.
Mick Levy : Responsabilité sur les contenus qui sont véhiculés ; ils disent qu’ils en sont juste le véhicule et pas le producteur.
François Saltiel : Exactement. Si demain, dans mon émission sur France Culture à Radio France, quelqu’un tient des propos diffamants, discriminatoires, etc., je me dois, parce que je suis garant de l’antenne, d’essayer de dire « ces propos n’engagent que vous » ou alors, lorsque ces propos contreviennent tout simplement à la loi, de les recadrer.
Cyrille Chaudoit : On a vu ce qui s’est passé avec des chroniques.
François Saltiel : Exactement. Parce que j’appartiens à un média qui a une déontologie, avec un pacte de confiance qui est entrepris avec le citoyen et l’utilisateur, même si on a bien vu que cette confiance est mise à mal. OpenAI a ce même pacte de confiance implicite, c’est-à-dire que le public a confiance, sauf qu’ils n’ont pas signé de pacte, et, encore une fois, ils ne seront pas forcément responsables des contenus qui vont être diffusés en grand nombre. C’est donc un outil qui est facilement manipulable et il faut savoir qu’il y a tout un commerce de la désinformation, c’est-à-dire que ces sites œuvrent pour tel ou tel gouvernement, même si la question de l’attribution est très complexe. On peut très bien arriver à des entreprises chinoises ou russes, mais c’est plus compliqué de corréler ces entreprises russes directement avec le Kremlin et c’est pareil pour les autres pays même si, globalement, les Russes et les Chinois sont peut-être les deux acteurs majoritaires de la désinformation.
Finalement, on est face à des outils qui sont simples à manipuler, qui peuvent intoxiquer l’information et c’est encore moins visible.
Et, pour prendre un dernier exemple, qui a été un exemple flagrant, vous vous souvenez sans doute des étoiles bleues de David, les tags faits à Paris, qui avaient semé un peu la panique, d’ailleurs tous les médias avaient repris cette information. Il faut quand même se rendre compte que ce sont finalement deux Moldaves, deux personnes, qui ont touché quelques centaines d’euros pour aller taguer peut-être dix murs et ces dix murs ont envahi toute la toile, tous les réseaux sociaux, et ont été repris par les médias. C’est ce qu’on appelle l’astroturfing, c’est assez simple, c’est un petit phénomène qui va être amplifié. Là, les médias n’ont pas joué leur rôle, il y a aussi une course à l’audience : on veut publier tout de suite, informer, et on se retrouve avec une opération de désinformation qui n’a pas coûté grand-chose pour celui qui cherchait à diviser.
Mick Levy : Et sans IA. On exploite les mécanismes des réseaux sociaux et des algorithmes derrière les réseaux sociaux, mais il n’y a même pas d’IA générative pour avoir fait des fausses photos de cet évènement.
François Saltiel : Exactement. Là où l’IA est problématique, ce n’est pas tant pour aller chercher à manipuler, parce qu’il y avait déjà des techniques de manipulation, c’est que l’IA fait que l’on va maintenant douter des informations qui sont véridiques. Parfois, on peut parfois faire des infos et on va en douter, on va dire « là, c’est une IA ».
Mick Levy : C’est la post-vérité, on ne va plus savoir distinguer le vrai du faux.
François Saltiel : Et ça devient de plus en plus complexe, déjà parce qu’on n’a pas les moyens. Il n’y a pas d’outils qui permettent véritablement de détecter des images qui sont trafiquées, on sait que ces outils ne sont pas fiables à 100 %, donc, déjà, on ne dispose pas de remèdes potentiellement à ce poison de la désinformation et ensuite, encore une fois, on n’a pas le temps. De toute façon, nous sommes tous pris dans un flux.
Cyrille Chaudoit : C’est effectivement un véritable robinet à informations, on a encore plus ouvert les vannes et c’est important de garder en tête que la désinformation ce n’est pas uniquement véhiculer de fausses informations, c’est aussi donner des caisses d’amplification, de résonance à des informations qui pourraient parfois passer en dessous des radars.
François Saltiel : Exactement. On parle aussi de mésinformation, c’est-à-dire qu’en fait une information est beaucoup plus forte lorsqu’on a un phénomène réel, un fait divers qui a vraiment existé mais que tu vas amplifier pour créer de la diffusion.
Cyrille Chaudoit : C’est le principe de la rumeur.
Mick Levy : Ophélie.
Ophélie Coelho : Tu parlais du coût de la mise en doute et je trouve que c’est plutôt un phénomène positif. Certes, on n’a pas le temps d’aller vérifier toutes les infos, mais le fait qu’on soit capable de mettre en doute ou plutôt que la mise en doute devienne un réflexe, je trouve que c’est une bonne chose parce que, justement, ça veut dire qu’on n’accepte pas l’information telle quelle et que, pour s’en assurer on est capable, si on a le temps bien sûr, d’aller chercher. En tout cas, on ne va pas forcément le montrer comme vérité tant qu’on n’aura pas cherché. Parce que le jour où on fait passer une fake news dans le monde professionnel, sur l’antenne, etc., eh bien ça la fout mal de dire un truc qui était faux. Du coup, c’est une leçon et c’est une leçon aussi pour les jeunes, ou moins jeunes, qui utilisent l’IA générative dans leur activité professionnelle. Il y a parfois des professions très sérieuses, comme les avocats, qui vont mettre tout un ensemble de jurisprudence dans leur documentation et, après évaluation, on se rend compte que c’était faux, que ce sont des jurisprudences inventées.
Une fois que le problème est repéré, c’est quand même problématique pour la personne elle-même dans sa crédibilité professionnelle.
Donc le fait d’être en capacité de mettre en doute, c’est une bonne chose parce que ça nous fait travailler et ça nous fait dire que c’est plus compliqué que ça, que ça ne va pas nous donner une solution finale.
Mick Levy : Il va falloir que chacun fasse un effort dans cette économie de la flemme quand même. les deepfakes pourraient amener à ça.
Ophélie Coelho : Exactement ! Ça replace l’effort au bon endroit. Juste une chose aussi que tu as dite tout à l’heure et que je trouve vraiment géniale : le journalisme de terrain demande du temps. Quand tu fais du terrain, tu ne peux pas faire un truc tous les jours, apporter une information fouillée, documentée, ça demande du temps, du coup peut-être que c’est aussi notre rapport au temps qu’il faut revoir par rapport à tout ça.
Mick Levy : Yann, pour terminer cette séquence, j’aimerais te parler d’un rêve. Je vais rajeunir un petit peu. Je suis sur l’entrée dans mes études supérieures et je suis en train de flipper, parce que je me dis que l’IA est en train de prendre plein de jobs. Vers quoi je m’oriente ? C’était, il y a à peine cinq ans, finalement je me rajeunis à peine un tout petit peu et en plus, par ailleurs, il faut que je passe par Parcoursup. Quels choix d’orientation dois-je faire ? Vers quoi dois-je m’orienter quand je veux faire des études supérieures ? Je m’oriente plutôt vers des métiers qui ne sont pas manuels, soyons bien clairs, qui semblent plus épargnés par l’IA générative. Comment je choisis aujourd’hui mes orientations ?
Yann Ferguson : Première chose, en résonance aussi avec ce qu’a dit Ophélie, ce n’est pas l’IA en tant que technologie qui potentiellement prend votre travail, c’est tout le mille-feuille qui est lié. C’est effectivement la couche de sucre au sujet de laquelle on nous dit « l’IA prend votre job », mais, derrière, il y a toute une infrastructure dans laquelle il y a beaucoup d’humains. La Banque mondiale dit, en gros, que les travailleurs du clic, comme on les appelle– vous avez un épisode là-dessus avec Antonio Casilli [10] –, c’est entre 130 et 500 millions d’emplois créés dans le monde ; c’est la Banque mondiale qui le dit.
Cyrille Chaudoit : Mais il faut voir le type d’emploi.
Mick Levy : Ce ne sont pas des emplois très enviables, payés au Smic.
Cyrille Chaudoit : Ceci étant dit, juste une petite parenthèse. Ces fameux clic workers ou data workers, qui vont labelliser les données pour que les IA ne nous racontent pas des âneries, voire ne nous sortent pas des horreurs, sont payés, dans certains pays, 30 dollars à peine, ça nous paraît peu, ou un dollar de l’heure et, au Venezuela, c’est au-dessus du salaire minimum d’une enseignante, il faut aussi le savoir et les profils sont plutôt jeunes et diplômés parce qu’ils sont mieux payés que s’ils allaient bosser normalement.
Mick Levy : Je ne suis pas sûr de vouloir orienter mes enfants vers ces jobs-là.
Cyrille Chaudoit : Certes, je suis d’accord, mais il est important de garder en tête qu’il y a de l’humain derrière l’IA.
Yann Ferguson : Tout à fait. C’est tout ça.
Derrière, il y a aussi un projet organisationnel et managérial qui est de dire qu’il faut réussir à faire le plus possible avec un minimum d’employés. Ce n’est pas l’IA, c’est l’idée que, derrière l’IA, on veut actualiser un vieux projet organisationnel et managérial. On nous le présente comme un progrès et, dans les faits, il n’y a jamais eu de liaison mécanique entre l’innovation technologique et le progrès. Ce sont des choix politiques qui font qu’une innovation technologique devient un progrès.
Qu’est-ce qu’il faut faire ?
Mick Levy : Qu’est-ce que je raconte à ma fille ?
Yann Ferguson : Ou à toi-même puisque tu es remonté dans le temps.
Je n’ai pas la recette miracle. Je vais dire quelque chose que m’a été beaucoup inspiré par un ancien étudiant de mon école, que je n’ai pas eu en élève, j’aurais bien aimé l’avoir, c’est Octave Klaba [11], fondateur d’OVH. Il est venu devant nos étudiants et il a dit : « Je ne cherche pas des experts de ça, des experts de ça, je cherche des gens qui ont une compétence en T inversé ».
Mick Levy : C’est comme mes abdos ! Ils sont en T inversé.
Yann Ferguson : Qu’est-ce qu’une compétence en T inversé ? C’est une compétence qui a une dimension horizontale, qui est votre capacité à percevoir des situations dans leur globalité et à relier des choses que les études ont tendance aujourd’hui à séparer : l’approche systémique d’Edgar Morin, avoir une vision globale. La barre verticale du T, c’est votre expertise métier, mais à un moment, peut-être qu’une intelligence artificielle va complètement la transformer, peut-être que le métier ne va plus vous intéresser. Si vous n’avez que la barre verticale, il n’y a plus rien pour glisser. Mais si vous avez la barre horizontale, vous allez pouvoir évoluer. Et aujourd’hui, dans le monde du travail, ce n’est pas le « ou » qui potentiellement va vous amener à avoir une carrière, c’est le « et » : est-ce que vous êtes quelque chose ET quelque chose et ce « et » vous rend unique, parce que, pour l’instant, l’IA c’est beaucoup le « ou ». Bien sûr, il y a les IA généralistes qui ont l’air de faire un peu tout, mais aujourd’hui, dans le monde du travail, on se dit qu’il faut plutôt aller vers IA beaucoup plus spécialisées qui vont faire une chose. C’est donc notre capacité à nous dé-spécialiser – pas être polyvalents, un ouvrier polyvalent on connaît –, c’est votre capacité à avoir un domaine d’expertise qui évolue sur une capacité de compréhension beaucoup plus large.
C’est donc cette exigence que ta fille, ou que le Mike d’avant, doit essayer de développer : travailler votre et plutôt que votre ou.
Cyrille Chaudoit : J’aime beaucoup, ça me fait penser à cette phrase de Michel Serres que j’aime beaucoup citer, qui disait d’ailleurs dans ses conférences : « Est-ce que tout ça va nous remplacer ou nous sauver ? En fait, ça nous condamne à de faire preuve de plus d’intelligence », et je le mets au pluriel, c’est faire preuve de toutes ces intelligences, on sait bien qu’elle n’est pas uniquement computationnelle.
Voix off : Trench Tech – Esprits critiques pour Tech Éthique.
Enjeux systémiques de l’IA
Mick Levy : C’est le moment de passer à notre deuxième séquence, l’effet papillon de l’IA.
Cyrille Chaudoit : On va rassurer tout le monde, comme on a pris beaucoup de retard, cette deuxième séquence sera un tout petit peu plus courte.
On va basculer directement sur toi, François, parce qu’on va faire un joli pont avec ce que Yann vient de nous dire. On va revenir à ce sujet central qui est celui de la confiance. À priori, le paysage médiatique est l’une des fondations d’un débat démocratique possible, également d’une réflexion. Qu’est-ce que ça dit d’une société du futur proche dès lors qu’on peut interroger le niveau de confiance qu’on va avoir dans ces outils, dans la mesure où on ne sait pas véritablement d’où vient l’information si ce n’est que, pour certains, ces outils signent désormais des contrats avec des grands acteurs de la presse et des médias ? Qu’est-ce qu’il faut penser ? Est-ce qu’il faut signer ces accords ? Est-ce que c’est plutôt bénéfique pour le business modèle de l’éditeur qui signe ou est-ce que c’est peut-être une solution pour nous éviter d’avoir du slop content, voire des informations frelatées ?
François Saltiel : Ça dépend du point de vue duquel on se place. C’est-à-dire que si on est le patron du Monde, en gros, pour faire simple, il y avait deux possibilités.
Déjà on part de la base. La base, c’est l’exploitation de contenus sans considération aucune des droits d’auteur, donc c’est du pillage. Ça commence par du pillage, ça commence tout simplement par une entreprise de piraterie – peut-être qu’on a un biais de négativité sur les IA –, néanmoins ça commence par une grande piraterie, avec un non-respect total des droits d’auteur et non-valorisation du travail parce que c’est quand même, à priori, le travail d’un journaliste ou d’un artiste qui est payé, il a une valeur par rapport à ce qu’il produit. Il y a donc une énorme notion de pillage.
Ensuite, il y a le truc très connu de la puissance de l’usage où on a tout mis, comme ça, à disposition gratuitement, on en profite et, une fois qu’on en profite, finalement il y a un effet de réseau qui est déjà en place, une pratique qui s’installe. Et ensuite, seulement après, on commence à s’interroger puisque le temps de la législation, le temps politique, est toujours en retard par rapport au temps technologique, on essaie de se demander comment on arrive à réguler ce Far West, pour reprendre des éléments de langage qui sont donnés par certains responsables politiques. On arrive à cette situation-là et là, chacun essaye de tirer son épingle du jeu.
Il aurait pu y avoir une deuxième logique à une première logique : avoir des accords collectifs avec différents syndicats d’éditeurs disant « ensemble nous sommes plus forts, on va essayer de contraindre ce pirate, ce voleur, lui dire "tu t’es bien amusé avec toutes nos données mais maintenant il va falloir donner un petit peu d’argent" ». Il y a 50, 100, 200 éditeurs, comment arrive-t-on à répartir la richesse ? Ces négociations collectives sont globalement refusées par OpenAI qui va utiliser la stratégie bien connue de diviser pour mieux régner, qui va aller voir directement les plus gros du marché. Le Monde dit que c’est Le Monde qui est allé le voir, que les négociations ont été infructueuses, c’est ce qu’ils disent dans l’émission, chacun raconte son histoire, il n’en reste pas moins que dans tous les pays du monde, OpenAI a œuvré de cette manière-là. Il va voir le plus gros du marché en disant « si tu veux on deale, on fait tous les deux un accord confidentiel, sur quatre ans, je te donne de l’argent, ça tombe bien tu en manques », puisqu’on est quand même dans une économie de la presse plus ou moins précaire, même si Le Monde n’est pas le plus à plaindre, on est quand même sur une économie fragile. « Je te donne de l’argent donc tes résultats vont apparaître un peu plus haut, du moins tu pourras continuer à profiter de ce tournant-là et tu n’auras pas l’impression de passer à côté. » Donc Le Monde a signé comme El Païs a signé, comme tous les plus grands médias dans chaque pays européen.
Mick Levy : Bon deal ou piège qui, à plus ou moins long terme, va se refermer sur eux ?
François Saltiel : Si on prend l’exemple précédent des droits voisins et la manière dont Google ou Facebook ont plus ou moins, dans un premier temps, subventionné les médias, leur ont donné de l’argent pour créer du contenu et après ont dit, un peu la logique du dealer, « je t’offre cette première dose , elle est gratuite, et tu devras payer la deuxième un peu plus fort. Et puis, tu veux continuer à parler à ton public ? Eh bien maintenant il faut passer par moi et ça va être plus cher. Et puis je vais changer l’algorithme un peu comme je veux et tu ne sauras plus tellement si tu touches ta cible ou pas. » Bien sûr qu’au bout d’un moment cette situation va se reproduire de la même manière. Ce pacte qu’a fait le Le Monde avec OpenAI est sans doute un pacte court-termiste pour eux, assez intéressant parce qu’ils vont pouvoir aller toucher une audience. Et on rappelle que dans le contrat, ce n’est pas juste apparaître dans les sources, c’est aussi s’engager à utiliser des outils d’OpenAI à l’intérieur même de leur rédaction. Évidemment, il y a des chartes qui garantissent que cet outil ne va pas trahir la promesse journalistique, mais c’est plus que ça. Ils disent que ce n’est pas un contrat d’exclusivité, ils ont aussi signé un contrat avec Perplexity, qui est un autre acteur américain, mais ça laisse finalement de côté tous les autres qui ne sont pas dans la négociation, dont les données sont encore exploitées. Ou alors, ils font valoir ce qu’on appelle le droit d’opt-out, c’est-à-dire on refuse. On est dans la situation où c’est comme si vous disiez « je refuse que tu me cambrioles pas » et on trouve ça normal.
Cyrille Chaudoit : En plus, ils peuvent quand même venir.
François Saltiel : Ils peuvent passer par la fenêtre.
C’est bizarre ce truc de « je refuse d’être cambriolé », c’est comme si la situation, l’état de fait, c’était que le cambriolage était autorisé.
Cyrille Chaudoit : Et côté audience, ça signe aussi la fin d’une certaine forme de pluralité, si on arrête d’aller s’informer soi-même sur les médias, qu’on se fie uniquement à ce que nous dit notre assistant et qu’on a un gros deal signé par pays, et je force encore un peu le trait, avec le service public. Finalement, quel est l’avenir du service public ?
François Saltiel : Je ne vais pas trahir…
Mick Levy : Court, François, tu peux trahir tout ce que tu veux, mais rapidement.
François Saltiel : Et c’est un chanteur qui dit ça !
En gros, le service public, puisqu’on vient de me relancer sur la question je vais faire très simple, c’est qu’à priori ils vont sans doute signer avec des acteurs européens, voire français, pour arriver au moins à avoir une sorte de souveraineté, même si celle-ci peut être, à certains égards, remise en question, mais ils vont être obligés d’aller dans le jeu de l’intelligence artificielle générative.
Mick Levy : Un autre jeu d’influence est en train de se jouer très fort, Ophélie, c’est celui d’un rapprochement, en tout cas on le constate aux États-Unis, entre le pouvoir et les Big Tech en l’occurrence. Ce rapprochement fait peur parce qu’il amène toute la connaissance des données à l’échelle mondiale qui va pouvoir être exploitée, qui commence peut-être par l’être, tu vas nous le dire, par le pouvoir et certains n’hésitent pas à parler même de technofascisme, en tout cas c’était le propos de deux de nos invités récents [12]. Est-ce que le terme te paraît juste ? Est-ce qu’on doit s’en inquiéter ? Peut-être pourras-tu nous dire si on peut s’en prémunir, en France et en Europe, dans les années à venir ? Commençons par voir ce terme.
Ophélie Coelho : Technofascisme, pourquoi pas ! Personnellement je ne l’utilise pas parce que je trouve que ça dénature un petit peu l’analyse, à savoir qu’on a plutôt affaire à un système économique et une production technologique, je répète, qui pose problème et qui peut changer de bord politique. La connivence entre pouvoir politique – Trump et les Big Tech aujourd’hui –, en fait État et les géants de la tech, ce n’est pas nouveau. Les géants de la tech ont, depuis le départ, été des ambassadeurs de la puissance étasunienne.
Mick Levy : Oui, mais là ça va quand même beaucoup plus loin quand on voit comment tous les géants de la tech se pavanent auprès de Trump, font allégeance, c’est quand même autre chose. Et, dans la techno-surveillance, ils sont assez puissants.
Ophélie Coelho : Oui, je suis assez d’accord. Les États-Unis les ont largement subventionnés, ils sont co-dépendants avec les milliards, par exemple pour le JWCC [Joint Warfighting Cloud Capability], le cloud de l’État américain pour la Défense qui réunit aujourd’hui AWS, Microsoft, Oracle, plusieurs prestataires, au départ ce n’était que Microsoft, ensuite AWS, il y a plusieurs histoires, il y a des financements depuis les années 2000 et 2001, date vraiment charnière. Les investissements, que ce soient des fonds d’investissement comme In-Q-Tel, que ce soient des fonds de la CIA via des fonds souverains, ça date pas de maintenant. Je pense qu’on en parle beaucoup parce qu’ils sont dans le spectacle, d’ailleurs on en parle probablement trop, parfois. On oublie de voir que c’est une histoire assez longue, qu’on est sur une forme d’aboutissement et qu’en termes politiques, ça peut changer de bord politique dans cinq ans. Les Big Tech iront là où le pouvoir politique leur permet d’avancer.
Néanmoins, je mets une petite modération là-dessus, il faut probablement s’inquiéter de certains acteurs et je pense notamment à Palantir. Je pense clairement qu’il faut regarder un acteur comme Palantir parce que non seulement il est subventionné depuis très longtemps, il est au cœur des technologies de surveillance, il se développe énormément et il se développe également sur des solutions qui touchent aujourd’hui les entreprises, ce n’est plus seulement du militaire, du renseignement, ça touche la vie économique. Je pense qu’il faut regarder les choses de cette manière-là. J’ai analysé un petit peu les choses lors de la rédaction de la seconde édition de mon bouquin et Palantir, justement, a remporté énormément de subventions étatiques et ça ne date pas de Trump, c’est depuis longtemps.
Je pense que technofascisme ce n’est pas mal, mais il faut faire attention au côté un peu buzz actuel du fait que oui, effectivement, on est dans un rapport politique très fascisant, mais, en réalité, il faut voir cette relation, cette co-dépendance État et outil de l’empire qu’est la Big Tech, et la Big Tech chinoise aussi côté chinois, comme une histoire longue et non pas comme un temps figé dans le moment Trump.
Cyrille Chaudoit : Pour celles et ceux qui ne connaissent pas Palantir, une boîte qui a été cofondée notamment par Peter Thiel, ex-associé d’Elon Musk, qui, lui, a poussé le pion J. D. Vance auprès de Trump, on peut donc aussi se demander ce qu’il y a derrière, qui se nourrit de culture et d’idéologie qu’ils vont puiser dans un conservatisme certain, voire une forme, effectivement, réactionnaire.
Yann, on va aussi essayer de casser un mythe, ou pas d’ailleurs, ce n’est peut-être pas un mythe, je n’en sais rien, en tout cas, la première idée qui vient quand on parle d’IA et de travail, c’est la destruction d’emplois ; à chaque vague de technologie de rupture, destruction d’emplois, Schumpeter, etc. Qu’en est-il véritablement ? Est-ce qu’on a suffisamment de recul pour pouvoir le vérifier ? Et cette idée de destruction d’emplois n’est-elle pas, tout simplement, liée à cette promesse que l’on nous fait aussi de gains de productivité et cette productivité n’est-elle pas l’arbre qui cache la forêt d’une autre forme de retour sur investissement qu’on pourrait aller chercher ?
Yann Ferguson : Dans 20 ans, les machines seront capables de faire tout ce que les humains peuvent faire, c’est Herbert Simon qui le dit en 1958. Vingt ans plus tard, on était au cœur du premier hiver de l’intelligence artificielle. On a fêté les 70 ans du terme « intelligence artificielle » le 31 août 2025, ça repose sur une conjoncture qu’on appelle la conjoncture de Dartmouth qui est que tout ce qui se passe dans le cerveau humain peut être décrit de façon suffisamment précise pour le faire reproduire par une machine. Ça repose sur cette conviction qu’on peut tout reproduire, qu’on peut tout automatiser. Mais cette conviction met beaucoup de temps à se réaliser.
Aujourd’hui, on évoque encore des perspectives importantes de destruction du travail. La première étude, l’étude d’Oxford réalisée par Frey et Osborne, date de 2013, ça fait déjà un petit bout de temps, nous disait que 47 % des emplois américains allaient disparaître dans les 20 ans. Ils ont un peu révisé leur évaluation. Ces études reposent sur l’idée qu’un métier peut être réduit à une succession de tâches, que si l’IA peut faire une tâche, elle l’enlève du métier et il reste au métier les tâches que l’IA ne sait pas faire. Or, un métier c’est précisément accorder du sens à ces tâches et relier ces tâches à une compréhension du monde, ce qui manque en grande partie à l’IA.
Aujourd’hui, ce qui se passe, ce n’est pas tant la destruction de l’emploi, c’est la destruction du travail, c’est-à-dire qu’on continue à avoir des emplois, mais ils sont complètement redéfinis à l’aune de l’intelligence artificielle, de caractéristiques de l’intelligence artificielle, de telle façon à ce que le travail, potentiellement en tout cas, c’est ce qu’on commence à observer même si ce n’est pas massif, réduit la dignité matérielle, qui est une des promesses du travail – bien vivre de son travail –, et la dignité spirituelle, deuxième promesse du travail qui est avoir un travail qui a du sens. J’entends qu’on a des expériences très positives au travail, j’en ai déjà eu personnellement.
Mick Levy : Il y a même un témoin qui a remplacé tout son comex [Comité exécutif] par une IA.
Yann Ferguson : J’ai beaucoup aimé cette histoire, mais pas forcément la conclusion. Je trouve qu’il y a eu une réunion physique de gens qui se sont parlé, je trouve ça très bien. Pour moi, le problème n’est pas d’utiliser l’IA dans une réunion qui réunit des gens qui n’arrivent pas à se mettre d’accord, le problème c’est d’arrêter de faire la réunion et de la faire tout seul avec l’IA. S’il y a effectivement un moment, dans un collectif de travail, qui discute, qui n’est pas d’accord, qui se frotte, qui se controverse, qui s’affronte, ça dure des heures, pour moi c’est du travail.
Mick Levy : Je vais t’en donner un autre. Hier, j’étais avec quelqu’un, en l’occurrence un directeur d’une PME, qui m’a dit « moi j’ai gagné deux heures par jour en utilisant correctement l’IA ». Ça va forcément détruire de l’emploi ! Si tout le monde gagne des heures et des heures par jour, des emplois vont forcément sauter au passage ! Cette grande crainte, cette grande peu, est-elle rationnelle ou vraiment, pour toi, est-on face à une chimère, à une fable, pour nous vendre encore plus d’IA ?
Yann Ferguson : Il y a effectivement un objectif marketing, il ne faut se mentir, mais il y a des entreprises, il y a des organisations qui vont s’engager, Accenture dit qu’ils vont le faire, ce ne sont pas les seuls, on va pas tirer que sur eux, il y en a eu un paquet et il y en a d’autres qui vont parier sur ça.
Entre parenthèses, Accenture ça m’intéresse beaucoup parce que, aujourd’hui, on sait qu’il y a à peu près 15 % des projets IA qui passent à l’échelle et, dans les grands groupes, ce sont souvent des grands cabinets, comme Accenture, qui ont été à l’œuvre avec un taux d’échec de 85 %. Il semblerait donc qu’ils aient une recette de transformation des réussites qu’ils n’ont pas donnée à leurs clients.
Un jour, il n’y a pas très longtemps, j’ai dit ça dans une intervention et quelqu’un a levé la main et a dit « oui, mais peut-être qu’ils vont y arriver parce qu’ils connaissent bien leur métier ». J’ai dit « c’est une excellente remarque, peut-être qu’ils auraient pu s’intéresser aux métiers des gens pour réussir leur projet d’IA. » Mais ils ne sont pas intéressés aux métiers des gens, ils se sont intéressés aux arguments marketing pour vendre de l’IA à des gens qui ne font pas le travail, qui ne vont pas utiliser l’IA. Donc, comment arrive-t-on à faire signer le chèque ? « Vous allez gagner en productivité. » Sauf qu’aujourd’hui, notamment sur l’IA générative, oui les gens gagnent deux heures, on gagne effectivement du temps à l’échelle individuelle, mais pour l’instant on ne le voit pas dans les statistiques globales de productivité.
Cyrille Chaudoit : Clairement, c’est notamment le dernier rapport de quelques chercheurs du MIT qui disent que 95 % des projets de GenAI ne donnent aucun ROI [Retour sur investissement] simplement parce qu’on est à l’échelle de l’individu et on n’a pas entamé la transformation de l’entreprise qui va avec.
Je suis quand même très curieux, j’aimerais savoir comment toi, François, tu utilises la genAI dans ton quotidien médiatique.
François Saltiel : Ça va être très décevant ! Je ne l’utilise pas du tout.
Cyrille Chaudoit : Du tout. OK. Par conviction ou parce que ça te fait perdre plus de temps qu’autre chose ?
François Saltiel : Je pense que c’est par réticence peut-être théorique. Quand je disais que j’ai tellement vu cette délégation et cette perte de capacité à rédiger, à penser. Surtout que mon métier c’est interroger plein de gens, toute la journée, qui parlent d’IA potentiellement et j’avoue que la plupart des gens que j’interroge sont assez négatifs sur les conclusions, je me nourris donc de ce que j’entends. Je crois que ça reprend aussi pas mal de choses que nous nous sommes dites ce soir, et même ce coach qui n’en est plus un, qui permet de perdre du poids, je crois qu’on a aussi tous tendance à attendre de plus en plus de la technologie et de moins en moins des humains, donc on va s’en remettre justement à cette IA, mais attention peut-être que vous allez regrossir, ce qui serait sans doute arrivé avec un humain !
Il y a aussi quelque chose : si nous sommes autant à vouloir croire aux bienfaits de cette technologie, croire aux agents conversationnels qui sont, à mon sens, quand même un assez grand danger, à ces entités conversationnelles qui nous entourent déjà et qui vont continuer de plus en plus à irriguer notre quotidien, il faut s’interroger sur le pourquoi. Pourquoi a-t-on moins confiance en la parole humaine ? Pourquoi est-ce plus compliqué d’avoir une discussion avec les gens ? On le voit bien dans la pratique des jeunes : le téléphone ne sert plus du tout à parler, même la discussion synchronisée devient compliquée, on est vraiment dans une sociologie de la discussion asynchrone : je te donne un vocal, tu me réponds sur un vocal, je te donne un SMS, tu me réponds sur un SMS, le fameux Seuls ensemble de Sherry Turkle qu’on adore. Je pense qu’il faut quand même s’interroger : pourquoi s’en remet-on à cette technologie ? Qu’est-ce qui ne va pas dans notre société qui doit faire société, dans nos liens humains et, à l’inverse, qu’est-ce qu’il y a de beau et de magnifique lorsqu’on est les uns à côté des autres, que la technologie ne peut pas encore remplacer et ne remplacera peut-être jamais ?
Cyrille Chaudoit : Je vais te le dire : dans quelques minutes, l’apéro !
Voix off : Trench Tech
Mick Levy : On arrive maintenant au terme de ce grand entretien, de ce débat. Un grand merci à vous trois et vous pouvez les applaudir.
[Applaudissements]
Cyrille Chaudoit : Merci beaucoup.
Mick Levy : On va pouvoir continuer d’échanger ensemble.
Cyrille Chaudoit : À ceux qui sont derrière leur écran ou leurs oreillettes, il faudra venir, la prochaine fois, si vous voulez prolonger la soirée avec nous.
En tout cas, si cet épisode vous a plu, comme à chaque fois n’hésitez pas, laissez-nous un petit commentaire sur les réseaux sociaux, mettez cinq étoiles sur Apple Podcasts, il faut faire un peu de promo évidemment.
Mick Levy : Parlez-en à vos amis, venez avec eux au Trench Tech All Star number 4 qui aura lieu au mois d’octobre.
Cyrille Chaudoit : Lisez les rapports du LaborIA, lisez les ouvrages de nos invités Ophélie Coelho, François Saltiel avec son épouse, Virginie Sassoon, c’est un livre de parents, c’est comment mieux vivre avec nos écrans, sûrement un beau cadeau à faire avant Noël parce qu’il y aura sûrement encore beaucoup d’écrans au pied du sapin, on vous le conseille.
Mick Levy : Et puis on va terminer comme c’est la tradition dans Trench Tech, si vous nous écoutez jusqu’au bout vous le savez, non, pas par une chanson, par une citation, celle-là est magnifique, Pablo Picasso : « Les ordinateurs sont inutiles, ils ne savent que donner des réponses. »
Merci à tous.
Cyrille Chaudoit : Merci Paris.
[Applaudissements]