Apolline Guillot, voix off : Quand on laisse l’intelligence artificielle, qui a été entraînée sur des données qui proviennent du passé, en se disant « elle va prendre des décisions plus neutres, plus objectives que moi, je ne vais pas forcément oser la contredire, etc. », je perds ma confiance, la confiance que j’ai en moi de faire face au présent et le présent c’est quelque chose de compliqué parce que le présent c’est ce qui n’est pas encore arrivé. Du coup, c’est extrêmement préoccupant de se dire qu’on va laisser la responsabilité à des agents ou à des systèmes d’agents d’intelligence artificielle qui vont prendre le contrôle ou qui vont mener la barque avec peut-être une intervention humaine de temps en temps.
Qui va prendre le risque, à un moment, de dire qu’il s’oppose à une décision qui, selon toutes les statistiques, va dans une direction ? Effectivement, on ne va pas le croire, on va lui dire « tu es fou », ou bien, s’il se trompe il va se faire virer. C’est aussi la capacité à l’humain de prendre des risques et je pense que plus que la question de la responsabilité, c’est la question du risque de l’erreur, du risque de l’inconfort que provoque le fait de pas être sûr de ce qu’on va dire..
Voix off : Putain ! Je vois ici les hommes les plus forts et les plus intelligents que j’ai jamais vus. Je vois tout ce potentiel et je le vois gâché ! Je vois une génération entière qui travaille à des pompes à essence, qui fait le service dans des restos, qui est esclave d’un petit chef dans un bureau. Et nous apprenons lentement cette vérité : on en a vraiment plein le cul !
Voix off : Trench Tech – Esprits critiques pour Tech Éthique.
Cyrille Chaudoit : Salut à toi, à toi, et à toi aussi Mick. Salut à toi.
Mick Levy : Salut. Salut à tous.
Cyrille Chaudoit : Et merci d’être toujours plus nombreux à nous suivre sur les plateformes de podcast et évidemment sur YouTube en images.
Je suis Cyrille Chaudoit et toujours avec l’inénarrable Mick Levy.
Mick Levy : L’inénarrable, carrément aujourd’hui !
Cyrille Chaudoit : On nous dit que l’IA va transformer le travail avec cette promesse au double effet Kiss Cool, référence du 20e siècle, individuellement nous libérer-délivrer et collectivement créer plus de valeur, plus de richesses.
Mick Levy : Là-dessus, ce n’est pas encore complètement gagné tant côté pile que côté face, on va attendre de voir si ça se fait pour de vrai.
Cyrille Chaudoit : Exactement, et encore, ce n’est peut-être même pas le plus problématique Mick. Car, avec cette double promesse, mêlant gain de temps et gain de productivité, on se demande même si le travail humain ne se résume qu’à ça.
Modéliser, déléguer, automatiser et toujours plus performer, pourtant comprendre la technologie c’est déjà questionner ce qu’elle révèle de ses concepteurs et de son époque.
Aujourd’hui, nous allons prendre le temps de faire cette pause ensemble. Aujourd’hui, on va se demander, Mick, si les espoirs que l’on place dans l’IA au travail ne questionnent finalement pas moins les bénéfices attendus du progrès technique que la valeur que l’on reconnaît encore aux productions humaines. Et pour en parler, qui mieux qu’Apolline Guillot, professeure de philosophie, rédactrice en chef de Philonomist [1]. Elle décrypte, comme personne, les grandes tendances autant que les petits glissements qui disent tout de nous à travers notre rapport à la technologie.
Bonjour Apolline.
Mick Levy : Salut Apolline.
Apolline Guillot : Bonjour.
Cyrille Chaudoit : Comment vas-tu ?
Apolline Guillot : Très bien. Je ne suis pas encore remplacée par une machine, donc tout va bien.
Mick Levy : Ça n’arrivera jamais, j’en suis sûr !
Cyrille Chaudoit : Manifestement, une machine qui philosophe n’est pas près de voir le jour, en tout cas c’est ce que l’on entend dire à droite à gauche.
Mick Levy : C’est ce que dit Raphaël Enthoven. On peut le challenger sur cette idée-là.
Cyrille Chaudoit : C’est pour éviter de le citer, mais c’est exactement ça.
Juste avant de nous lancer, deux dernières recommandations pour toi qui nous écoutes derrière l’écran ou même qui nous regardes. D’abord, à mi-parcours, on fera une petite pause, tu le sais, avec une chronique, et, en l’espèce, ce sera la chronique « Elles font la Tech » de notre Sandrine Charpentier nationale. Restez bien toutes et tous jusqu’au bout parce que, à la fin de l’épisode, comme d’habitude, nous débrieferons, Mick et moi-même, des grandes idées qu’Apolline aura eu la gentillesse de partager avec nous.
Mick Levy : Je sens qu’on va avoir encore plein de choses à partager !
Cyrille Chaudoit : Certainement, mais, pour pouvoir le faire, encore faut-il lancer l’épisode et écouter Apolline. C’est parti pour le grand entretien : « IA au travail, quand la machine nous force à redéfinir l’humain ». Vous êtes bien dans Trench Tech et ça commence maintenant.
Voix off : Trench Tech – Esprits critiques pour Tech Éthique.
L’IA, l’héritage industriel : productivité d’abord, humain ensuite ?
Mick Levy : Apolline, on va voir avec toi que l’IA est en train de questionner assez profondément le travail. On l’entend partout, on l’entend dire partout, mais on veut avoir avec toi ce regard philosophique de ce qui est en train de se passer. Je pense que pour bien comprendre il va falloir commencer par définir les choses : qu’est-ce que le travail et surtout, au-delà du fait de travailler pour gagner de l’argent, quel est le sens du travail pour l’humain ?
Apolline Guillot : Le sens sémantique, très basique, le travail c’est toute activité humaine qui va viser à transformer le monde. On va dire que c’est le sens le plus global. Mais après, au sens plus usuel, ça va prendre tout un tas de significations sociales, économiques. En fait, le travail tel qu’on le vit aujourd’hui, c’est une sédimentation de différentes couches de sens.
À partir de la révolution industrielle, on va commencer à concevoir le travail comme un facteur de production.
Ensuite, au 19e siècle, on a commencé à intégrer le travail comme ce qui va donner une identité, une place à l’homme dans le monde, ça va donc être un peu l’essence de l’homme.
Et puis, à partir de la fin du 19e siècle et 20e siècle, petit à petit le travail va devenir un peu le pivot de la distribution des revenus, des droits, des protections sociales, va être caractéristique d’une société qui est massivement salariale.
Mick Levy : Ça veut dire que depuis le 20e siècle on travaille effectivement pour gagner de l’argent avant tout. Le sens du travail se fait avec l’argent finalement ?
Apolline Guillot : Exactement. Ce n’est pas tellement gagner de l’argent, c’est garantir qu’on mérite une place dans la société. À l’époque de l’Ancien Régime, la répartition des ressources était assez claire, c’était en fonction de la naissance, il y avait toute une architecture de la société qui faisait qu’il n’y avait pas vraiment la question de savoir qui mérite quoi, puisque le mérite était généralement indexé à la naissance.
À partir du 19e siècle et surtout du 20e, on va avoir cette idée que le travail c’est ce qui va me gagner une place dans la société, qui va me garantir d’avoir une fonction, d’avoir un rôle et aujourd’hui, d’avoir accès à des prestations sociales, d’être intégré. C’est un facteur d’intégration politique, ce n’est pas simplement un facteur d’émancipation individuelle.
Mick Levy : Pour beaucoup, on peut même le relier à l’identité, beaucoup se définissent aussi par le travail. Il y a donc une porosité parfois assez forte entre l’identité profonde, je dirais, et notre activité professionnelle. Qu’est-ce que cela dit aussi du travail finalement ?
Apolline Guillot : C’est intéressant. Je pense que c’est aussi lié au fait que les structures sociales qui, avant, étaient peut-être beaucoup plus infusées avec des fonctions symboliques : on était patron, on avait l’espoir que ses enfants grimpent dans la hiérarchie sociale, on avait une espèce de société qui était, en fait, assez peu mobile, mais, en même temps, qui offrait des paliers ou des étiquettes assez claires, assez lisibles. Je pense que la caractéristique du travail moderne c’est justement qu’on va chercher à se réinventer symboliquement dans le travail. D’ailleurs, aujourd’hui, il ne s’agit pas tellement de se reconnaître dans son travail, que de se bâtir une carrière, une existence qui soit faite d’expériences salariales épanouissantes. Il va vraiment y avoir cette idée d’expériences.
Cyrille Chaudoit : Un peu comme un chemin de vie, une forme d’accomplissement au bout, en tout cas que l’on souhaite. C’est quand même assez dur de l’entendre dire comme ça : se garantir que l’on mérite une place dans la société par le travail et tu parles, en creux, de reconnaissance. C’est-à-dire qu’à l’échelle individuelle, je vais être reconnu, d’ailleurs je vais peut-être même me reconnaître pour la valeur de ce que je fais, en tout cas la qualité de ce que je produis, ça peut être indexé sur tout un tas de critères, on peut parler aussi du salaire, ça a été évoqué. Et puis collectivement, je vais être aussi reconnu par mes pairs d’une certaine manière, par mes proches, par mes collègues, par mon patron, mais ce mérite et cette reconnaissance sont quand même très indexés à des critères de productivité. Et, quand on fait le pont avec l’intelligence artificielle, qui est le sujet par lequel on aborde la question dans cet épisode, on vient encore enfoncer le clou puisque l’IA est censée prendre une partie des tâches que l’on faisait jusqu’à présent pour les rendre encore plus productives. Que peut-on penser de cela ?
Apolline Guillot : C’est pour cela que le travail est un objet intéressant quand on parle de l’IA, parce qu’il est à la fois une source d’aliénation, de souffrance, et, en même temps, il porte une promesse sociale d’émancipation. En fait, travailler c’est à la fois être contraint par un lien de subordination, par un cadre : on ne choisit pas forcément la manière dont on travaille, les gens avec qui on travaille, c’est le drame de pas mal de gens. Mais, d’un autre côté, il y a la promesse, il y a l’horizon que, par là, on va pouvoir laisser notre trace dans le monde.
C’est intéressant parce que, philosophiquement, la reconnaissance n’est pas quelque chose qui viendrait à posteriori, on confond souvent ça avec la gratitude ou avec la gratification. La reconnaissance c’est vraiment le fait d’avoir la certitude, d’avoir au moins une preuve qu’on a pu transformer un petit peu, à son échelle, le monde, soit parce qu’on a transformé la matière, soit parce qu’on s’est frotté un peu au réel et on a résolu des problèmes. On va avoir cette idée d’être agent plus dans le travail qu’ailleurs, à mon sens surtout aujourd’hui, parce que nous sommes de plus en plus dans des bulles informationnelles, dans des bulles sociales, on est rarement confronté à de l’altérité, à de la résistance, à de l’opposition, parce qu’on vit dans le monde tel qu’il est, qu’il y a plein d’évolutions technologiques qui permettent ça et le travail c’est vraiment le lieu où on va venir se frotter à l’altérité.
Mick Levy : Si on fait le lien avec les évolutions technologiques : l’IA arrive, qui nous promet effectivement de bousculer le travail, d’ailleurs beaucoup d’entre nous en voient déjà les premiers effets sur des travaux qui, déjà, ne sont plus faits de la même manière, qui sont faits encore plus rapidement. On nous promet que ça va encore s’accélérer avec l’arrivée, cette fois, des agents IA qui vont venir automatiser encore beaucoup plus qu’aujourd’hui. Est-ce qu’on vit vraiment une nouveauté ou est-ce que ce sont des choses qu’on a déjà vécues et qui, finalement, font partie de la technique et, à chaque fois qu’il y a une nouvelle technique, une nouvelle technologie, un nouvel outil qui apparaît, ça vient aussi bouger les valeurs du travail ?
Apolline Guillot : Avec l’intelligence artificielle, je pense que c’est un peu particulier par rapport à d’autres technologies. Peut-être plus que l’automatisation des gestes, ça va quand même venir interroger la place de l’intelligence humaine, parce que ça s’appelle intelligence artificielle alors que n’importe qui s’intéressant un peu à l’IA se rend compte que ce n’est pas une intelligence au sens humain. Mais la manière dont le récit qui entoure l’arrivée de l’intelligence artificielle – le récit médiatique, le récit politique, économique –, amène à penser qu’il y aurait peut-être une comparaison possible.
Mick Levy : Est-ce que le problème c’est le récit ou est-ce que le problème c’est la technologie en elle-même ? Je vais peut-être faire des raccourcis un peu pourris, ne m’en veux pas et rattrape-moi si vraiment je vais trop loin. Je suis tombé sur des coupures de presse des années 60 où des profs de maths alliés à des comptables faisaient des manifestations contre les calculatrices, en disant « ça va tous nous rendre cons, on ne va plus avoir de boulot, nous, les comptables, nous n’allons plus servir à rien ! ». Cette question-là s’est peut-être posée quand le tableur est arrivé. L’idée que je ramène souvent, c’est Platon qui avait peur de l’arrivée de l’écriture, qui disait qu’on y perdrait notre humanité parce qu’on n’aurait plus à se souvenir des choses.
Quel est le vrai problème ? Est-ce que c’est la technologie en elle-même ? Est-ce que c’est effectivement ce récit qui, finalement, est très confus ? Et j’aime bien parler de péché originel quant au nom qui a été choisi « intelligence artificielle ».
Cyrille Chaudoit : Quelle est la question ? Qu’est-ce que ça vient toucher ?
Apolline Guillot : Déjà par rapport à Platon. Si on l’interprète un peu finement, la caricature qu’on donne souvent de Platon qui se serait opposé à l’écriture, en fait il était opposé à un petit groupe de personnes, les sophistes, qui étaient un peu ses ennemis jurés, qui étaient des rhétoriciens très charismatiques, etc. Lui était préoccupé aussi par le fait que l’écriture allait être, on va dire, un moyen de manipulation par un petit nombre pour impressionner le grand nombre, c’est-à-dire que ça allait décupler les facultés rhétoriques de certaines personnes et il disait « c’est dangereux ». Ce qui est intéressant c’est que, aujourd’hui, c’est effectivement le problème de la concentration du pouvoir que confère l’intelligence artificielle qui change un petit peu la donne : c’est effectivement un petit groupe de personnes, un petit groupe d’industriels qui vont réécrire en partie des choses assez primaires, par exemple le langage, la communication.
Je suis assez d’accord sur le fait que ça va venir juste exacerber peut-être des tendances qui étaient déjà à l’œuvre au travail, tout le monde se plaint que le travail est déshumanisé depuis des années. Là où, à mon avis, ça va un petit peu plus loin, c’est que ça va interroger la parole et l’altérité, ça va fabriquer une altérité artificielle qui est très difficile à évaluer aujourd’hui, on ne sait pas vraiment l’effet que ça va avoir, notamment sur les jeunes, et le travail de demain ce sont les jeunes d’aujourd’hui qui sont en train de se former, qui vont le faire. Je pense qu’il y a là des choses qu’il est encore difficile de prévoir parce que ça va beaucoup dépendre de la médiation des politiques, des juridictions qui vont encadrer cet objet qui est encore assez jeune en fait.
Cyrille Chaudoit : Justement, depuis qu’on a commencé cette séquence, j’ai quand même le sentiment que tout cela est l’héritage de ce que l’on connaît déjà depuis la révolution industrielle. Nous-mêmes vu notre âge, malgré ton grand âge Mick, sommes des héritiers de la révolution industrielle in fine. J’ai l’impression qu’on vit exactement la même chose avec l’intelligence artificielle, à ceci près que tu as mentionné à plusieurs reprises deux termes sur lesquels j’aimerais qu’on revienne : la notion d’émancipation. Le travail, d’un côté, est censé nous émanciper, donc nous aider à trouver notre place dans la société, c’est ce que tu nous disais tout à l’heure, et l’intelligence artificielle et c’est précisément l’un des arguments que l’on avance, que « les sophistes de l’IA », entre guillemets, d’une certaine manière avancent pour nous dire « l’IA va vous libérer, elle va vous émanciper parce qu’elle va vous débarrasser de tout un tas de tâches pas très intéressantes, chronophages, etc. ». Il y a là une forme de télescopage : le travail est censé m’aider à m’émanciper et l’IA va prendre une partie de mon travail, ce qui est censé m’émanciper.
Mick Levy : Quelle est ta question Cyrille ? Je me venge !
Cyrille Chaudoit : Ma question : comment peut-on expliquer ce paradoxe ? À un moment donné, si on laisse la place à l’intelligence artificielle supposée régler une partie de ces tâches, n’est-on pas en train d’ôter, au contraire, un bout du sens que l’on accorde au travail, qui est lui-même censé nous émanciper ?
Apolline Guillot : C’est un petit peu dans le code ADN de la robotisation, de l’intelligence artificielle. Je pense que vous en avez déjà parlé dans le podcast, la racine du mot robot c’est vraiment l’esclave ; en slave, ça vient d’un mot qui veut dire larbin. Je pense qu’on a, même dans notre imaginaire collectif, quelque chose qui nous fait pencher vers un usage on va dire d’exploitation de l’IA de la même manière qu’on a l’impression que notre travail a été segmenté en petites parties et, petit à petit, dévalorisé, rendu standardisé, complètement interchangeable, etc., et la plupart des gens se plaignent beaucoup de cela aujourd’hui.
Cyrille Chaudoit : C’est le taylorisme.
Apolline Guillot : Exactement. C’est que, finalement, l’IA va juste être une prochaine étape là-dedans. Mon point d’attention là-dessus, on l’a déjà dit tout à l’heure, c’est de dire que le travail n’est pas juste cette production de services et de biens, c’est aussi un acte de rencontres avec l’altérité, de frictions avec le réel, d’efforts. On va sublimer tout un tas de souffrances, tout un tas de questions à travers le travail, que ce soit avec le travail salarié ou non salarié d’ailleurs, mais le travail salarié en particulier en fait partie, et aussi la dimension plus affective du travail comme un moment de réflexivité sur soi-même : je vais pouvoir avoir de l’estime de moi, avoir de la fierté, avoir du plaisir. Ces types d’affects ne sont pas du tout pris en charge par l’intelligence artificielle.
De plus en plus, j’ai tendance à penser que l’IA, en retirant les tâches dites à faible valeur ajoutée, enlève aussi une part de contraste qui est nécessaire au plaisir au travail, c’est-à-dire les moments d’efforts. Dire qu’on pourrait être créatif huit heures par jour c’est un mythe, ce n’est pas possible, donc qu’est-ce qu’on va faire ? Je pense qu’on va venir dégrader de plus en plus, symboliquement, ce qu’on produit jusqu’à ce que ça nous semble complètement aliéné.
Juste pour finir sur cette question de l’aliénation, ce qui m’avait beaucoup marqué dans l’étude du MIT qui a été publiée cette année, où le concept de dette cognitive [2] était développé, ce n’est pas tellement ça, c’était un peu plus loin dans l’étude. Les étudiants disaient qu’ils ne se sentaient pas auteurs de leur propre production, en fait ils l’oubliaient instantanément, qu’ils étaient simplement presque des véhicules. Nous sommes les véhicules d’une voix, d’une espèce de neutralité, de doxa en fait, qu’on va venir transmettre, mettre en forme, mais dont on ne sent pas l’auteur parce que c’est allé trop vite.
Quand on parle d’aliénation vraiment étymologiquement, alienus c’est vraiment l’étranger. Se sentir étranger à son travail, c’est aussi facteur de souffrance énorme. Je pense que c’est aussi ça le risque, qu’on perde le plaisir, qu’on perde le sentiment d’être le conducteur. On est simplement plus qu’un véhicule ou quelqu’un qui va devenir agent d’une intelligence complètement neutre et désincarnée.
Cyrille Chaudoit : Tout à fait. On a aussi cet exemple auquel tu fais référence dans d’autres métiers : les traducteurs vivent exactement la même chose, ils sont « réduits », entre guillemets, à relire ce qu’a produit une IA et n’ont plus le plaisir, en quelque sorte, de manipuler la langue, etc.
De fait, pour atterrir, si on a tendance à réduire le travail à ce côté productif, performatif, avec des critères uniquement quantitatifs, quel risque court-on à l’échelle collective, dès lors que, individuellement, on ne s’accomplit plus à travers l’acte de travailler ?
Apolline Guillot : C’est une question compliquée parce que c’est difficile à mesurer actuellement. À mon avis, c’est plus l’atomisation, la polarisation et le sentiment d’impuissance. Nous ne sommes pas juste des travailleurs, nous sommes aussi des citoyens, nous sommes des parents, des amis, nous sommes des individus dont l’identité va largement dépasser le travail. Je pense que la manière dont on est traité au travail est un facteur absolument fondamental pour expliquer un certain nombre de dérives.
Cyrille Chaudoit : Ça ruisselle dans le reste de la société ? C’est ce que tu es en train de dire ?
Apolline Guillot : Mathématiquement, on passe trop de temps au travail pour que ce qu’on vit au travail n’ait aucune conséquence sur ce qui se passe par exemple dans les bulletins de vote des gens et dans leurs relations sociales.
Mick Levy : On fait un lien entre travail et identité qu’on a exploré tout à l’heure.
Apolline Guillot : Exactement. Si mon identité c’est la somme des trucs que je fais, ce à quoi j’occupe mon temps, si on enlève le moment où on dort, d’ailleurs on dort de moins en moins, le travail va devenir hyper central. Donc, s’intéresser à la manière dont on est traité au travail, dont on est reconnu, dont sa puissance d’agir va être valorisée, c’est aussi se donner des moyens d’expliquer la manière dont on interagit en dehors du travail, bien sûr.
Mick Levy : D’ailleurs, il y a un autre point : on relie souvent travail et effort. Pour certaines personnes c’est même très fort. Dans l’étude du MIT que tu évoques, il y a de ça aussi : finalement, les étudiants font moins d’efforts pour arriver à un résultat avec l’IA, parfois moins bon, parfois meilleur, peu importe, en tout cas, ils font moins d’efforts. Qu’est-ce qu’on va chercher à valoriser ? Cette notion de valoriser l’effort dans le travail, qui est aujourd’hui quand même très prégnante, ne risque-t-elle pas de s’effacer un petit peu au profit de la recherche constante du résultat, qui sera forcément accélérée, voire améliorée avec l’IA ?
Apolline Guillot : On peut opposer une logique de l’effort au travail et une logique de la consommation. C’est-à-dire qu’on peut consommer son travail, ça paraît bizarre parce qu’en général on oppose consommation et production, mais on peut agir au travail en tant que consommateur.
Mick Levy : C’est le présentéisme [3] ?
Apolline Guillot : C’est le présentéisme et c’est le fait de produire du contenu, comme on dit aujourd’hui, de répondre à un cahier des charges sans vraiment s’investir, sans prendre le risque de l’échec, sans prendre le risque de la remise en question.
On peut faire un travail exactement similaire de manière consommatrice, de manière extérieure, c’est-à-dire je vais juste cocher les cases, faire ce qu’on me demande, et je peux faire exactement la même tâche en y mettant du mien, comme on dit. Le problème c’est que, de plus en plus, on a l’impression d’avoir de moins en moins intérêt à mettre du sien, parce que, de manière générale, on est dans une société où l’individu est poussé à optimiser chacun de ses instants, à réfléchir en termes de coûts/avantages dès qu’il va devoir s’investir dans une tâche parce qu’il sait que, derrière, on peut le virer à tout moment, il n’a plus forcément les garanties qu’il avait avant de vivre dans un monde stable où il avait un progrès social. Du coup, on va dire que le pari de mettre du sien dans le travail, de faire des efforts, est de moins en moins avantageux.
Mick Levy : Mais, avec l’IA, qu’est-ce que ça va donner ? Le fait d’y mettre du sien et ce rapport à l’effort. Pardon, Cyrille, je sais que tu avais une question. Je voulais vraiment qu’on fasse le lien avec l’IA sur cette question du rapport à l’effort. Ça renforce la consommation ?
Cyrille Chaudoit : Ça renforce l’amplification.
Apolline Guillot : Ça renforce l’amplification et surtout on se rend pas compte à quel point, même si on a l’impression de ne pas mettre du sien au travail – je voulais redescendre là-dessus –, même quand on a l’impression qu’on s’en fiche et qu’on fait du quiet quitting, que, finalement, on s’en fout, je pense que dans la durée les gens font bien sûr des efforts dont ils ne se rendent même pas compte. Si on enlève cet effort-là, qu’on le remplace par une autre forme de pénibilité qui est le fait de prompter, de re-prompter, de reformuler, c’est peut-être un effort moins gratifiant qu’un effort directement de production.
Cyrille Chaudoit : Pour faire le pont entre ce que l’on vit individuellement et l’impact sur le collectif, tout ce que tu nous expliques là convoque aussi toutes les études qui montrent qu’il y a un désengagement de plus en plus massif des collaborateurs dans l’entreprise, donc ça a un impact forcément collectif sur l’ensemble de l’entreprise, sur l’ensemble des agents économiques qui constituent un marché, une société, etc. Donc le désengagement et j’entends aussi en creux une forme de déresponsabilisation, parce que, à la fin, si je suis là uniquement pour appuyer sur un bouton, pour prompter, etc., je ne mets pas du mien, donc je ne suis plus responsable de ce qui sort.
On a parlé de la reconnaissance, là on parle de la déresponsabilisation. Ça rejoint quand même les critères du LaborIA [4] de l’Inria que Yann Fergusson [5] était venu nous présenter dans un précédent épisode, d’ailleurs on vous invite à écouter ou à regarder cet épisode, vous comprendrez tout. Si on va plus loin, que profilent cette déresponsabilisation et ce désengagement en fait ?
Mick Levy : J’en rajoute une couche, pardon Cyrille, je vais directement dans ton sens : la prochaine vague qui nous attend avec l’IA ce sont donc les agents qui vont effectivement être totalement automatisés, qui communiquent entre eux, il n’y a plus d’histoire de prompts. Ce sont les agents qui font les process pour nous et qui nous appellent quand nous en auront besoin, c’est l’IA agentique [6] qui pourrait arriver. Ça va donc encore plus loin, ça encore ta question.
Cyrille Chaudoit : C’est-à-dire qu’à travers le travail, on se désengage progressivement, on se déresponsabilise parce qu’on met des technologies qui vont faire à notre place, etc. Apolline nous ayant dit que tout cela ruisselait, infusait forcément sur le reste de nos pans de vie et de la société, qu’est-ce qu’on peut imaginer à l’avenir si on est totalement désengagé parce que, maintenant, il y a une techno qui est faite effectivement pour nous « remplacer » ?
Mick Levy : Si on pousse jusqu’au bout. Apolline, que va-t-il nous arriver avec ça ?
Apolline Guillot : C’est vrai que dit comme ça, ça paraît vraiment déprimant.
Mick Levy : Mais on le dit en rigolant, ça va.
Cyrille Chaudoit : Ça ouvre peut-être des portes pour autre chose ?
Apolline Guillot : Ça ouvre des portes. Ce que vous dites est intéressant, c’est un peu l’ambivalence. Le problème de la responsabilité c’est que, à la fois, on dit que c’est super important, on a fondé toutes nos sociétés démocratiques sur cette idée que les individus sont responsables, qu’ils ont une intelligence qui est normative, qui est autonome, on a vraiment basé, même nos textes de loi, sur cette idée de responsabilité qui, en fait, est assez mal comprise. Côté pile, la responsabilité c’est magnifique. Côté face, la responsabilité c’est pesant parce qu’on a la responsabilité de ses erreurs, de ses choix de vie.
À mon avis, le plus grand danger ce n’est pas tellement la déresponsabilisation à marche forcée, c’est qu’on y consent, qu’on y consent largement. Si on est dans une organisation qui, mettons, a une faible tolérance pour l’erreur, pour l’imprécision, qui va valoriser l’expertise ; Hannah Arendt disait « des experts qui laissent les choses prendre le contrôle » et c’est exactement ça. L’intelligence artificielle a été entraînée sur des données qui proviennent du passé, ce qui s’est déjà produit. Si on utilise l’intelligence artificielle en se disant « elle va prendre des décisions plus neutres, plus objectives que moi, je ne vais pas forcément oser la contredire, etc. », on perd confiance, la confiance qu’on a en soi pour faire face au présent et le présent c’est quelque chose de compliqué parce que le présent c’est ce qui n’est pas encore arrivé. Du coup, je pense que c’est extrêmement préoccupant de dire qu’on va laisser la responsabilité à des agents ou à des systèmes d’agents d’intelligence artificielle qui vont prendre le contrôle ou qui vont mener la barque, peut-être avec une intervention humaine de temps en temps. D’ailleurs j’adore quand on dit « il faut toujours qu’il y a un humain dans la boucle », mais où va-t-il venir dans la boucle ? Qui va prendre le risque, à un moment, de dire qu’il s’oppose à une décision qui, selon toutes les statistiques, va dans une direction ? On ne va pas le croire, on va lui dire « tu es fou » ou bien, s’il se trompe, il va se faire virer.
C’est aussi la capacité qu’a l’humain de prendre des risques. Je pense que plus que la question de la responsabilité, c’est la question du risque de l’erreur, du risque de l’inconfort que provoque le fait de ne pas être sûr de ce qu’on va dire.
Mick Levy : On va poursuivre tout ça sur la deuxième séquence.
Mais avant, il est temps de prendre une petite respiration, de découvrir un portrait de celles qui font la tech. C’est l’heure de « Elles font la Tech » de Sandrine Charpentier.
« Elles font la tech » – « Bénédicte Tilloy : du CAC 40 à la startup »
Sandrine Charpentier : « Le jour où j’ai quitté mon comex pour une startup », ce choix audacieux résume bien l’esprit de Bénédicte Tilloy. Ancienne dirigeante du groupe SNCF, elle a basculé dans l’univers de la tech et de l’innovation avec beaucoup de curiosité et d’humanité. Open data, hackathon, intelligence artificielle, elle a toujours perçu le numérique comme un levier de personnalisation, d’impact et d’inclusion.
Ravie de vous accueillir, Bénédicte, dans « Elles font la tech ». Bonjour à vous.
Bénédicte Tilloy : Bonjour Sandrine.
Sandrine Charpentier : Est-ce que vous pouvez nous parler de votre parcours et de la façon dont vous vous êtes emparée du numérique dans vos projets ?
Bénédicte Tilloy : J’ai passé 27 ans à la SNCF, dans une fonction de direction générale, notamment la fonction de DG de Transilien. Transilien, ce sont les trains de la vie quotidienne, les trains de banlieue parisienne. Il y a trois millions de voyageurs tous les jours et j’avais une frustration qui était de ne pas pouvoir m’adresser à chacun finalement. Quand on a trois millions de voyageurs, on les voit un peu comme une foule indéterminée et mon sujet c’était comment faire de l’info qui soit beaucoup plus pertinente et notamment qui s’adresse à chacun. Le numérique offrait cette possibilité : pouvoir connaître, à très grande échelle, le profil de chacun, le train qu’il allait prendre et ce dont il allait avoir besoin comme type d’information. Même chose pour les collaborateurs, même chose pour les politiques qui intervenaient sur chacune des lignes. C’est d’ailleurs une des raisons pour lesquelles j’ai beaucoup utilisé Twitter qui me permettait, en fait, de construire une communauté pour chaque gare et de pouvoir traiter des sujets qui la concernaient directement.
Après quoi, j’ai quitté la SNCF et, pour rentrer dans le numérique à pieds joints, j’ai fait la Singularity University [7]. Je suis rentrée ensuite en France pour rejoindre un studio d’innovation qui s’appelle Schoolab [8] et c’est là que j’ai rencontré mon associé avec lequel on a monté Ask for the Moon [9]. Ask for the Moon est une IA générative au service des savoir-faire de l’industrie. Aujourd’hui je n’en fais plus partie au plan opérationnel, je l’ai quittée, mais, bien sûr, je garde un pied dedans puisque je reste actionnaire de cette entreprise qui se développe.
Sandrine Charpentier : Vous avez traversé les mondes du grand groupe à la start-up, de la Silicon Valley à l’open data. Pour vous, quel est le fil rouge qui permet de faire que la tech reste au service de l’humain ?
Bénédicte Tilloy : Il n’y a pas à dire, la tech c’est un outil, c’est toujours destiné à résoudre un problème que rencontre un utilisateur potentiel. On a donc vraiment besoin de s’assurer, à mesure qu’on développe, que ce qu’on fait correspond bien aux attentes de ses utilisateurs. Il faut sans arrêt les questionner, sans arrêt écouter leurs desiderata, ce sont eux qui nous projettent dans l’avenir en identifiant des points à améliorer. Pour moi, c’est vraiment très utile. Si on oublie ça, on fait de la tech pour la tech. À ce moment-là, on court le risque de manipuler les gens, on court le risque de faire des choses qui ne les intéressent pas, et on court le risque d’un monde qui devient exclusivement transactionnel, c’est-à-dire dans lequel l’humain n’a pas sa part. On n’imagine pas des médecins déléguer totalement leurs services à une IA, plus personne n’écouterait ce qu’ils ont à dire, même si l’IA est capable d’être plus rapide qu’eux dans le diagnostic.
Sandrine Charpentier : Je suis bien d’accord avec vous, Bénédicte. J’aime bien ce que vous dites à propos des IA, vous dites que les IA se nourrissent des données du passé et que les femmes sont absentes, sont peu représentées. Quel message voulez-vous passer aux femmes, et aux hommes aussi, pour que l’avenir du numérique soit plus inclusif ?
Bénédicte Tilloy : Au départ, le monde numérique est plutôt un monde de mecs, il y a plus d’ingénieurs, on sait qu’il y a moins de femmes ingénieures dans le monde. Les femmes ont besoin, quand elles rentrent dans un univers qui est beaucoup un univers d’hommes, de se sentir légitimes, donc elles pensent qu’elles doivent être irréprochables quand elles arrivent dans ce monde où elles ont un petit syndrome de l’imposteur. J’ai envie de leur dire le contraire : en fait, c’est en faisant qu’on apprend et c’est en faisant des bêtises qu’on apprend plus vite. Il faut donc oser faire de faire des bêtises pour être capable d’apprendre. Donc Mesdames, soyez moins de bonnes élèves et plus des agentes apprenties.
Sandrine Charpentier : C’est une bonne conclusion. Oser se tromper, apprendre, toujours, travailler par itérations, c’est un peu aussi la logique de l’innovation.
Merci beaucoup Bénédicte pour ces échanges. Je vais mettre vos informations, le lien vers votre profil Linkedin et autres dans le descriptif de cet épisode.
Merci à vous. C’était un plaisir de vous accueillir aujourd’hui dans « Elles font la tech ».
Bénédicte Tilloy : Pareillement. Merci beaucoup Sandrine.
Voix off : Trench Tech – Esprits critiques pour Tech Éthique.
À l’avenir, à qui de s’adapter ? L’humain ou le travail ?
Cyrille Chaudoit : Merci Sandrine et Bénédicte pour cette chronique.
On en revient à toi, Apolline. Désormais, ce qui va nous animer c’est explorer la question suivante : si, au final, l’IA est capable de faire mieux que moi en permanence, j’ai envie de dire, que faut-il faire ? Est-ce qu’il faut essayer à tout prix de se maintenir au niveau de la machine coûte que coûte ? Ou est-ce qu’il faut redéfinir la notion même de travail ?
Apolline Guillot : Ça me rappelle l’épisode de The Office. Je crois que c’est Dwight qui essaye de signer autant de contrats que l’ordinateur, l’ordinateur vient d’arriver, une espèce de logiciel de vente.
Mick Levy : Je n’ai jamais vu The Office, il va falloir que je m’y mette parce qu’à chaque fois qu’on y fait cette référence, ça me fait rire, déjà !
Apolline Guillot : Je n’ai pas tout regardé, mais cet épisode-là est assez représentatif de la honte prométhéenne, un terme qui avait été inventé par Günther Anders [10], un philosophe des années 50, qui disait que c’est ce sentiment de se sentir inférieur à nos propres productions parce qu’on se juge d’après les mêmes critères. On finit par se juger soi-même comme des machines. C’est intéressant parce que la honte prométhéenne ne vient pas tellement d’une imperfection de l’homme qui serait biologiquement inapte, c’est simplement du fait qu’on va appliquer les mêmes critères d’évaluation et de perfection à une intelligence artificielle qu’à nous. Ça veut dire qu’on a déjà fait un travail de déconstruction de soi-même pour se rendre comparable. En philosophie, c’est la commensurabilité, c’est dire que deux choses peuvent être mesurées avec le même outil. C’est intéressant parce que ça ne va pas de soi. Pendant longtemps, notre objet de comparaison c’était plus les anges ou bien Dieu ou bien des entités non humaines qui n’étaient pas des machines.
Cyrille Chaudoit : Des entités non humaines, mais on se comparait quand même. Justement, la honte prométhéenne vient quand même prendre racine dans l’Antiquité. C’est ce qui a conduit Günther Anders, à dire, il ne l’a pas dit tel quel, que finalement l’homme était dépendant deux fois de sa propre technique : une première fois parce qu’il en avait besoin et une seconde fois parce qu’il fallait qu’il se mette au niveau, qu’il se maintienne au niveau de sa propre technique. Du coup, avec l’intelligence artificielle, j’ai envie de dire business as usual, on a envie de se maintenir au niveau de la nouvelle technique. Est-ce c’est fondé, est-ce que c’est plausible ? Ou, au contraire, n’est-ce pas l’occasion de complètement pivoter, pour reprendre, ce coup-ci, le lexique des startups, et réinventer la notion de travail, en tout cas l’ouvrir ? On vient de voir, dans la première séquence, qu’elle était quand même très fléchée sur la productivité, etc., n’est-ce pas l’occasion de penser le travail autrement ?
Apolline Guillot : Bien sûr, c’est l’occasion. La question c’est juste de se demander à quel point le discours des entreprises va y conduire. On constate maintenant que de plus en plus, dans l’entreprise, on parle de transformation, d’entreprise apprenante. On va avoir le terme d’obsolescence des compétences qui est extrêmement violent, qui est rabâché un peu à longueur de temps qui, je pense, vient quand même alimenter cette idée, la première option que tu donnais, qui est plus de dire qu’il faut se maintenir à la hauteur, qu’il faut se maintenir à la même vitesse, qu’il faut, finalement, se réinventer en permanence, ce qui est un peu problématique.
Cyrille Chaudoit : Tant que les compétences sont réduites, ce que l’on disait dans la première séquence, à une capacité à avaler et à faire des tâches, forcément elles deviennent obsolètes ! En revanche, on ne parle peut-être pas des bonnes compétences, ce n’est peut-être pas de ces compétences-là dont on a besoin réellement ni dans l’entreprise ni dans le reste la société.
Apolline Guillot : Ce n’est pas ma croisade personnelle, mais la valeur d’un individu, son intelligence, son expérience, son intuition professionnelle, son jugement, je peux faire un sac de choses, ce ne sont pas des compétences. La division du travailleur en une somme de compétences – et même des étudiants, maintenant c’est aussi beaucoup dans le milieu scolaire –, vouloir raisonner de manière fonctionnaliste, c’est-à-dire en divisant quelque chose de complexe en plein de petites fonctions qui seraient censées être interchangeables, on pourrait en ajouter, etc., c’est une vision dont Günther Anders dirait « c’est totalement machinique », c’est l’idée qu’on va mettre un nouveau logiciel dans la machine, ce qui est totalement faux. Aujourd’hui ce qui fait que l’individu va construire une expérience, une intuition et un rapport singulier à son travail et qui aussi va lui donner son expertise, ça va être tout un tas de choses qui ne sont pas des compétences, qui sont son esprit critique, son histoire personnelle, ses convictions, ses valeurs.
Mick Levy : Sa capacité d’adaptation aussi.
Cyrille Chaudoit : Qui, néanmoins, dans l’univers des RH, sont rangées dans le domaine des compétences, les soft skills.
Apolline Guillot : Les soft skills, bien sûr, c’est exactement ça. C’est dire qu’on va quand même essayer de nommer tout ce qui est trop compliqué.
Mick Levy : C’est passionnant, ça me fait croiser dans ma tête, vous ne m’avez pas vu à la caméra mais c’était en train de bouillonner de ouf, deux récits : le récit du travail, d’un côté, avec ce découpage en compétences que tu viens de nous expliquer brillamment et, de l’autre côté, le récit de l’IA, et plus globalement de la technique, qu’on cherche constamment à évaluer à l’aune des compétences humaines. C’est-à-dire que tous les benchmarks qu’on a en IA visent à voir à quel point l’IA est moins bonne ou meilleure sur une compétence ou une autre de l’humain. Comment sort-on de ça ? Tu nous exprimes très bien, en creux, tous les dégâts que ça fait et finalement le caractère fou, l’irrationalité de chercher à ramener autant de rationnel justement sur l’intelligence humaine, mais comment en sort-on, si tu as une solution ?
Apolline Guillot : Je n’ai pas de solution. Ce sont des pistes.
On pourrait dire, effectivement, qu’il y a des solutions du côté des organisations, je ne vais pas forcément aller dans le détail de ça parce que, oui, il peut y avoir par exemple un manque à gagner économique à perdre cet esprit critique, cet ancrage singulier. Mais si on regarde du côté de l’intelligence artificielle, ce qui m’intrigue et ce qui m’intéresse beaucoup c’est qu’il y a plein de discours, pas trop orthodoxes, même dans les sciences cognitives depuis les années 70/80, de personnes qui vont travailler sur la vision énactive de l’esprit [11], c’est-à-dire l’esprit comme un système qui va être intégré dans un environnement, dans un corps. Ce sont des visions un peu plus complexes de l’intelligence, qui intègrent un tout petit peu plus cette dimension corporelle, cette dimension contextuelle.
Mick Levy : Le terme « énactif » indique une vision plus systémique, c’est ça ? On ne prend pas que le découpage, on le replace dans un écosystème complet. J’ai juste ?
Apolline Guillot : Exactement. C’est un courant qui vient de la biologie, qui vient de Varela et Maturana, qui ont écrit tout un tas d’articles, tout un tas de livres sur les apories de la vision computationnelle de l’esprit, c’est-à-dire diviser justement l’esprit en plein de petites fonctions. Ils disaient que ça ne rejoint pas vraiment ce qu’on observe dans le vivant, donc inspirons-nous du vivant. Ce sont notamment des mouvements intellectuels qui ont beaucoup infusé dans la robotique plus que dans l’IA, parce que, dans l’IA, on s’intéressait plus à faire jouer aux échecs, des choses comme ça, alors que dans la robotique il y a vraiment plus une prise en compte de l’environnement.
J’ai une hypothèse : peut-être qu’à un moment, à travers les travaux de la robotique et du travail qui est fait par les roboticiens sur la prise en compte de l’environnement, de l’attention, on pourra avoir une réévaluation et une meilleure compréhension de ce que l’environnement et de ce que l’histoire singulière va faire à l’intelligence d’un individu. Peut-être que ça va aussi être un moment copernicien pour les individus, pour les chercheurs, pour les organisations qui vont dire « on ne peut pas juste se contenter de traiter les gens comme des sommes de compétences », c’est une hypothèse très optimiste.
Cyrille Chaudoit : Ça accrédite un petit peu ce qui semble se dessiner ou se profiler du côté de Yann Le Cun [12], dont chacun sait maintenant qu’il est parti de Meta pour monter sa propre boîte et qu’il s’intéresse d’ailleurs davantage probablement à un aspect plus robotique des choses, avec la compréhension, d’une certaine manière, de son environnement.
Complet hasard du calendrier, j’ai piqué Le Monde à l’école qui nous accueille dans son studio : Le Monde-Campus, « Le culte du charisme » : « En plus des compétences professionnelles, les jeunes cadres sont sommés de développer des qualités humaines telles que la capacité à inspirer leurs équipes, à fédérer un réseau ou encore la maîtrise des codes de l’humour, etc. ». On voit bien que c’est rangé dans le champ des compétences, mais on imagine bien que la machine ne saura jamais posséder ces qualités humaines.
Apolline Guillot : La machine et pas mal de personnes aussi ! Les critères de charisme sont quand même basés sur une vision qui est très particulière, qui est très excluante pour pas mal de personnes. Les codes de l’humour !
Cyrille Chaudoit : C’est intéressant. Si ça devait devenir le nouvel alpha et oméga pour, je dirais, avoir un poste, ça exclurait, de facto énormément aussi de personnes dans la population.
Apolline Guillot : À mon avis, on manque cruellement surtout d’une approche métier, c’est-à-dire qu’est-ce qui fait qu’on est bon dans un métier ? La légitimité ne vient pas des blagues qu’on fait, elle ne vient pas de sa posture qui est le nouveau truc dont on parle. Ça vient du fait qu’on est compétent, ou non, à faire son travail, qu’on soit manager ou pas.
Cyrille Chaudoit : Elle vient d’un savoir-faire.
Apolline Guillot : À force de dire, que nous serions des espèces de ballons de baudruche vides, avec juste des décorations, qu’il faudrait qu’on soit charismatiques, etc., ça mine la confiance en soi des personnes. Je pense que c’est quasiment un problème existentiel. On le voit notamment dans la manière dont les femmes et les hommes conçoivent leur travail : les hommes pensent beaucoup en termes d’avancement de carrière, ils ont une représentation réflexive d’eux-mêmes, en mode « je vais faire telle carrière, je vais me placer à tel endroit » ; les femmes ont plus une conception de bien faire son travail, du coup elles vont avoir un souci de légitimité très fort. Si on valorise des gens qui voient à trois ans, quatre ans en avance et qui se fichent un petit peu de ce qu’ils font au quotidien parce qu’ils ont du charisme, ils ont du leadership, etc., on dévalorise implicitement les gens qui ont déjà des problèmes de légitimité – les femmes les personnes minorisées, etc. –, qui vont peut-être avoir plus de mal à trouver leur place. Je pense que c’est un danger.
Cyrille Chaudoit : Je reviens sur ce que tu as dit sur le travail bien fait. Ça me fait penser à William Morris et au mouvement Arts and Crafts [13] fin du 19e siècle en Angleterre. William Morris est un peu considéré, par certains, comme le « père fondateur », entre guillemets, du design. Il disait « n’ayez rien chez vous qui ne soit soit utile soit beau ». Lui, en quelque sorte, il veut préserver une forme de patrimoine qui est le savoir-faire ancestral, manuel, artisanal d’une certaine manière. Il crée ce mouvement qui vise à promouvoir le beau geste, le travail bien fait, etc. Avec ce qui est en train de se mettre en place avec l’intelligence artificielle, et ce dont on a déjà débattu jusqu’à présent, n’a-t-on pas une chance d’arriver à une forme de second souffle avec les amoureux, justement, du beau travail, du beau geste, du travail bien fait ? Est-ce que ça ne va pas donner naissance aussi, d’une certaine manière, à une autre façon de vouloir travailler ? Ces dernières décennies, on a observé le retour un peu à la terre, le retour à l’artisanat, etc. Est-ce que c’est quelque chose qui va s’établir en opposition, d’une certaine manière, à cette automatisation et à cette machinisation par l’outil lui-même ou par nous-mêmes qui allons essayer de nous maintenir au niveau de ces outils ?
Apolline Guillot : Il y a effectivement l’option d’une révolution par le faire, mais assez peu de latitude est laissée à cela, puisque la norme implicite de l’intelligence artificielle, c’est une norme moyenne. On n’a pas vraiment voix au chapitre, par exemple en entreprise quand on travaille avec de l’IA. Je pense qu’une bonne manière pour que l’intelligence artificielle débouche sur une revalorisation du travail bien fait, ce serait vraiment d’en donner, on va dire, la conception aux opérateurs, aux personnes qui l’utilisent, c’est-à-dire qu’il y ait un moment réflexif de dialogue, de discussion autour de ce qu’on veut faire. Ce sont notamment les travaux d’Yves Clot ou de Christophe Dejours aujourd’hui sur l’importance du dialogue professionnel et l’importance non pas simplement d’être dans l’artisanat du bel objet, parce que c’est une vision qui peut être un peu idéalisée de ce qu’est le travail bien fait, on peut avoir du travail bien fait sur une chaîne de montage, on peut avoir du travail bien fait dans une entreprise. Il faut juste accepter d’avoir effectivement ce qu’on appelle un pluralisme des normes, se dire qu’on n’a pas tous la même vision de ce que veut dire faire de l’excellent travail, faire du travail bien fait, il faut qu’on se pose pour argumenter, même si on n’est pas d’accord, pour essayer d’affiner, d’affûter cette intelligence normative qui fait vraiment l’être humain. C’est-à-dire pas seulement je fais mon travail, mais je fais mon travail bien parce que voilà ce que j’estime être du bon travail, c’est ce raisonnement implicite.
Cyrille Chaudoit : Ça sera aussi corrélé, sinon dépendant, de la demande sur le marché. Il y a aussi bien une demande pour des produits manufacturés qui sont faits à la chaîne, qu’il existe une demande…
Apolline Guillot : Il n’y aura pas de demande sur le marché pour du travail bien fait, à partir du moment où on est capable de se contenter – et je pense que nous sommes très forts à cela – d’avoir des choses médiocres mais qu’on va nous dire indispensables. On va nous dire que c’est comme ça que vont les choses, c’est le monde tel qu’il est.
Cyrille Chaudoit : Si on fait le parallèle avec la consommation de biens courants, on constate qu’il existe sur le marché énormément de produits médiocres, on vient de passer le scandale de Shein, etc., il n’y a pas que du textile, la bouffe c’est pareil, la malbouffe et compagnie, mais il y a quand même une forme de régulation, qui n’est pas forcément équilibrée, avec une consommation plus raisonnée, plus responsable. Pourquoi en serait-il autrement ?
Apolline Guillot : C’est la segmentation du marché, globalement. Ceux qui peuvent se permettre le font. Il y aura peut-être des garde-fous.
Cyrille Chaudoit : Ça va créer des déséquilibres et des injustices, c’est ce que tu veux dire ? Tout le monde ne pourra pas se le permettre.
Apolline Guillot : Exactement. C’est effectivement bien de dire « ce n’est pas bien d’utiliser l’IA, ce n’est pas bien de ne pas réfléchir au travail bien fait, etc. », mais si je me fais maltraiter au travail, que j’ai envie d’y passer le moins de temps possible, c’est aussi ça. On va dire que ce sont des inégalités qui vont être exacerbées dans l’accès qu’on aura à un travail intéressant, un travail réfléchi, et je ne me fais pas de souci pour les plus privilégiés qui trouveront, de toute façon, une manière de transformer l’IA en opportunité de créativité, de lien social, etc. Je pense que le problème c’est aussi qu’on va priver une partie de la population de cette faible marge de manœuvre, de fierté et d’estime personnelle qui est le fait de bien faire son travail, de réfléchir.
Mick Levy : On en avait parlé spécifiquement avec Anne Alombert, Cyrille tu dois te souvenir de cet épisode [14], je vous invite vraiment à le réécouter parce qu’elle a énormément travaillé sur le sujet de la prolétarisation du travail intellectuel, créatif avec l’IA.
Je pense qu’il y a une autre caractéristique qu’on n’a pas trop évoquée jusque-là, qu’il est intéressant d’observer aussi, c’est la rapidité. On dit qu’aucune autre technologie n’est arrivée aussi rapidement que l’IA à la fois dans nos vies personnelles mais aussi dans l’entreprise. Sur le terrain, tous les jours, je vois des gens qui se sentent un peu en détresse de par la rapidité à laquelle l’IA arrive, ça amène aussi de la peur. Je vois aussi beaucoup le fait qu’il y a le sentiment de ne pas avoir le temps de digérer ce qui est en train de se passer, de digérer les évolutions finalement de la société, du travail, à cause de cette rapidité. Est-ce que tu le constates aussi ? Est-ce qu’on peut penser qu’il y a effectivement une forme d’accélération du temps et d’accélération du temps du travail ? Et pardon, je vais prendre un mauvais mot français, mais je l’ai comme ça, est-ce que ça vient se collapser finalement, c’est un choc, se choquer. Ce n’est pas le bon mot effectivement, se télescoper avec tous les sentiments dont on parle, là au travail ?
Apolline Guillot : Je pense que la lenteur c’est une super bonne question. Ça va faire un moment qu’on a des agents conversationnels et on a tous constaté que c’est une technologie que les gens se sont appropriés très vite dans leur vie personnelle, très vite plein de gens l’ont utilisée pour rigoler. Je pense que, pendant un moment, on a eu l’espoir qu’on allait enfin pouvoir filouter un peu, on s’est dit « on va faire nos trucs comme ça, personne ne va le savoir » et je pense qu’il y a une grosse déception. GPT 3 est sorti en novembre, fin novembre, le 30 novembre 2022, c’était mon anniversaire en plus !
Cyrille Chaudoit : Ton anniversaire est dans deux jours ! On enregistre un 28 novembre les amis ! Bon anniversaire un petit peu en avance, même si ça ne se fait pas.
Mick Levy : Bon anniversaire à Apolline et à ChatGPT du coup !
Apolline Guillot : Je partage une date avec ChatGPT. Je voulais dire que ça arrive fin novembre, cadeaux de Noël, etc., et en mars, dès mars, on a la première grosse étude de Goldman Sachs qui dit « 300 millions d’emplois menacés » et c’est un peu la gueule de bois. On a eu un temps d’appropriation assez rapide et des tâtonnements, Yann Fergusson le dit bien, le Shadow AI, le fait que les gens l’utilisent vachement dans leur travail. Le problème c’est que les entreprises ont essayé d’aller à la même vitesse en se disant « nous aussi on va développer l’IA, nous aussi on va déployer l’IA » et ça crée effectivement souvent un effet de panique dans l’entreprise. Je ne sais pas si vous êtes d’accord avec moi, mais il y a une pathologisation de la résistance à l’IA. On va dire que ce sont des gens qui sont paniqués, ce sont des gens qui ont peur. En fait, on va dé-rationnaliser, on va rendre ça complètement irrationnel alors qu’il y a des raisons très rationnelles, on l’a dit quand même pendant une demi-heure, de craindre l’arrivée de l’IA au travail. Je pense que c’est la réaction, un petit peu le décalage entre la rapidité d’appropriation par les gens qui n’avaient pas forcément mesuré que ça allait avoir un impact sur leur vie quotidienne et le fait que les actionnaires, les patrons, les managers se disent « maintenant il faut faire de l’IA ». Je dirais qu’il y a une espèce pas d’accélération, mais peut-être d’inconséquence à se dire « on va la déployer parce qu’il le faut » et je pense qu’il y aura un effet rebond, il y aura une baisse de productivité, je pense qu’il y aura un retour en arrière dans pas mal de boîtes. On ne se rend pas forcément compte de la perte de qualité que ça va avoir sur le travail et sur la coopération. On voit notamment que ça dégrade quand même les liens relationnels au travail qui sont un peu l’angle mort de la taylorisation et de l’organisation scientifique du travail. On considère les gens comme des petits individus, mais on a du mal à mesurer le gain de valeur que créée la coopération.
Cyrille Chaudoit : D’ailleurs certaines études commencent à revenir un petit peu sur ce point-là, à la fois sur la mesure de ce gain de valeur qui n’est pas du tout acquis, deuxièmement sur le fait d’avoir supprimé des emplois pour les remplacer par l’IA, même si c’est parfois l’arbre qui cache une forêt un petit peu différente, qui finissent par réembaucher, etc. J’ai coutume de dire qu’ils confondent vitesse et précipitation comme par le passé avec les précédentes vagues de transformation, digitales ou autres. Le temps de l’entreprise reste néanmoins ni le temps des faiseurs de technique ni de l’usager. Je suis un tout petit peu plus modéré sur la rapidité avec laquelle les entreprises ont déployé des IA par rapport à ce que tu disais. Concrètement, pour être en contact permanent avec ces entreprises-là, beaucoup d’entre elles sont tout juste en train de les déployer, elles font des essais, des machins, etc.
Apolline Guillot : Je crois que les trois quarts des projets de déploiement d’IA sont toujours au stade de pilote, il n’y a pas encore eu de passage à l’échelle parce qu’il n’y a pas vraiment de retour sur investissement.
Cyrille Chaudoit : C’est ça. C’est un peu plus rapide que les vagues précédentes, mais ça reste quand même une temporalité un peu différente entre les individus et l’entreprise. On ne va pas parler de cela dans cet épisode, ce n’est pas le but.
Pour conclure, puisque cet épisode parle de notre rapport au travail qui changerait avec l’apparition de l’IA, mais, quelque part, l’IA est un peu un prétexte pour questionner plus globalement, finalement, ce que ça vient convoquer comme peur chez nous. J’ai un peu l’impression que toutes ces questions sur le travail sont surtout le reflet d’une peur un peu plus large qui serait celle de dé-substantialiser notre existence, parce que, justement, cette brique technique est là, que nous avons voulue, puisque c’est quand même l’humain qui l’a conçue.
Qu’est-ce que t’évoque, pour conclure, cette idée plus large que ça vient convoquer, cette idée de dé-substantialisation, de perte de sens de notre existence globalement ?
Apolline Guillot : Je pense que le problème de l’humanité c’est qu’il n’y a pas de substance. On n’a pas, en filigrane, une preuve pour dire qu’on est humain et je pense que c’est un peu le problème de l’humanité depuis la nuit des temps : se demander ce qui me différencie de ce qui n’est pas moi. Qu’est-ce qui me différencie des animaux, qu’est-ce qui me différencie de mes dieux, de mes demi-dieux, qu’est-ce qui me différencie de mes machines ?
Cyrille Chaudoit : L’amour.
Apolline Guillot : Cette question de la différenciation est hyper intéressante. À mon avis, l’intelligence artificielle nous fait voir à quel point nous sommes tolérants à renoncer à l’inconfort qui constitue l’existence humaine pour avoir une forme de confort ou de prédictibilité de nos existences : pourquoi vais-je demander à ChatGPT de prévoir mes vacances, par exemple, alors que c’est plutôt marrant de prévoir ses vacances ? Parce qu’il y a une zone d’inconfort, une zone d’inconnu que j’essaye de réduire au maximum, de réduire l’arbitraire. Je veux réduire tout ce qui, dans ma vie, est arbitraire. Mais l’arbitraire, c’est aussi ce qui est au cœur du libre arbitre, c’est-à-dire à quel point la liberté dans ce qu’elle peut avoir de dangereux, la responsabilité dans ce qu’elle peut avoir de risqué, va venir se choquer ou se collapser, pour utiliser ce mot, avec la sécurité, la prévision. On a toutes ces technologies, qu’on appelle les cosy tech, c’est-à-dire rester dans un monde qui soit le plus prévisible, le plus confortable possible. Je pense que c’est une question vraiment beaucoup plus fondamentale que celle de l’IA. C’est celle de la tolérance à l’inconfort qu’on est capable d’accepter et que, aujourd’hui, on est peut-être de moins en moins capable d’accepter, que ce soit dans la friction avec autrui....
Mick Levy : Et c’est peut-être ça qui va faire qu’on va donner de plus en plus de choses à l’IA, ce qui renvoie à la question de la responsabilité que tu évoquais tout à l’heure.
Cyrille Chaudoit : Ce que je trouve intéressant dans ce dernier propos, c’est que, finalement, à vouloir sortir de notre condition humaine par l’objet technique, nous nous déshumanisons nous-mêmes, d’une certaine manière, si je réinterprète ton propos.
Mick Levy : Très joli.
Apolline Guillot : C’est exactement cela.
Cyrille Chaudoit : Merci beaucoup Apolline. On adorerait rester et continuer. On va prendre date pour se tailler une bavette ou continuer autour d’un café, expression aussi du 20esiècle, j’en utilise quelques-unes, histoire de rappeler mon âge, ma condition.
Merci Apolline. Je vous invite à noter, les amis, la parution du dernier ouvrage d’Apolline qui s’appelle Hors de soi – Déjouer la tyrannie de l’attention, ce n’est pas tout à fait branché IA, mais je pense qu’il y a quand même des parallèles à faire, ça sort en janvier 2026, nous sommes en novembre 2025. Si vous nous écoutez après, courez vite dans les bonnes librairies et si vous nous écoutez dès maintenant, dès le 4 décembre, je crois, la diffusion de cet épisode, commandez-le pour Noël, tout simplement.
Mick Levy : Le retour vers le futur que tu nous as fait !
Cyrille Chaudoit : Tu as vu !
Mick Levy : Prends ta date, mets-là sous le bras et va acheter le livre.
Cyrille Chaudoit : On rappelle également tout simplement Philonomist, ce site qui est intéressant, dont la promesse est la philo en entreprise, je ne l’avais pas précisé en intro, mais tu n’es pas que philosophe, tu axes aussi tes travaux sur l’entreprise et c’est ce qui nous a amenés à nous poser beaucoup de questions depuis le terrain, ce qui se passe dans ces entreprises avec l’IA.
Merci Apolline encore une fois.
À très bientôt, tu l’as compris, et restez avec nous pour le débrief, Mick et moi-même allons débattre, je pense, des grandes idées partagée par Apolline dans cet épisode.
Apolline Guillot : Merci beaucoup. Bonne journée.
Mick Levy : Merci Apolline. À bientôt. Au revoir.
Voix off : Trench Tech – Esprits critiques pour Tech Éthique.
Le Debrief
Mick Levy : « Il serait fou de vouloir être totalement rationnel », j’aime bien cette citation parce que je suis moi-même quelqu’un de très rationnel. C’est une citation qui me ramène un peu à ce qu’il faut faire. Elle nous a bien montré que notre rapport au travail était fait, finalement, de beaucoup trop de rationalité, par le découpage de tâches, le découpage de compétences, la manière dont elles sont ensuite évaluées. Du coup, on se frotte à l’IA sur ces mêmes notions et ça mène, un petit peu, à de l’incompréhension et aussi de mal-être, parfois, au travail.
Cyrille Chaudoit : D’une part, parce que se confronter à l’IA sur des compétences et des tâches qui sont découpées à ce point-là, forcément on est tout de suite battu. On peut aussi questionner la raison pour laquelle notre conception de la chose est faite comme ça et c’est un héritage de la révolution industrielle, c’est-à-dire que ce n’est pas naturel de voir le travail comme étant une succession de tâches très découpées, etc.
Mick Levy : Elle a parlé de raisonnement fonctionnaliste et j’ai bien aimé son optimisme, elle a dit elle-même qu’avec sa vision optimiste on pourrait peut-être avoir un moment copernicien, une espèce de recap de la manière dont on voit l’humain au travail avec beaucoup moins de rationalité appliquée à l’humain au travail, qui permettrait une vraie différenciation avec l’IA.
Cyrille Chaudoit : Révolution au sens propre du terme. Tout à fait. J’ai un regret, Mick : dans cet épisode on n’a pas évoqué, justement à ce sujet, Bernard Stiegler [15]. Quelque part, tu l’as à peine évoqué à travers la figure d’Anne Alombert, évidemment. Bernard Stiegler faisait le distinguo entre emploi et travail, il disait que toute cette machinisation et cette automatisation allaient finir par détruire de l’emploi mais pas le travail, parce que le travail représente plutôt les facultés qui sont les nôtres. Typiquement lorsque tu aimes, par exemple, cultiver ton jardin, eh bien tu emploies tes facultés, tu travailles, c’est du travail, tu passes du temps, c’est du labeur. En plus, si c’est un jardin partagé, c’est contributif à l’échelle de la société. Il faut donc faire le distinguo entre l’emploi et le travail et peut-être que demain le travail sera autre chose que cette succession de tâches, qui peuvent être automatisées, mais plutôt l’expression de facultés, donc, in fine, une véritable émancipation.
Mick Levy : Ce que tu dis me rappelle les captchas.
Cyrille Chaudoit : Je ne vois pas tout de suite le rapport.
Mick Levy : On te demande, dans l’image, où sont les bus, c’est plus ou moins visible et puis tout est flou, ça devient compliqué. En fait on travaille, on le sait, on travaille pour éduquer les IA.
Cyrille Chaudoit : On se fait berner, on se fait exploiter !
Mick Levy : Finalement, est-ce que les captchas ne sont pas notre nouveau jardin ? Je m’égare complètement !
Cyrille Chaudoit : Heureusement Bernard Stiegler n’est pas là parce qu’il t’aurait plié en deux. Non, je ne suis pas sûr.
Quoi qu’il en soit, cet échange nous fait quand même réfléchir sur notre condition humaine, parce que, on l’a dit en conclusion, l’idée du travail et de l’IA c’est peut-être ce qui vient cristalliser un petit peu toute notre réflexion, aujourd’hui, sur notre rapport à cette technologie et vient peut-être dévoiler une forme de crainte plus globale qui est celle de ne pas avoir de sens à sa vie. J’ai beaucoup aimé l’introduction d’Apolline qui nous dit que le travail c’est finalement se garantir le mérite d’être dans la société, d’avoir une place dans la société. Et là, en quelque sorte, on est en train de scier la branche sur laquelle on est assis tant qu’on considère le travail comme tel et, in fine, que nous reste-t-il pour justifier de notre existence ?
Mick Levy : C’est marrant, ça me rappelle aussi qu’elle a dit : « Le grand problème de l’être humain, de l’humanité, c’est de ne pas porter en lui le fait d’être humain ». Nous sommes constamment à essayer de nous prouver notre propre humanité, du coup, nous nous retrouvons à comparer notre propre performance à des machines, à des animaux ou à des choses qui, finalement, ne sont du tout pas constituées comme nous. Cela ramène à ce qu’elle a appelé la honte prométhéenne : il ne sert à rien, il est totalement vain de chercher à suivre la performance de la machine qui, par essence, est faite pour nous battre sur les tâches pour lesquelles elle a été conçue.
Cyrille Chaudoit : Ça m’a fait plaisir qu’elle cite justement cette honte prométhéenne et Günter Anders, que j’aime rappeler régulièrement mes conférences, dans le podcast aussi, j’en suis désolé, vous devez en avoir marre.
Mick Levy : Tu as tes marottes. On a tous nos marottes !
Cyrille Chaudoit : J’ai cette marotte, parce que ce qui me fait flipper avec ça, c’est que j’ai l’impression que nous sommes des Shadoks, c’est-à-dire qu’on tourne en boucle : pour nous émanciper, on crée des techniques qui, finalement, nous coupent cette capacité à nous émanciper, à trouver notre place dans la société, du coup, on va répondre par des boucles itératives. J’ai l’impression qu’on tourne en rond, j’ai l’impression que c’est insoluble et c’est un petit peu ce que nous nous sommes déjà dit dans ce podcast : on se pose les mêmes questions depuis des millénaires.
Mick Levy : Il y a de ça. Une dernière idée me marque aussi, c’est celle de notre responsabilité : on cherche constamment, a-t-elle dit, de par notre inconfort face à l’inconnu, à réduire l’arbitraire, à réduire l’inconnu et, quelque part, à déléguer notre responsabilité aux machines, au point de dire que quand il y aura des agents IA qui vont complètement automatiser, qui osera s’opposer à l’IA ? Qui osera dire « l’IA a tort malgré toutes sa statistique, toute sa puissance de calcul, etc., et je prends la responsabilité de m’opposer à elle parce que je crois que ce n’est pas la bonne décision ». Ça va nous mener à des choses complexes sur ces sujets de responsabilité, de prise de décision aussi dans l’entreprise.
Cyrille Chaudoit : Tout à fait moi, ça m’évoque deux dernières choses. Ça m’évoque l’épisode avec Olivier Sibony [16] qui nous disait « quand tu es face à un juge ou un chirurgien et que l’IA te dit de faire ça, est-ce que, en dernier recours, tu préfères quand même faire confiance à la décision humaine parce que c’est un humain ? », premièrement. Et deuxièmement, ça me renvoie à mon quotidien et j’imagine aussi le tien depuis des années, de l’entreprise, des managers et des décideurs qui prennent de moins en moins de décisions, avec un concept relativement galvaudé et très discuté : dans un monde incertain, on doit prendre des décisions et c’est ce qu’on attend de la part d’un décideur, d’un manager, et c’est de plus en plus difficile de prendre des décisions. Et là, on en prend de moins en moins en s’abritant justement derrière un outil qui prétend, ou dont on prétend, qu’il sera capable de mieux prédire toutes les hypothèses pour nous éviter de nous casser la gueule.
Mick Levy : C’est rigolo. On est en train de remonter l’épisode à l’envers, ça me fait penser à ce qu’elle disait au tout début sur le fait d’y mettre du sien, d’occuper pleinement son emploi et de le faire, quelque, part avec le cœur.
Cyrille Chaudoit : Soyons nous-mêmes.
Voix off : Trench Tech.
Cyrille Chaudoit : Et voilà. Merci d’avoir passé ce moment avec nous pour interroger ce que notre rapport à l’IA dit de notre vision de l’humain, du travail, et du sens que l’on donne à l’un comme à l’autre.
Nous espérons que nous vous aurons permis d’exercer votre esprit critique pour une tech plus éthique et à présent qu’allez-vous en faire ? À vous de prolonger la chaîne. Partagez cet épisode autour de vous, faites connaître Trench Tech en nous mettant cinq étoiles sur les plateformes de podcast ou levez un pouce et cliquez sur la cloche sur YouTube pour vous abonner à notre chaîne.
Avant de nous quitter, je repense à cette phrase de William Morris, évoqué dans cet épisode. Dans l’une de ses conférences, « La société de l’avenir » datée de 1887 : « Le bonheur consiste en l’exercice plaisant de nos facultés », une phrase que n’aurait pas reniée Bernard Stiegler je pense, alors travaillez moins, exercez davantage vos facultés et portez-vous bien. À la prochaine.
Voix off : Trench Tech – Esprits critiques pour Tech Éthique.