Ce que l’IA fait au travail Entre la chaise et le clavier

Qu’est-ce que l’intelligence artificielle fait au travail ? Est-ce qu’elle le remplace, notamment celui effectué par les jeunes développeurs ? Est-ce qu’elle le déplace ? Est-ce qu’elle sert de paravent à des plans tout à fait classiques de licenciements ?

Voix off : Next, Next, Next, Next.

Juan Sebastian Carbonell, voix off : On essaie de dire qu’il faut que l’intelligence artificielle utilisée, par exemple dans des processus d’embauche de salariés, soit moins discriminante. Mais je pense que la question doit être posée en amont, c’est-à-dire est-ce que ce type d’intelligence artificielle devrait exister tout court ? Est-ce qu’on devrait déléguer ce genre de décision à une intelligence artificielle ?

Mathilde Saliou :  Qu’est-ce que l’intelligence artificielle fait au travail ? »
Depuis la sortie de Midjourney et de ChatGPT, depuis que les technologies d’IA générative ont rencontré un large succès, les prévisions de remplacement des travailleuses et des travailleurs par des outils informatiques se sont multipliées. Les études s’accumulent, mais elles semblent quelquefois dire tout et son contraire : l’IA permettrait de gagner en productivité, à moins qu’elle se contente de déplacer la charge de travail vers d’autres personnes, en amont ou en aval des chaînes de production ; ce serait la faute de l’IA si toutes sortes de domaines traversaient des vagues plus ou moins intenses de licenciements, à moins que ce ne soit, en fait, qu’une bonne excuse, un paravent pour des décisions déjà prises par les dirigeants d’entreprises.

Je suis Mathilde Saliou, autrice de L’envers de la tech – Ce que le numérique fait au monde et journaliste chez Next. Vous écoutez Entre la chaise et le clavier, épisode 3, « Ce que l’IA fait au travail », avec Juan Sebastian Carbonell.

Pour y voir un peu plus clair, je me suis dit qu’il fallait discuter avec Juan Sebastian Carbonell, qui est sociologue du travail et des relations professionnelles. Postdoctorant à l’Université de Liège, il est aussi spécialiste de ce que les transformations numériques font aux organisations et aux relations de ceux qui les composent. En septembre dernier, il a publié Un taylorisme augmenté – Critique de l’intelligence artificielle. Le livre, dont la couverture est recouverte de racks de serveurs bleus et violets, est paru aux éditions Amsterdam.
Au beau milieu du mois de novembre, alors qu’il passait à Paris, je lui ai donné rendez-vous dans un espace de coworking. Ce type d’endroit est très pratique pour rencontrer mes invités, mais ça impose aussi, parfois, de composer avec quelques aléas. En l’occurrence, nous nous sommes vus attribuer une pièce qui semblait tout à fait adaptée à nos besoins, si ce n’est que ses hautes fenêtres donnaient sur l’avenue de l’Opéra. Devant l’épaisseur du double vitrage, je me suis dit que ça ne poserait aucun problème. Mais vous entendrez, au fil de l’entretien, que je me suis un peu trompée et j’en suis désolée [Mathilde n’a commis aucune erreur, on entend simplement quelques sirènes de pompiers et autres éléments de circulation dans le fond de l’enregistrement, NdT].
Mais revenons à Juan Sebastian Carbonell. Très tôt dans son livre, il aborde la question de l’éthique et de la régulation de l’IA. Il explique qu’au lieu de cadrer, même de poser des limites, ces deux axes participent au déploiement d’outils dont il critique le fonctionnement. La première question qui m’est venue est donc comment le sociologue explique-t-il ce paradoxe ?

Juan Sebastian Carbonell : La question de la régulation apparaît évidemment comme une première solution à la déferlante de l’intelligence artificielle aujourd’hui. Je m’étais penché un peu là-dessus en me demandant si c’est une solution face aux dérives potentielles de l’intelligence artificielle. On en entend tous les jours dans les médias, précisément sur les adolescents qui, maintenant, se confieraient beaucoup trop à l’intelligence artificielle, les problèmes de santé mentale, mais également, ce que j’évoque plus loin dans le livre, les problèmes d’exploitation ou encore les problèmes d’exploitation de ressources naturelles cette fois-ci. Il y a tout un tas de problèmes posés par l’intelligence artificielle aujourd’hui et la question qu’on pourrait se poser c’est : est-ce qu’il faut tout simplement une régulation législative, qui existe déjà, notamment dans le cadre de l’Union européenne, sur l’intelligence artificielle ? Ou faudrait-il plutôt penser une intelligence artificielle éthique, guidée par des principes moraux, etc. On parle aussi, à un moment donné, d’intelligence artificielle vertueuse, trustworthy est le terme qui est utilisé dans les règlements européens, c’est-à-dire à laquelle on peut faire confiance et tout ça.
À mon avis, la question est mal posée dans le sens où, tout d’abord, il faut se poser la question de qui est à l’origine de ces régulations-là, qui rédige, y compris ces régulations, ces lois, ces règlements, etc., qui vont encadrer l’intelligence artificielle. Souvent, dans les commissions d’experts qui siègent justement pour établir ou rédiger ces régulations, on trouve aussi des représentants des entreprises de la tech ou des entreprises industrielles, etc. Ça pose justement la question de savoir pour qui sont rédigées ces régulations et quel est l’objectif même de ces régulations. Les personnes qui siègent dans ces commissions sont à la fois juges et partie, comme j’essaie de le dire, c’est-à-dire qu’elles rédigent ces régulations non pas pour limiter le développement de l’intelligence artificielle ou pour encadrer, voire pour interdire ses applications les plus problématiques, comme la vidéosurveillance, la reconnaissance faciale, etc., mais tout simplement, là encore, pour créer ou pour réguler un marché de l’intelligence artificielle qui est en train de se former.
Cela étant dit, il faut savoir que la régulation est une approche possible. Dans d’autres pays, notamment aux États-Unis, la question de la régulation se pose différemment puisqu’il n’y a presque pas de régulation, ou plutôt la dérégulation est la façon de réguler ce marché pour faire exister ce marché de l’intelligence artificielle.
Il y a un dernier problème avec la question de la régulation, qui est celui du rôle de cadrage, y compris cognitif, de ces régulations, dans le sens où ça pose d’emblée le fait que ces technologies devraient exister alors qu’il y a tout un tas de technologies d’intelligence artificielle qui, pour moi, ne devraient pas exister. J’essaie de dire qu’l faut penser cette question au-delà du dilemme du tramway [1]. Ce dilemme du tramway est un dilemme très connu en logique et en morale, qui consiste à dire qu’un tramway a deux options, écraser un bébé ou un vieillard, est-ce que c’est mieux qu’il écrase un bébé ou un vieillard, ou est-ce que c’est mieux qu’il écrase deux personnes que trois personnes, etc. C’est un dilemme qui se pose notamment aujourd’hui dans l’intelligence artificielle. On essaie de dire qu’il faut que l’intelligence artificielle utilisée par exemple dans des processus d’embauche de salariés soit moins discriminante. Je pense que la question doit être posée en amont, c’est-à-dire est-ce que ce type d’intelligence artificielle devrait exister tout court ? Est-ce qu’on devrait déléguer ce genre de décision à une intelligence artificielle ? C’est vrai que ce sont des choses moins dramatiques que le dilemme du tramway, mais ce sont des problèmes tout aussi importants.
Il s’agit aussi de sortir un peu de ce cadre cognitif, très limitant, de la régulation ou de l’éthique de l’intelligence artificielle.

Mathilde Saliou : Pour se poser ce type de question, il faut se faire une idée des acteurs en présence, des types d’argumentaire qui, peut-être, empêchent l’émergence des questionnements que suggère Juan Sebastian Carbonell. En la matière, je pense qu’il faut citer au moins deux positionnements : celui selon lequel l’IA va nécessairement permettre de gagner en productivité, de travailler de manière plus efficace, de dégager plus de profits, et puis celui selon lequel l’IA fait peur, car elle remplacerait nécessairement les travailleurs. À cette deuxième logique, je peux déjà ajouter la nuance portée par des sociologues comme Antonio Casilli [2] et Paola Tubaro [3] , dont les travaux montrent que souvent, au lieu de remplacer des travailleurs, l’intelligence artificielle déplace les tâches effectuées vers d’autres profils, parfois plus précaires.
Je demande à Juan Sebastian Carbonell si ces catégories suffisent à décrire les argumentaires en présence, et surtout dans quelle mesure elles mènent à la question d’un taylorisme augmenté.

Juan Sebastian Carbonell : Par exemple, la question de l’IA qualifiante est quelque chose qui est très présent dans les discours des entrepreneurs de la tech, des gouvernements, etc., pour justement faire comprendre, ou plutôt essayer de faire croire aux travailleurs – principalement auxdits partenaires sociaux, c’est-à-dire aux syndicats – que l’intelligence artificielle ne peut être que bénéfique et qu’il faut tout simplement penser à un bon cadre réglementaire pour pouvoir l’appliquer. C’est quelque chose que l’on trouve notamment dans le rapport Villani, de 2018, sur l’intelligence artificielle [4] où il parle précisément de cette IA qualifiante, je ne me souviens plus exactement du terme, mais c’est quelque chose de ce style-là, disant que l’intelligence artificielle ne pourra qu’être bénéfique à la population. C’est la première option qui consiste à dire, de façon assez unilatérale ou univoque, que tout le monde pourra en tirer bénéfice, parce que les technologies c’est du progrès, le progrès technologique c’est du progrès social.
L’autre option, que vous avez évoquée, est celle qui est, en quelque sorte, le miroir inversé ou le revers de la monnaie de cette vision-là, c’est une vision un peu plus catastrophiste qui consiste à dire « en fait, l’intelligence artificielle c’est du chômage technologique de masse pour la plupart des travailleurs et des travailleuses », ce sont des échéances qui sont sans cesse repoussées. Il y a eu un célèbre rapport dont on ne parle plus trop, parce que, évidemment, les prévisions ne se sont pas confirmées, publié en 2013, si je ne me trompe pas, de Frey et Osborne [5] qui, là encore, faisait une prévision de 43 % d’emplois supprimés dans les prochaines années. C’est quelque chose qu’on entend aussi de la bouche de patrons de la tech. Il y a quelques semaines, un des grands patrons de la tech disait qu’un col blanc sur deux, notamment dans les métiers peu qualifiés, entry level, c’est-à-dire les jeunes embauchés, allait être supprimé.
Là encore, on est dans l’hyperbole et dans la promesse technologique, dans l’idée que ça promet de tels gains de productivité que les entreprises pourront se débarrasser d’une très grande partie de leur main-d’œuvre et des choses comme ça.

Mathilde Saliou : C’est alimenté par des chiffres comme la chute du nombre de jeunes développeurs qu’on commence à constater, qui fait beaucoup de débats. Je ne sais pas comment vous l’interprétez.

Juan Sebastian Carbonell : Absolument. Je sais que, en plus, la dernière version de ce discours-là, ce sont justement des chiffres qui insistent beaucoup sur le fait que, là encore, il y aurait une baisse des recrutements non seulement des développeurs, mais là encore, des jeunes entrants dans le marché du travail, notamment dans les métiers des cols blancs. Ça fait énormément débat à la fois dans la façon de compter tout cela mais aussi la signification de ces chiffres-là. Un rapport de causalité est établi avec l’intelligence artificielle, alors que, disons, il y a deux phénomènes parallèles, mais qui ne sont pas forcément liés directement l’un à l’autre.

Mathilde Saliou : Corrélation n’est pas causalité. Ça pourrait être d’autres raisons explicatives.

Juan Sebastian Carbonell : Le problème c’est qu’on est en deçà de la corrélation. Je n’ai pas dit « corrélation » parce que, justement, on est en deçà de la corrélation. Un rapport qui s’appelle Canaries in the coal mine, parle justement des jeunes entrants dans le marché du travail comme des canaris dans les mines de charbon qui alertent d’un problème. Bref, tout cela pour dire que les choses sont beaucoup plus compliquées.
À mon avis, on peut adresser deux critiques à cette analyse.
La première, c’est que corrélation n’est pas causalité, c’est-à-dire qu’il y a, de fait, une baisse de recrutement des jeunes entrants dans le marché du travail, selon quelques statistiques. On peut voir cela non pas comme étant le produit du changement technologique, de l’intelligence artificielle ou que sais-je, mais tout simplement d’un ralentissement économique de façon plus générale, dans le cadre des États-Unis avec la guerre tarifaire, la guerre commerciale avec la Chine, etc. C’est la première analyse et c’est la première critique qui est formulée à cette analyse sur le changement technologique.
L’autre critique, l’analyse de Antonio Casilli, qui est un auteur, un sociologue, collègue, qui travaille surtout sur le microtravail, donc le travail nécessaire à l’entraînement des intelligences artificielles et qui dit que la suppression de certains emplois n’implique pas la disparition de ces emplois dans l’absolu. Il dit que, peut être, on ne cherche pas là où il faut regarder, c’est-à-dire que l’intelligence artificielle ne supprime pas tant d’emplois qu’elle en crée, notamment des emplois de microtravailleurs qui sont bien souvent créés dans des pays du tiers-monde, notamment à Madagascar, puisque la France sous-traite beaucoup ce travail de traitement des algorithmes, d’entraînement des algorithmes et aussi de fonctionnement des algorithmes tout simplement. dans des pays du tiers-monde, notamment Madagascar.
À mon avis, il faut vraiment nuancer ce discours sur les canaris dans les mines de charbon.
Je n’ai toujours pas répondu à votre première question parce qu’on a fait une longue parenthèse sur cette dernière actualité. Il faudrait peut-être mentionner une dernière position, celle du prix Nobel de l’année dernière, Daron Acemoğlu [6] et du prix de la Banque de Suède de cette année, Philippe Aghion [7] qui sont dans le même courant de pensée ou, du moins, ils traitent de l’intelligence artificielle et du changement technologique avec la même approche qui est celle de la polarisation du marché du travail, plutôt polarisation de la structure de l’emploi.
Pour résumer très rapidement, ils disent que, d’un côté, l’intelligence artificielle peut bénéficier à certaines tâches non répétitives, plutôt les métiers qui sont composés de tâches non répétitives, en gros toutes les tâches cognitives, j’ai envie de dire journaliste, mais c’est un peu plus compliqué que ça, ou gestion RH, chercheur, sociologue, des choses comme ça. Et que ça bénéficierait aussi aux métiers manuels mais non répétitifs ; un exemple qu’ils donnent, c’est, je crois, conducteur de bus et on peut très bien comprendre que la conduite d’un bus est une tâche non répétitive.
Ils disent que tous les métiers qui sont composés de tâches répétitives sont ceux qui sont le plus exposés aux changements technologiques.
Il y aurait une polarisation puisqu’on aurait, d’un côté, les métiers très hautement qualifiés, de l’autre côté les métiers très faiblement qualifiés mais non répétitifs.
C’est cette position dominante que l’on trouve surtout, là encore, dans le rapport de Philippe Aghion sur l’intelligence artificielle [8], c’est cette position qui est défendue, c’est cette position qui est manifestée, celle de la polarisation ; en gros, il y a des gagnants et des perdants, une grande inégalité se creuse et la solution serait donc une bonne policy, une bonne politique publique de formation de la main-d’œuvre, de protection des salariés, etc.

Mathilde Saliou : Mais vous, vous n’êtes pas d’accord avec ce dernier point non plus. Qu’est-ce que le taylorisme et en quoi l’IA rejoue-t-elle la partition du taylorisme ?

Juan Sebastian Carbonell : Je suis en désaccord avec les trois options que j’ai formulées à l’instant, à la fois la vision un peu utopique de qualification, d’augmentation de la productivité. Parfois, les patrons, les employeurs promettent même une amélioration de l’ergonomie grâce aux nouvelles technologies, c’est quelque chose que j’observe aussi beaucoup dans l’industrie automobile. En gros, en quelque sorte, il y a un compromis : on change l’organisation du travail, on introduit des nouvelles technologies et les syndicats l’acceptent aussi parce que ça impliquerait de meilleures conditions de travail, même si c’est beaucoup plus compliqué que ça, c’est ce que je vais développer dans un instant.
La deuxième option que j’ai mentionnée, c’est celle du chômage technologique de masse.
La troisième, c’est celle de la polarisation, une vision un peu plus subtile, évidemment, puisque c’est l’œuvre de chercheurs, prix de la Banque de Suède aujourd’hui et tout ça.

L’option que je défends est plutôt celle de l’hypothèse d’un taylorisme augmenté, qui est le titre du livre, ou taylorisme numérique si vous voulez. En ce moment, tout un tas d’autres auteurs et autrices défendent un peu cette hypothèse-là, en s’alimentant notamment d’enquêtes de terrain, dans tout un tas de secteurs, qui montrent plutôt qu’au lieu de polarisation, au lieu de chômage de masse ou au lieu de, tout simplement, une qualification, il y a une tendance à la déqualification, à la dépossession des travailleuses et des travailleurs par les nouvelles technologies, notamment par l’intelligence artificielle. Je reprends un peu ces travaux et j’essaie de formuler un cadre plus général qui serait appliqué non seulement au travail manuel, d’exécution, mais aussi aux professions intellectuelles, qui est celle de la dépossession machinique. Un auteur que j’aime beaucoup, un collègue qui s’appelle Alessandro Delfanti, qui a travaillé sur Amazon, donc le travail des ouvriers pickers/packers, préparateurs de commandes, manutentionnaires dans les entrepôts d’Amazon. Il parle des algorithmes chez Amazon justement comme des outils de dépossession machinique des travailleurs. En gros, pour le dire vite, un préparateur de commande ou une préparatrice de commande a en mémoire l’emplacement des marchandises, des colis dans l’entrepôt. Il ou elle peut se guider à partir de cette connaissance tacite et organiser le travail comme il ou elle lui semble, donc avoir un peu plus d’autonomie, un peu plus de manœuvre, négocier, y compris ce qu’on appelle des micro-pauses dans le cadre du travail. Sauf que les algorithmes, puisqu’ils exproprient le travailleur ou la travailleuse de cette de cette connaissance tacite, c’est-à-dire qu’elle est numérisée, cette fois-ci, dans le système informatique de l’entreprise, il y a cette dépossession machinique. On a donc un travail beaucoup plus prescrit par les algorithmes sur les travailleuses et les travailleurs des entrepôts logistiques.
Je reprends cette idée de dépossession machinique et j’essaie de l’appliquer aussi à des métiers qualifiés. Un métier m’intéresse tout particulièrement dans l’ouvrage, c’est celui de traducteur ou traductrice, et ça va à l’encontre de cette hypothèse de la polarisation. Traducteur/traductrice est précisément un métier intellectuel, cognitif, non routinier, parce que traduire un texte c’est souvent la production d’un output unique. Et pourtant, l’organisation du travail, aidée par les algorithmes, fait que le travail de traductrice et de traducteur se voit déqualifié. Les traductrices, les traducteurs et aussi les associations professionnelles de traducteurs disent qu’ils sont réduits aux tâches de post-édition qui consistent à corriger un texte qu’ils ou elles n’ont pas produit. On trouve aussi dans tous les rapports des associations professionnelles de traducteurs une baisse des tarifs, c’est-à-dire qu’un des objectifs de l’utilisation de ces algorithmes, c’est une déqualification aussi pour réduire aussi le coût du travail : on ne paye plus le travail en entier de traduction et de correction, etc., de production d’un texte traduit, mais on va payer seulement une partie de ce travail-là qui va être la post-édition.
Voilà à peu près comment j’essaye de penser cette idée d’un taylorisme augmenté.

J’essaie d’expliquer en quoi l’intelligence artificielle, telle qu’elle existe aujourd’hui, est différente de l’intelligence artificielle dans ses versions précédentes. Il y a beaucoup de débats pour savoir ce qu’est l’intelligence artificielle. Dans sa version actuelle, beaucoup de chercheurs, dans les années 90, ne considéraient pas qu’elle faisait partie de la famille de l’intelligence artificielle. C’était considéré tout simplement comme de l’informatique. À mon avis, c’est une position tout à fait valable. l’intelligence artificielle est une catégorie qui a été imposée par tout un tas d’acteurs industriels et scientifiques pour des technologies qui sont extrêmement disparates et dont les effets sont extrêmement divers.
J’écrivais cela pour expliquer en quoi l’intelligence artificielle dite symbolique, qui fonctionne sur la base d’un système de règles explicites, est différente de l’intelligence artificielle dite connexionniste, qui est la version contemporaine, et qui fonctionne sur la base de données qui lui sont fournies et qu’elle utilise ensuite pour établir elle-même un fonctionnement, des règles, etc. En gros, les règles ne lui sont pas fournies à priori, c’est elle-même qui les déduit, etc.
Dans sa version précédente, il y avait aussi des efforts pour exproprier le savoir des travailleuses et des travailleurs, notamment les plus qualifiés, à travers ce qu’on appelait les systèmes experts. Beaucoup d’ingénieurs, beaucoup de médecins aussi, de professionnels de la santé, explicitaient les normes de fonctionnement d’une profession et ensuite le logiciel, donc, le système expert, fonctionnait sur la base de ces règles, de conditions remplies : si telle condition est remplie, alors le système doit agir, etc.
Dans sa version plus contemporaine, justement, ça va au-delà de ce système-là, dans le sens où, comme je l’ai expliqué, pour le cas de la traduction ou encore dans le cas des préparateurs de commandes dans les entrepôts logistiques, il y a vraiment l’idée qu’on va exproprier cette dimension beaucoup plus subtile de la connaissance des travailleurs et des travailleuses, cette connaissance tacite qui est difficile à rendre explicite. À mon avis, c’est ce qui fait à la fois la force et qui est à la fois l’aspect un peu plus pernicieux de l’intelligence artificielle aujourd’hui : l’intelligence artificielle, à travers son fonctionnement sur la base de captation de données et de choses comme ça, réussit à s’approprier tous les tours de main des travailleuses et travailleurs qu’elles et ils utilisent y compris pour rendre leur travail moins pénible, pour garder aussi un peu d’autonomie dans le cadre du travail, elle rend ainsi le travail moins autonome, plus prescrit donc plus taylorisé.

Mathilde Saliou : Dans quelle mesure le contrôle évolue-t-il en entreprise ? Qu’est-ce que l’intelligence artificielle permet en termes d’expansion du contrôle, peut-être des niveaux managériaux sur les travailleurs ? Est-ce que c’est la même chose aussi selon qu’on est dans un travail de manutentionnaire ou de traduction, col blanc, etc., ou pas ?

Juan Sebastian Carbonell : La fin du livre est consacrée à la question, qui a aussi fait couler énormément d’encre, du management algorithmique qui, là encore, est un terme qui peut être aussi contesté pour tout un tas de raisons, je n’y reviendrai pas aujourd’hui, je m’intéresse plutôt à la question des limites du management algorithmique.
En m’appuyant sur des travaux déjà existants sur les systèmes de contrôle, comme on les appelle, j’essaye d’historiciser la question du management algorithmique. C’est-à-dire que j’essaye de me départir des discours très présents aujourd’hui, y compris chez certains chercheurs en droit du travail et aussi de ce que disent tout un tas de médias sur le fait que notre patron serait devenu un algorithme. En gros, en quelque sorte, on réifie ces algorithmes. On contribue, en quelque sorte, à la déresponsabilisation de nos employeurs. Nos employeurs sont ceux qui décident d’implémenter ces technologies-là. Ce sont y compris nos employeurs qui, parfois, conçoivent ces systèmes d’intelligence artificielle. À mon avis, c’est faux d’avoir cette position qui consiste à dire « notre patron est un algorithme », alors que notre patron est toujours un patron, mais il utilise un algorithme pour accroître son contrôle sur l’organisation du travail.
Cette idée-là permet de placer le management algorithmique et l’intelligence artificielle dans cette histoire du management et du contrôle sur les organisations du travail.
Je rappelle, en m’appuyant sur la littérature existante, notamment un auteur que j’aime beaucoup qui s’appelle Richard Edwards, qu’il y a eu un contrôle direct, comme on l’a appelé, notamment à la fin du 19e siècle/début du 20e siècle. C’était un système de contrôle où les contremaîtres dictaient le travail directement aux employés avec un système de gestion de main d’œuvre plus ou moins disciplinaire, plus ou moins autoritaire. Il y a eu ensuite, dit Edwards, un système de contrôle technique où l’organisation du travail, ou plutôt le contrôle sur la main-d’œuvre et sur la façon d’accomplir le travail étaient intégrés au système technique de l’entreprise, notamment dans les milieux industriels. Par exemple, il n’y a pas besoin d’un contremaître pour dicter à quelqu’un qui travaille sur une chaîne de montage les différentes opérations, la chaîne elle-même impose son rythme de travail en quelque sorte.
Edwards dit qu’il y a un troisième système de contrôle, le système de contrôle bureaucratique. Cette fois-ci, ce n’est plus la technologie ou le système technique de l’entreprise, mais plutôt tout ce qui est normes, règles dans les grandes entreprises du tertiaire, qui va dicter la façon de contrôler le travail des salariés. Tout ce qui est reporting, feuille de temps, des choses comme ça quivont faire en sorte que les salariés vont devoir se mettre au travail d’une certaine façon en particulier.
Le contrôle algorithmique, etc., viendrait parachever ces systèmes-là.
Je formulerais peut-être un peu différemment les choses que ce que je dis déjà dans le livre, dans le sens où, pour moi, le management algorithmique n’est pas un nouveau système de gestion de la main-d’œuvre, mais plutôt, tout simplement, la continuation de systèmes de gestion de la main-d’œuvre déjà existants. En disant que le management algorithmique ne fait que faire différemment ce que les contremaîtres ou l’entreprise faisaient déjà, c’est-à-dire dicter aux salariés une certaine façon de faire sans que les salariés puissent décider, de façon autonome, la façon de travailler ou de faire leur travail concrètement.

Mathilde Saliou : Je ne sais plus sur quoi vous travaillez maintenant, à priori, les résultats ne sont pas publiés, mais l’étape du management, ce sont aussi des salariés. Est-ce qu’on peut déjà dire quelques petites choses sur ce que l’IA fait au management plutôt qu’à ceux qui sont en bas de la chaîne hiérarchique dans une entreprise ?

Juan Sebastian Carbonell : Il y a trois choses, à mon avis, que le management algorithmique fait aux salariés.
La première, c’est diriger, c’est vraiment dicter le travail aux salariés, leur dicter une certaine façon de faire sans que les salariés puissent concrètement décider, à l’inverse, ce qu’ils peuvent faire. Par exemple, un livreur à vélo suit les instructions qu’une application Deliveroo ou autre pourra lui dicter.
L’autre, je ne me souviens plus exactement du triptyque que j’utilise dans le livre, c’est qu’une des dimensions les plus importantes dans le management algorithmique, c’est précisément la question de l’évaluation des salariés, des travailleurs, puisque ça implique des salariés et des non-salariés. Il y a cette dimension très importante du rôle du client, ou des usagers, qui vient aussi, en quelque sorte, jouer en partie ce rôle de contremaître, puisque les évaluations des clients peuvent être aussi très importantes, y compris pour l’avenir du travail pour une personne. Si une personne obtient des évaluations trop négatives pour tout un tas de raisons, en fait il ou elle peut être soit licenciée, soit déconnectée d’une plateforme.
Et le dernier élément qui, à mon avis, est très important et sur lequel on n’insiste pas assez puisque tous ces discours sur la qualification, l’ergonomie, etc., l’oublient, c’est la question de la surveillance des salariés. Les outils d’intelligence artificielle sont particulièrement nocifs sur cette dimension-là. J’ouvre le livre en mentionnant le cas d’Amazon France, qui a été condamnée, justement, pour avoir utilisé un système d’intelligence artificielle trop invasif sur la performance des salariés, et c’est quelque chose que l’on trouve aujourd’hui de façon généralisée, y compris dans des métiers qualifiés. Je cite, non pas dans ce livre, mais dans le précédent, le cas du Daily Telegraph, un journal britannique où la direction avait installé des capteurs de mouvement ou des logiciels sur les ordinateurs des journalistes pour mesurer aussi le temps de présence des journalistes devant leur écran. C’est quelque chose que l’on trouve aussi dans le cas de la banque Barclays, qui est une banque d’investissement.
Donc, là encore, ça ne concerne pas que les métiers de préparateur de commandes dans la logistique ou ouvrier sur une ligne de montage, mais ça concerne aussi ces métiers qualifiés. Ça montre aussi que, au-delà de la question de la polarisation, des métiers très hautement qualifiés sont aussi affectés de façon négative par l’intelligence artificielle.

Mathilde Saliou : Comment peut-on soit résister, soit contester au minimum le développement de ce type d’outil ?

Juan Sebastian Carbonell : C’est une question qui me travaille beaucoup, la question des résistances, la question du refus, parce que, là encore, à mon avis, la question est souvent mal posée dans le sens où, par exemple, on défend face à l’intelligence artificielle la question de la régulation. La question de la régulation est souvent présentée comme un bouclier face à cela. Mais, comme j’ai insisté plus tôt dans l’entretien, ce n’est pas assez pour tout un tas de raisons, pour les raisons que j’ai évoquées, le fait que les régulateurs sont juges et partie, il y a tout un tas de problèmes. Beaucoup de syndicalistes me disent qu’il faut pouvoir négocier, mieux négocier la question de l’intelligence artificielle. Pour moi, c’est bien, mais, encore une fois, ce n’est pas assez. Il y a un projet, qui s’appelle Dial-IA [Dialoguer sur l’IA] [9], pour fournir des outils à des représentants du personnel pour pouvoir mieux négocier l’introduction de l’intelligence artificielle dans le travail. Là encore, c’est bien, mais ce n’est pas assez parce qu’on reste prisonnier dans la logique que ces technologies sont inévitables. On reste un peu dans une sorte de défaitisme, dans une sorte de déterminisme qui consiste à dire que ces technologies-là existent, donc on ne peut rien d’autre, faire face à elles, que négocier soit une application mitigée, avec moins d’effets négatifs, soit négocier les retombées de l’application en termes de gains de productivité, des choses comme ça.
Je conclus l’ouvrage en adressant un peu des critiques à ces questions-là et en formulant une option plus positive qui est celle du luddisme [10], un exemple historique qui me tient très à cœur. Les Luddites étaient des ouvriers au début du 19e siècle, surtout entre 1811 et 1813 même s’il y a eu des répercussions beaucoup plus tard, qui, face à l’industrialisation et à l’introduction des premières machines industrielles, ont fait le choix de détruire ces machines-là.

Mathilde Saliou : Au Royaume-Uni.

Juan Sebastian Carbonell : Au Royaume-Uni, en Angleterre pour être exact. Ces ouvriers luddites ont fait le choix de détruire des machines, donc de ne pas se contenter de négocier l’introduction de ces machines. Bien sûr, cela a été accompagné d’autres formes d’action comme des pétitions au Parlement ou la destruction de matières premières, l’incendie des maisons des patrons, donc des méthodes plutôt radicales. L’idée était qu’ils ne rejetaient pas le changement technologique dans l’absolu, mais ils rejetaient plutôt une trajectoire technologique particulière, c’est-à-dire celle qui déqualifiait les travailleuses et les travailleurs.

Mathilde Saliou : C’est important de les présenter comme ça parce que souvent, quand on parle de luddisme aujourd’hui, on considère que c’est un rejet en bloc de la technologie. Vous dites que ce n’est pas exactement comme ça que les choses se sont passées.

Juan Sebastian Carbonell : Pas du tout. En fait, la postérité a été très condescendante avec les Luddites, et ça m’étonne pas parce que l’histoire est en général écrite par les vainqueurs. Un historien qui m’est très cher, qui s’appelle Edward Palmer Thompson, a consacré énormément d’écrits aux Luddites. Il dit précisément qu’il faut réhabiliter les Luddites. Tous les travaux d’historiographie sur les Luddites montrent que ce n’étaient pas juste des ouvriers réactionnaires, conservateurs, qui n’auraient rien compris au changement technologique, qui n’auraient pas compris que leur intérêt était d’accepter les nouvelles machines, mais montrent plutôt que ces Luddites, en détruisant des machines, défendaient un autre changement technologique, ou plutôt l’idée qu’un autre changement technologique est possible. Pourquoi j’appelle donc à un renouveau luddite ? Je n’appelle pas forcément à détruire les machines, mais à se dire qu’un autre changement technologique est possible. Il faut se départir de l’idée que l’IA est inévitable ou même que l’IA est nécessaire. Il est possible de concevoir une perspective technologique qui refuse l’intelligence artificielle comme une technologie dont on n’aurait pas forcément besoin.
De fait, il existe aujourd’hui ce que j’appelle un luddisme diffus, c’est-à-dire un rejet plutôt individuel de l’intelligence artificielle par tout un tas de gens, soit des salariés, soit des utilisateurs et utilisatrices. Je pense que c’est bien, ça montre qu’il y a, de fait, un refus aussi des figures des Big Tech, de Zuckerberg, Elon Musk, Jeff Bezos pour tout ce qu’ils représentent, notamment aussi leur volte-face par rapport à Trump, etc., leur alliance, maintenant, avec ce gouvernement extrêmement autoritaire. Il y a donc un refus, mais, à mon avis, ce refus individuel n’est pas suffisant parce qu’en plus il est d’ordre moral qui consiste à dire « moi je suis peut-être meilleur parce que je n’utilise pas cette technologie », alors que je pense qu’il faut penser les choses de façon collective, du moins dans le cadre du travail ; penser la question de la technologie non pas d’un point de vue individuel mais d’un point de vue collectif, donc que les syndicats se saisissent de cette question au-delà de la question de la simple négociation des retombées de l’intelligence artificielle. Se dire qu’il est possible, un, de refuser l’intelligence artificielle telle qu’elle existe aujourd’hui et deux, penser des alternatives technologiques, d’autres technologies qui seraient meilleures, pas forcément de l’intelligence artificielle mais autre chose.

Mathilde Saliou : Parce que si on reste au refus individuel, c’est un peu comme l’écologie des petits gestes.

Juan Sebastian Carbonell : Absolument, le parallèle avec l’écologie est juste. On peut refuser de prendre l’avion, c’est très bien, mais il faut penser collectivement à la question de la sortie d’une économie carbonée, du tout avion ou des choses comme ça. Je travaille maintenant sur la logistique, notamment sur le fret aérien, c’est effroyable de voir à quel point il y a une explosion du fret aérien en lien avec le commerce en ligne. Refuser individuellement l’avion, c’est très bien, mais ça ne résout pas le problème de la façon dont justement l’économie dans son entier est pensée autour de l’avion, notamment le rôle de plus en plus important du commerce en ligne dans le développement du fret aérien.

Mathilde Saliou : Quel est le dernier bug que vous avez rencontré dans vos usages numériques ? Ou la dernière friction numérique que vous avez eue à régler ?

Juan Sebastian Carbonell : Je travaille beaucoup avec Teams, malheureusement, j’ai envie de dire. Je déteste cet outil parce que ça ne marche jamais. Au-delà de cette doléance personnelle, ça pose tout un tas de questions sur le rôle des nouvelles technologies au travail et le rôle des nouvelles technologies dans notre quotidien. J’ai travaillé avec un collègue, Tommaso Pardi, sur l’introduction ce qu’on appelle le digital manufacturing donc tout ce qui est connectivité dans l’industrie et dans l’industrie automobile en particulier et comment ces technologies étaient vues comme ce que nous appelons « des solutions à la recherche d’un problème ». C’est-à-dire que beaucoup de ces technologies sont présentées d’abord comme des solutions avant de penser à leur application concrète. Je pense que, dans notre quotidien, nous sommes entourés de choses comme ça et l’explosion de l’intelligence artificielle en est la preuve puisque, maintenant, tout marketing doit penser une application d’intelligence artificielle avant de penser si c’est quelque chose d’utile, si c’est quelque chose de souhaitable et si c’est, tout simplement, quelque chose qui fonctionne.

Mathilde Saliou : Quelle est la solution que devait vous apporter Teams à la base ?

Juan Sebastian Carbonell : C’est un outil de télétravail. Il faut penser qu’aujourd’hui le télétravail est devenu incontournable alors qu’il y a quatre ans on pouvait très bien s’en passer.

Mathilde Saliou : Vous auriez pu faire l’entretien en question ou l’appel que vous vouliez faire en direct.

Juan Sebastian Carbonell : En direct. Toutes les enquêtes montrent que le télétravail a intensifié le travail, justement, avec beaucoup d’effets négatifs, je renvoie aux travaux de Marianne Le Gagneur [11] qui est une collègue de l’Université de Liège. Toutes les enquêtes statistiques sur le télétravail, notamment de la Dares [Direction de l’Animation de la recherche, des Études et des Statistiques Politiques de l’emploi et Formation professionnelle], montrent que le télétravail a dégradé les conditions de travail avec une pénalisation en particulier pour les femmes ; il y a des plaintes sur les troubles musculo-squelettiques, des choses comme ça. Du coup, je regrette un monde où on avait moins de télétravail et plus de réunions en physique. Je pense que nous étions peut-être moins efficaces, mais le travail était plus agréable.

Mathilde Saliou : Intéressant comme conclusion.
Où se logent les aspects les plus agréables du travail ? À écouter Juan Sebastian Carbonell, on se rend bien compte que ce n’est pas forcément dans l’efficacité la plus poussée, mais quelquefois plutôt dans la lenteur, dans les aléas inhérents à nos interactions déconnectées. Cela pose évidemment question dans la mesure où cette fameuse efficacité se trouve quand même au cœur des promesses de tout un pan de nos outils numériques.
Et vous, qu’est-ce que vous en pensez ? Dites-le nous en commentaire, sauvegardez cet épisode, faites le circuler surtout à vos amis qu’ils soient technophiles ou techno-critiques. Cela permettra de leur rappeler qu’entre la chaise et le clavier, comme devant la tablette ou l’écran d’un smartphone, il y a plein de gens avec des idées passionnantes à apporter au débat sur nos mondes connectés. Et nous, chez Next, on veut les entendre, on veut les voir, on veut apprendre à les connaître.
Entre la chaise et le clavier est un podcast écrit et tourné par moi, Mathilde Saliou. Il a été réalisé par Clarisse Horne et produit par Next. Pour nous retrouver, direction next.ink. Abonnez-vous. Votre soutien financier est essentiel pour que nous puissions continuer de déployer nos analyses des enjeux technologiques au quotidien. À très vite !