Plongée dans la « révolution » ChatGPT avec Asma Mhalla

Peux-tu te présenter rapidement ?

Je m’appelle Asma Mhalla. Je suis spécialiste des enjeux politiques et géopolitiques de la technologie, donc toutes les questions de rapports de forces, de projections de puissances, la question démocratique qui est posée aujourd’hui par la technologie en général, par les réseaux sociaux ou l’intelligence artificielle par exemple. Et j’enseigne à Sciences Po, à Columbia et à Polytechnique et puis je travaille aussi sur un sujet de thèse sur ces questions-là.

Comment expliquer l’explosion du sujet médiatique de l’IA ?

L’IA n’est pas un sujet nouveau et, en particulier, ce qui s’est passé à partir de fin 2022 autour de ChatGPT [1] et la version qu’ils avaient mise en bêta test, c’est-à-dire la version 3.5. Technologiquement, ce sont des modèles qui préexistent mais qui n’étaient pas mis à disposition parce que les grands géants technologiques ou les startups qui travaillaient sur ces questions-là avaient toujours cette appréhension du bad buzz ou du risque réputationnel, parce que les antécédents, jusque-là, de ce type de ce qu’on appelle les IA génératives n’étaient pas vraiment probants. On se souvient, par exemple, de la mésaventure de Microsoft en 2016.
En fait, ce n’est pas tant une révolution technologique en tant que telle, que plutôt une adoption de ces nouveaux usages-là qui interpelle et qui pose, de ce point de vue-là, beaucoup de questions.

Est-ce que ChatGPT renouvelle le débat autour de l’IA ?

Je vous le disais, il n’y a pas tellement d’éléments nouveaux dans ce qui est en train de se passer, si ce n’est le partage à l’échelle, l’accoutumance que ça crée et la pénétration de ces usages-là dans nos quotidiens.
Ce qui me gêne dans la façon dont le débat public est posé c’est que, en fait, ce sont toujours les mêmes questions qui sont posées. On avait exactement les mêmes questions en 2016/2017 qui était la vague précédente d’un super hype autour de l’IA et les questions sont toujours les mêmes.

Est-ce que l’IA c’est danger ou progrès ? La fin de l’humanité ?, oui ou non ?

En fait, il y a un enfermement binaire d’un sujet beaucoup plus complexe que cela. L’IA est déjà là. La révolution, si tant est qu’il y en ait eu une, a déjà eu lieu, elle est derrière nous ou, plus exactement, elle est en cours. La façon, pourtant, dont le débat est posé, parce que sans doute mal maîtrisé, c’est comme si tout d’un coup, un jour on aura une IA, en plus, dans l’imaginaire et dans le fantasme, des IA fortes [2], ce qu’on appelle aujourd’hui les AGI [Artificial General Intelligence], les IA générales qui seraient là, qui viendraient, qui détruiraient tout, qui auraient une pensée par elles-mêmes complexe, autonome et, en plus, plutôt malveillante à l’endroit de l’humanité et de notre civilisation.
C’est extrêmement fantasmé, c’est très loin de la réalité et surtout, c’est très vieux comme débat et c’est très binaire.

Concrètement qu’est-ce que ChatGPT ?

ChatGPT est une IA conversationnelle, disons générative, elle génère du texte et du contenu en fonction des prompts, c’est-à-dire des consignes que vous allez mettre dans la machine. Elle va, en fait, aller regarder tout ce qu’elle a emmagasiné en base et en entraînement pour vous sortir la ou les réponses les plus pertinentes possible.

En quoi l’IA est-elle une technologie duale ?

Toutes les technologies aujourd’hui dites numériques sont souvent des technologies duales, c’est-à-dire qu’elles sont à la fois civiles et militaires. En l’occurrence, dans le cas ChatGPT, ce n’est pas encore documenté, on n’a pas encore le recul nécessaire, mais ça peut potentiellement être aussi un outil de campagne de désinformation, d’ingérence, de manipulation des opinions. En fait, vous avez tout d’un coup à disposition un outil qui est capable d’amplifier ce qu’on faisait déjà sur les réseaux sociaux, c’est-à-dire des campagnes de manipulation personnalisées et ciblées à la fois. ChatGPT [1] peut devenir comme les réseaux sociaux. Initialement, les réseaux sociaux étaient des espaces, sympas, de geeks, égotiques, confortables, pratiques. Au tout départ, au jour zéro de Facebook, je crois que personne ne s’était dit « ça va devenir une arme de guerre », or, ça l’est !

Est-ce que l’IA est un danger pour l’emploi ?

Sur la question du travail, parce que c’est celle qui aujourd’hui, avec la question de l’éducation, cristallise un peu toutes les hystéries, les peurs, les craintes, les fantasmes. Attention ! Ce narratif-là de l’IA qui va détruire tous vos jobs vient, en fait, d’un courant philosophique, idéologique, qui a commencé à essaimer d’ailleurs à Oxford, qui s’appelle le long-termisme [3], que, d’ailleurs, je n’utilise pas exactement comme ça, et qui a commencé à distiller dans les opinions publiques occidentales, dès 2016, l’idée que les IA allaient détruire tous les jobs et que ça allait être la catastrophe. Ce sont des narratifs qui sont repris en partie par exemple par Sam Altman [4] qui réfléchit à des systèmes post-capitalistes, de taxation quand il n’y aura plus de job pour tout le monde.
Maintenant, de façon beaucoup plus concrète, les IA existent déjà. Ce qu’on observe c’est que oui, vous allez avoir une nécessité de repenser vos jobs, c’est clair, avec une montée en compétence de plus en plus sur des fonctions à haute valeur ajoutée ou, en tout cas, complémentaires.
L’IA peut aussi être un atout pour aller très vite dans les premières tâches en amont, sur de la consolidation de documentation, etc.

L’IA est-elle une arme de désinformation ?

Oui, ça peut l’être. Aujourd’hui, en effet, ce sont des usages civils sympathiques, c’est marrant, etc. Encore que la première salve de photos, de contenus qui avaient été déployés, c’était même pour dire « attention, c’est une façon de nous projeter dans un futur dystopique », donc peut-être aussi, de façon pédagogique de l’éviter dès aujourd’hui. Macron ramassant des poubelles ou Trump arrêté dans une ambiance insurrectionnelle, c’est aussi pour dire « projetons-nous ». D’ailleurs c’est un peu ce qu’avait fait, et c’est très intéressant, l’Ukraine, au tout début du conflit, quand elle avait senti que l’émotion en Occident commençait à baisser, donc l’adhésion à la cause ukrainienne commençait à baisser, c’était la fameuse vidéo de Paris bombardée. En fait, ça nous projette dans de l’émotion immédiate. Est-ce que ça un intérêt pédagogique sur le long terme ? Je n’en sais strictement rien, en tout cas c’est le discours qui est apporté sur ces questions-là.
Plus généralement, l’IA au sens général est un enjeu géopolitique de rivalité stratégique entre les États-Unis et la Chine absolument fondamental.

Quel est le positionnement de l’Europe sur l’IA ?

C’est une posture normative, donc c’est de la régulation. Le grand texte européen qui est en discussion aujourd’hui c’est l’AI Act [5], qui va donner, si vous voulez, les limites, les gardes-fous à ces usages de l’IA en général, donc des IA génératives en particulier, avec une gradation en fonction de l’évaluation du risque.
L’Italie par exemple, à échelle nationale, a interdit ChatGPT sous la houlette, disons les prérogatives du RGPD [6], du non-respect des données personnelles et, en particulier, l’usage de ChatGPT pour le public mineur donc de moins de 13 ans, etc. Aujourd’hui ChatGPT [1] peut donc aussi être bloqué.
Après, surtout, c’est la question beaucoup plus large : que sont ces outils-là et comment développe-t-on des gouvernances plus ouvertes, c’est-à-dire avec de l’accès aux jeux de données, l’accès à la façon dont les algorithmes sont construits pour comprendre et pouvoir faire de la rétro-ingénierie ou, a minima, comprendre comment c’est construit ou dans quelle intention politique c’est construit ? Quand vous mettez des filtres, ça veut dire que vous avez fait des choix. Si vous avez fait des choix, vous avez renoncé à d’autres choses, donc selon quels critères et pour quelles fins ? C’est ça qui est, en fait, fondamentalement démocratique, c’est-à-dire avoir accès aux arbitrages politiques qui prédéfinissent votre conception technologique.

Quel est l’enjeu géopolitique actuel de l’IA ?

Aujourd’hui, ce qui est vraiment au cœur de la rivalité stratégique entre les États-Unis et la Chine ce sont en particulier des IA à usage militaire. On parle notamment du développement, demain, des armes autonomes par exemple, mais pas que. C’est aussi, en fait, toute la façon dont les armées vont organiser leurs chaînes de commandement autour de la data, de données multi-domaines, interarmées, etc. En fait, c’est potentiellement ce qu’on appelle une révolution dans les affaires militaires. C’est cela que peut apporter aujourd’hui l’IA appliquée à la chose militaire. Et, évidemment, elle est au cœur de la crispation sino-américaine.

Il y a deux sujets aujourd’hui d’un point de vue géopolitique qui cristallisent la rivalité entre les deux : la question climatique et la question technologique. La rivalité est aujourd’hui fondamentalement cristallisée sur ces deux questions-là. Sur la question des IA militaires, le premier qui aura développé ça prend évidemment le dessus sur l’autre. Et attention, parce que les IA à usage militaire posent des questions juridiques et éthiques fondamentalement énormes et qui ne sont aujourd’hui que très peu, voire pas encore préemptées par la communauté internationale. Ce sont potentiellement des armes de destruction massive avec des risques d’erreur, parce qu’on voit que la fiabilité des IA n’est pas du tout optimale et elles peuvent, en fait, vraiment créer des problèmes absolument énormes et surtout des dégâts collatéraux importants.
Voilà où on en est aujourd’hui sur la vraie question des IA.

Faut-il s’inquiéter de la croissance de l’IA et de cette « guerre » technologique ?

Je ne m’inquiète jamais de rien. Il faut prendre les choses comme elles sont et les traiter froidement, c’est-à-dire rationnellement : quelle est, toujours, la balance des coûts/bénéfices et qu’est-ce qu’on fait ? C’est très simple, la question, en réalité, n’est pas du tout compliquée. Si on ne sait pas quelle société on veut construire, évidemment que toutes ces questions vont inquiéter, vont devenir anxiogènes. En fait, on prend toujours le sujet à rebours et c’est comme si la question technologique drivait toutes nos réflexions politiques et encore, en plus, on n’a pas tout à fait les réflexions politiques. Il faut inverser les choses. C’est à nous de définir ce que nous voulons comme société. Si, demain, on veut une société sans guerre, sans armes autonomes, il faut se mettre en ordre de bataille d’ores et déjà. Vous voyez bien que les luttes de puissance, les luttes de pouvoir sont telles qu’aujourd’hui il y a une confiscation de ces sujets-là.

La France a-t-elle un poids face à ces deux superpuissances ?

Non. C’est une question de rapports des forces. Ce n’est pas la France qui va régler le problème. La question c’est : est-ce qu’il va y avoir une communauté internationale qui se mobilise ? Pour l’instant, typiquement, sur la question des IA militaires, le sujet éthique c’est-à-dire quelles sont les règles du jeu, qu’est-ce qu’on développe et qu’on ne développe pas, par exemple, a été bloqué par la Russie et les États-Unis et la Chine ne se prononçait pas tellement jusque-là, parce que ce sont des instruments de projection de puissance.
Les choses ont l’air de bouger depuis quelque temps, puisqu’en février 2023 on a eu le premier sommet, aux Pays-Bas, sur l’éthique des IA militaires, d’ailleurs porté beaucoup par les États-Unis et ce n’est pas anodin, ce n’est pas du tout pour faire joli ou faire juste de la communication politique, c’est surtout pour avoir le leadership normatif. Celui qui possède la norme technologique décide, en fait, de la vision du monde, décide des valeurs, décide des règles du jeu qui sont encapsulées dans la technologie. Donc ce n’est pas du tout un hasard que maintenant, précisément dans ce timing-là et dans cette recomposition géopolitique-là, les États-Unis reprennent en main la conversation internationale sur l’éthique des IA militaires. Et vous voyez bien que l’Europe est relativement absente pour l’instant.

L’Europe peut encore décider de qu’elle fait au sein de ses frontières. On le voit avec le Digital Services Act, le Digital Markets Act [7], l’AI Act [5] et tous les Acts qu’on a. Elle peut dire « au sein de nos frontières, voilà les règles à respecter » et c’est déjà très bien en soi. Mais est-ce qu’elle a aujourd’hui une capacité, une force de frappe dans des négociations internationales où, en fait, le multilatéralisme n’existe plus tellement, puisque c’est une confrontation entre deux géants, États-Unis et Chine ? Ça reste à voir. Pour l’instant on n’a pas fait la preuve du concept.

Pour ou contre la législation européenne sur l’intelligence artificielle ?

Pour.

Pour ou contre la fin du travail et la mise en place d’un revenu universel ?

Contre.

Pour ou contre l’interdiction de ChatGPT dans les universités ?

Contre l’interdiction.