Justin Vaïsse : Bonjour à tous et à toutes. Je suis Justin Vaisse, je suis le fondateur et directeur général du Forum de Paris sur la Paix [1].
Dans cette deuxième saison de notre podcast, nous explorons ensemble les grands défis de notre époque et les pistes qui s’ouvrent à nous pour réinventer la diplomatie dans un monde qui change, c’est cela, en quelque sorte, le slogan du Forum de Paris sur la Paix. Aujourd’hui, on se penche sur un sujet crucial que le forum a abordé depuis 2020 à peu près, depuis cinq ans, six ans même, qui est l’intelligence d’artificielle et, plus précisément aujourd’hui, les aspects de gouvernance de l’intelligence artificielle. Au forum, nous avons travaillé à la fois sur les rapports Nord-Sud autour de l’intelligence artificielle, sur la protection des citoyens, notamment l’enfance, on y viendra tout à l’heure avec toi, Yann, mais aussi sur ces sujets de gouvernance et cela, en effet depuis six ans.
L’IA redessine, en partie au moins, les rapports de force. Je vous passe une introduction trop longue parce que j’ai envie d’en venir à la conversation, mais on va parler de la question de la souveraineté, on va parler de la question de la concurrence entre pays, entre puissances, et aussi de la protection des citoyens. Le thème d’aujourd’hui, pour être plus précis, est le suivant : « De la souveraineté à la guerre cognitive, gouverner l’IA. »
Pour en discuter j’ai deux invités, je suis très content d’avoir réussi à les capter, notamment Asma parce qu’elle est citoyenne du monde, elle est politologue, spécialiste de la géopolitique de la tech, donc Asma Mhalla, enseignante à Sciences Po et vous partez, Asma, à la NYU, très vite, pour enseigner et être fellow à la NYU sur les questions pas seulement technologiques mais aussi de souveraineté, notamment de souveraineté européenne et de démocratie. Votre dernier livre c’est Cyberpunk – Le nouveau système totalitaire, vous allez donc nous éclairer sur ces nouveaux rapports de force et nous expliquer aussi les raisons de ce titre-là.
J’ai aussi le grand plaisir d’accueillir à nouveau Yann Bonnet, notre directeur-adjoint des initiatives politiques, chez nous, au forum, ancien cofondateur et directeur général délégué du Campus Cyber [2]. Il nous aidera à décrypter notamment les vulnérabilités de ces infrastructures, les stratégies de résilience et, plus généralement, les enjeux disons géopolitiques de l’IA.
Merci beaucoup à tous les deux d’être là et je voulais arriver très vite aux premières questions et à la conversation. Je commencerai avec vous, Asma. Il y a cette idée que les grandes compagnies de la tech, les Big Tech, se sont imposées comme des acteurs géopolitiques à part entière et qu’elles seraient devenues, en quelque sorte, elles-mêmes des États. Il y a une autre vision qui consiste à dire pas du tout. En fait, elles restent subordonnées aux États dont elles sont les instruments de puissance et il n’y a pas tant d’érosion du monopole étatique que cela. Que faut-il penser ? Est-ce que ce sont des nouveaux États ou alors est-ce que sont des instruments des États ?
Asma Mhalla : Et si la vérité était justement plus complexe que ça.
La première chose et c’est un peu notre prisme à nous, vu d’Europe, c’est d’avoir une vision beaucoup trop systémique et Dieu sait que j’aime les systèmes et Dieu sait que je suis dans une tradition structuraliste, mais quand même, il faut apporter un tout petit peu de complexité, en tout cas de distinction. On ne va pas du tout avoir la même analyse quand on est en Europe que quand on est Américain ou Chinois. Je m’explique.
Les géants technologiques, aujourd’hui, se sont en effet constitués. On peut d’ailleurs revenir sur la frise chronologique, de comment elles étaient de simples startups à aujourd’hui, unités géopolitiques au sens de Raymond Aron [3] plein et entier du terme. Quand vous êtes des Big Tech américaines ou chinoises, vous êtes en effet une extension de la puissance, même des outils et des instruments de projection de puissance de votre État et c’est ce qu’on a très bien vu à partir du tournant d’Obama, 2015/2016, ça a été extrêmement évident, ça a été l’une des bascules bien qu’elle ait été latente bien avant. On pourrait remonter à 2001, au 11 septembre, et, à mon sens, c’est véritablement là que ça a commencé.
Quand vous êtes, aujourd’hui, au service de ce que j’ai appelé, dans mon travail en tout cas, un big state, c’est-à-dire un état puissance et qui va tirer sa puissance depuis ces géants technologiques et pour eux, dans cet aller-retour, à ce moment-là vous avez une nouvelle figure du léviathan, un léviathan à deux têtes, Big Tech/big state, qui reconfigure en effet les questions d’État mais aussi les questions de souveraineté. C’est ce qu’on voit aujourd’hui côté chinois et américain : on a deux big states aujourd’hui Amérique/États-Unis et Chine.
Se pose ensuite la question du reste du monde.
Pour l’Europe, qui n’est franchement pas un big state, d’ailleurs on pourra y revenir, là se pose la question de la substitution. Et on a, il me semble, une espèce d’impensé en termes de théorie politique pure en Europe qui est : qu’est-ce que la souveraineté ? On n’a jamais défini ce concept et elle n’est, aujourd’hui, plus simplement territoriale, elle devient aussi fonctionnelle. Et une fois qu’on a dit ça, on n’a encore rien dit. Sur quelles couches, aujourd’hui, des goulots d’étranglement géostratégiques, du cyberespace, de l’IA, des puces, des semi-conducteurs, est-ce qu’on redéfinit, en permanence, nos interdépendances, nos dépendances et nos points de vulnérabilité ? Une fois qu’on a dit ça, on comprend en effet que les Big Tech, les géants technologiques, les méga-corporations, sont des unités géopolitiques, des goulots d’étranglement géostratégiques, on le voit dans le cyberespace, on le voit sur l’IA, on le voit aussi dans l’espace avec Space X, par exemple ; dans les enjeux informationnels et cognitifs en Occident c’est une évidence, d’ailleurs on l’a vu avec le dernier document de sécurité nationale des États-Unis qui, en fait, déclare une espèce de guerre idéologique à l’Europe, à l’Europe normative. Mais en Europe, nous avons, il est vrai, une véritable dépendance et qui laisse à craindre que l’État, et c’est exactement ce qu’il va falloir que l’on évite, devienne une coquille vide où on sur-traite en permanence aux géants technologiques extracommunautaires. J’en veux pour preuve, au-delà du constat qui est assez alarmant, les deux derniers contrats qui viennent de tomber là, en décembre 2025, nous sommes aujourd’hui en janvier 2026, après toutes les discussions sur la souveraineté, après le retour de Donald Trump : Palantir qui reconduit son contrat avec la DGSI et Air France, dans un autre style, qui va signer un contrat avec Starlink pour avoir de la connectivité dans sa flotte.
On peut y revenir. L’idée n’est pas de dire « c’est bien ou mal », je crois que c’est beaucoup plus complexe que ça. Transformer ou changer des solutions n’est pas si simple. Le coût entre la performance, notamment quand on est sur des enjeux de renseignement, de sécurité nationale avec, en fait, des solutions souveraines qui n’ont pas tout à fait encore fait la preuve du concept ou sont en cours de déploiement, n’est pas une évidence. La question n’est pas de dire si on se trompe ou pas, la question est simplement d’identifier, de façon très froide, où sont nos points de vulnérabilité et hélas, pour l’instant, ils sont très nombreux.
Justin Vaïsse : Asma, pour vous pousser un tout petit peu plus loin, autrement dit, si j’interprète votre réponse, quand on se place du point de vue des États-Unis ou de la Chine, ces Big Tech sont des outils de projection de puissance, alors que quand on est, comme on dit en anglais, on the receiving end, du mauvais côté du bâton en quelque sorte, ou des services en tout cas, ce sont des acteurs géopolitiques mais qui ne sont pas déliés ni de la Chine et des États-Unis.
Asma Mhalla : Ils ne sont surtout pas déliés, ils sont au service de…, c’est très clair. Ce sont des bras armés technologiques et des bras armés tout court sur la question technologique, sur la question du new space, sur la question cognitive, sur la question informationnelle. La chose très inédite dans ce 21e siècle, pour essayer de le dire simplement, la chose un peu nouvelle par rapport à tout ce qu’on a vu par le passé, ce n’est pas du tout que tout d’un coup on a des méga-corporations surpuissantes, nous les avions au début du 20e, ce qui avait d’ailleurs donné lieu à des réflexions aux États-Unis qui ont démantelé, nationalisé, etc. La véritable question est dans deux choses. La chose très inédite de notre siècle tient en deux natures spécifiques.
La première, c’est que ce sont des technologies duales. Elles sont à la fois civiles et militaires et à la différence encore du nucléaire, parce qu’on m’avait opposé « le nucléaire aussi est civil et militaire » sauf que le nucléaire n’est pas dans votre poche et c’est une différence fondamentale ! C’est-à-dire qu’aujourd’hui il y a la capacité de « targeter », de cibler, c’est, en fait, une hyper-personnalisation de masse et c’est ce qui rend les enjeux informationnels, cognitifs, cyber, si compliqués à détricoter. C’est-à-dire que les mêmes plateformes sont civiles et sont militaires à la fois et ce qui est dans votre poche, qui en fait le point d’entrée, le portail, c’est votre smartphone. Aujourd’hui, le smartphone est un outil civil et aussi un outil de guerre. Je sais que ça peut encore choquer de le dire comme ça, mais c’est une vérité. Et c’est ce qui fait de nous-mêmes, comme citoyens, une espèce d’hybridation entre citoyens, combattants, soldats, etc.
La deuxième chose qui est très inédite à l’aune de notre histoire contemporaine, c’est que ces méga-corporations technologiques, les Big Tech, ne sont pas simplement des grosses boîtes, elles sont aujourd’hui partout, elles sont systémiques, elles sont propriétaires d’infrastructures d’intérêt général, d’intérêt public, et de la cognition : elles façonnent le rapport au monde, le rapport aux autres, ce qu’est la démocratie, ce qu’est la souveraineté, ce qu’est l’État de droit. Elles ne sont donc plus simplement des entreprises, ce sont des infrastructures, des infrastructures cognitives à partir desquelles absolument tout le reste, aujourd’hui, se déploie. C’est là où on a quelque chose d’absolument innovant, inédit, et qui reste encore à penser.
Justin Vaïsse : Il y a quelque chose de l’ordre de l’anthropologique, c’est-à-dire que les instruments façonnent l’homme qui les utilise.
Asma Mhalla : Exactement, c’est une évidence, d’ailleurs Günther Anders [4] le disait déjà. Bien sûr.
Justin Vaïsse : Yann, je me souviens qu’il y a maintenant 13 ans, le Sénat avait sorti ce rapport qui s’appelait « L’Europe colonie du monde numérique » [5]. C’était un rapport au titre choc, qui avait marqué son époque et qui était très vrai dans son analyse, puisque, en effet, il constatait déjà à ce moment-là, il n’y a pas loin de 15 ans, que les données européennes partaient massivement pour être traitées aux États-Unis et revenaient en Europe sous forme de services.
Je vais revenir sur cette question de la souveraineté : qu’est-ce que la souveraineté aujourd’hui ?, peut-être en partant de la tribune que tu as signée avec 28 experts internationaux de dix pays différents [6] , dont notre récent invité au Forum de Paris sur la Paix, Yoshua Bengio [7] qui est un ancien prix Turing. Dans cette tribune, vous appelez collectivement à un sursaut collectif pour préserver la souveraineté technologique. Est-ce que tu peux nous expliquer un peu plus et, en particulier, comment on définit, dans le monde de 2026, la souveraineté technologique ?
Yann Bonnet : La définition de la souveraineté c’est un long débat. Je la définis de la façon suivante : c’est la capacité à maîtriser son futur et à maîtriser, en fait, les différentes dépendances qu’il peut y avoir en fonction des différents services numériques.
Pour aller vraiment dans le sens d’Asma, je pense que nous sommes à un moment de notre histoire où on a une sorte d’hybridation du pouvoir, on a des infrastructures vitales de notre nation telles que notre capacité à communiquer, les systèmes d’information de nos hôpitaux, notre sécurisation, qui sont extrêmement dépendantes d’un tout petit nombre d’acteurs privés, qui ont une proximité très forte avec certains États, les big states, qui est concentrée notamment sur les acteurs US et chinois. On est quand même aussi à un moment, on doit le noter, ce n’est pas anodin dans l’histoire, où on a un pays qui est en guerre, l’Ukraine, dont les capacités de communication sont, en quelque sorte, liées au bon vouloir du fondateur de l’entreprise Starlink, Elon Musk pour ne pas le citer.
Dans cette tribune, on a effectivement essayé de faire un diagnostic un peu mathématique de la situation. On s’est intéressé à regarder quelle était la capacité de calcul nécessaire en IA ou disponible en IA au niveau mondial. En fait, on s’aperçoit que 75 % de cette capacité de calcul est localisée aux États-Unis, 75 %, 15 % en Chine et quelques miettes, 5 % à peine, au niveau européen. Si cette situation ne change pas, en quelque sorte les puissances intermédiaires que nous sommes – la France, l’Allemagne, le Canada l’Australie – seront dans une sorte de dilemme de choix entre le choix de la dépendance, on va dépendre justement de ces Big Tech, on va devoir payer un certain tribut, mais aussi être exposés à un certain risque, ce risque de dépendance, ce risque que, tout d’un coup, ces big states décident de couper le service, par exemple, ce n’est pas un fantasme. On a vu récemment la décision du président américain de couper l’accès au Web Edge et à un certain nombre de services numériques aux juges de la CPI, la Cour pénale internationale.
Justin Vaïsse : Et aussi leurs services de carte de crédit, pas seulement la suite office et Windows.
Yann Bonnet : Exactement. Du coup, en tant que puissances intermédiaires – la France, l’Angleterre –, nous sommes face à ce choix de dépendance ou de ne pas avoir cette dépendance et d’être dans un état un peu de faiblesse puisqu’on ne peut pas utiliser ces services qui apportent quand même une certaine efficience, qui nécessitent des montants d’investissement qui sont très importants et qui sont durs à gérer pour une nation intermédiaire comme la France.
C’est un diagnostic un peu froid, un peu noir. Notre message consiste à dire qu’on a besoin d’un sursaut collectif, ce n’est pas une fatalité. Il n’y a pas de déterminisme technologique, le numérique ce sont des choix d’investissement, de formation. Le numérique, ce n’est pas la météo, on ne peut rien faire quand la neige tombe. Pour le numérique on peut décider, c’est politique. Notre message c’est donc de dire qu’il existe une troisième voie. Pour reprendre un chiffre assez intéressant et positif cette fois-ci, on a regardé les 100 chercheurs les plus reconnus au niveau mondial sur l’IA. En fait, 87 ne sont ni Américains ni Chinois, on a donc ces compétences, d’ailleurs on en a beaucoup en France, on a une belle école de mathématiques en France, on voit la présence française quand on va à San Francisco. On a besoin d’un sursaut collectif pour créer du collectif entre ces puissances intermédiaires et mutualiser ces fameuses infrastructures pour essayer d’être dans la compétition par rapport à ces Big Tech. À mon sens, c’est un peu ce qui s’était passé dans les années 60 avec Airbus. On avait une dépendance très forte avec des acteurs américains, pourtant on avait des talents aéronautiques, notamment en France, et on a réussi à créer du collectif au niveau européen pour créer un Airbus. On est peut-être à un temps où on devrait essayer de créer une sorte d’Airbus de l’IA.
Peut-être deux derniers points. Un point qui n’est peut-être pas très populaire mais qu’il est important, à mon sens, de rappeler : l’indépendance a un prix dans le domaine de l’IA, je ne sais pas si c’est 10, 20, 30 %. C’est comme quand vous achetez une voiture ou un appartement, c’est souvent mieux de faire le choix de prendre une assurance, ça coûte un petit peu plus, mais ça nous préserve d’un certain nombre de risques. Je pense que dans l’IA, le choix de la souveraineté, le choix de l’indépendance ça a un coût, mais ça peut apporter énormément. Je pense qu’on doit passer de cette logique où on cherche le moindre coût à une logique où on cherche beaucoup plus de robustesse, un peu comme dans la nature d’ailleurs, la nature est très robuste et je pense qu’on devrait s’en inspirer un peu plus.
Et puis enfin, je trouve que c’est important, on le dit depuis des années : il faut qu’on sorte un peu de cet esprit de posture de dominé. Il ne faut pas oublier que l’Europe est un eldorado pour les acteurs du numérique, les big states, pour nos acteurs. Ce sont 450 millions de consommateurs, de citoyens, en bonne santé, bien éduqués, c’est d’ailleurs 25 %, ou peut-être plus, du marché des Big Tech. Ce coût de l’inaction, ce coût de la dépendance est important. Ce sont plus de 100 milliards chaque année, au niveau européen, ce sont probablement des centaines de milliers d’emplois qui ne sont pas générés en Europe si on ne se met pas un peu plus sur ces sujets numériques.
Justin Vaïsse : J’aimerais vous pousser tous les deux un tout petit peu plus loin sur la question la souveraineté et de ce qu’il faut faire pour la recouvrer, en quelque sorte.
Yann, tu as cité Airbus, on aurait pu citer Ariane Espace ou Galileo par exemple, ou le CERN, Asma, vous citiez Air France tout à l’heure mais c’est pour la connectivité en vol, c’est pour avoir du wifi à bord en réalité, on peut toujours s’en passer alors que les moyens de navigation d’Air France reposent au moins en partie sur Galileo, qu’on espère un peu plus souverain que la fourniture du wifi. Là où je veux en venir, c’est pour essayer de distinguer les infrastructures qui sont vraiment critiques pour notre souveraineté de celles qui ne le sont pas. Yann, tu citais tout à l’heure l’exemple des juges de la CPI à qui l’on avait coupé tous les services de type Microsoft ou Visa ou Mastercard. Quel est le prix de cette souveraineté ? C’est-à-dire est-ce qu’il faut en revenir absolument à toute une chaîne, tout un stack, en quelque sorte, indépendant, aussi bien du point de vue du matériel, du hardware, que des différentes couches de software ? Et pour l’IA, puisqu’il y a beaucoup de modèles en accès libre, en open source, est-ce que l’enjeu c’est de développer nos propres LLM ou alors est-ce que c’est développer toute l’infrastructure qui sert à les utiliser et d’en développer les usages de façon souveraine ? Autrement dit, quelle est la matérialité de cette souveraineté ? Comment pourrait-elle se traduire en actes, en achats et en décisions politiques ? Asma.
Asma Mhalla : Je ne suis pas du tout responsable politique, je vais donc faire une réponse qui peut être un tout petit peu disons théorique.
On a accumulé ces dépendances et ces couches de dépendance depuis, disons, ces trente dernières années, puisque ça ne s’est pas joué là, ça ne s’est pas joué après à partir de janvier 2025 quand Trump est arrivé, on est bien d’accord. En fait, la vraie question de la souveraineté ce n’est pas la question de la souveraineté, c’est cela que j’essaye de dire, c’est une question industrielle : on n’a aucune stratégie industrielle. Quand aura-t-on une classe politique, tous bords confondus, qui va se mettre au boulot ? Tout le monde est gaulliste, vous l’avez remarqué, en ce moment en France tout le monde est gaulliste ! Qu’avait fait De Gaulle ? Il avait fait deux choses : une dans la pratique, une stratégie industrielle pour le pays ; la deuxième chose c’est une posture, une vision, une doctrine.
Par exemple sur les questions de souveraineté, de technologie, d’IA, de réseaux sociaux, nous n’avons pas de doctrine, pour une raison très simple c’est que nous passons notre temps, nous l’Europe, à être en réaction, nous sommes réactifs. Nous regagnerons de la puissance, et pas simplement un discours sur la puissance, quand nous cesserons d’être réactifs et quand nous reprendrons le contrôle de la question. Quelle est la question qu’on essaie de résoudre ? Est-ce que nous voulons être, nous Europe, une véritable puissance et, auquel cas, par quelle stratégie realpolitik, morale ? Comment reconstruit-on la doctrine de la puissance ? Est-ce que l’on veut être une troisième voie pacifique qui serait l’archipel de paix dans un monde qui, visiblement, entre dans la guerre, dans des phases de guerre hybrides ou cinétiques réelles ? Que voulons-nous être ? C’est la vraie question. La technologie pour quoi faire ? Bernanos disait « la liberté pour quoi faire ? » et j’ai envie d’ajouter « la technologie pour faire quoi ? ». Quel est le projet de société ? C’est la première réponse et c’est la première ligne. On ne peut pas continuer à être en réaction, c’est-à-dire à courir derrière les Chinois et les Américains en permanence, donc dépendants de leurs humeurs, de leur arbitraire. Ce n’est pas possible ! Il va falloir qu’on s’extraie politiquement de leur psyché. Il faut qu’on sorte de la tête de Xi Jinping, de Poutine ou de Trump. Il faut qu’on sorte de leur tête et qu’on réfléchisse par nous-mêmes. Ça c’est la première chose.
Ce qui nous amène donc à la deuxième couche de réflexion politique : quelle est la stratégie techno-industrielle ? Quand je dis stratégie techno-industrielle, ça ne veut pas dire qu’on doive faire, et c’est un peu l’erreur qu’on fait, œil pour œil : un réseau social français/un réseau social américain, une IA américaine/une IA française ou européenne, un cloud/un cloud. Je crois qu’il va falloir qu’on fasse autre chose, c’est-à-dire que l’on audite nos filières stratégiques, que l’on voie où on est absolument fort, c’est-à-dire où on a des vrais avantages comparatifs, qu’on cesse de saupoudrer et qu’on flèche avec un interventionnisme ou un capitalisme d’État réel, comme font les États-Unis, comme fait la Chine et comme font, en fait, toutes les puissances qui ont réussi à émerger ; dans le cyber, Israël est extrêmement interventionniste. Une fois que l’on a compris quelles sont les filières à laisser de côté, hélas, parce que ce sont des choix et les choix sont toujours politiquement extrêmement douloureux, mais c’est ce qu’on appelle le courage politique, à partir de ce moment-là on définit nos filières stratégiques et on met tout là-dedans. À mon sens, l’Europe n’y arrivera que si elle a une véritable, mais très robuste, stratégie de niche, que l’on joue l’interdépendance, c’est-à-dire qu’est-ce qu’on a à mettre sur la table des transactions ? Qu’est-ce qu’on a à mettre sur la table des négociations avec un marché qui, en effet, est extrêmement florissant, consommateur, mais on ne peut pas être que ça ! On peut consommer des technologies extérieures, mais, à ce moment-là, qu’est-ce qu’on exporte vers le monde ? Sur le soft power, on pourrait, on ne le fait pas assez, vers l’Afrique, vers les pays qu’on appelle, entre guillemets, du « Sud global », je déteste cette expression. On pourrait exporter autre chose que simplement de la norme. On a énormément de choses à faire et, sur le hard power, il va falloir qu’on se remette un tout petit peu en puissance.
Il y a un autre truc qu’il va falloir qu’on termine comme mue, comme métamorphose culturelle, ce sont les imbrications, c’est un peu sulfureux mais c’est ainsi, c’est un peu l’alpha et l’oméga de ce nouveau siècle, c’est la fusion, en tout cas les coopérations civil/militaire, public/privé. Il va falloir qu’on désilote et qu’on lève ces tabous définitivement. L’État seul n’y arrivera pas.
Yann Bonnet : Peut-être pour compléter et aller dans le même sens. Je ferais le même constat : on a vraiment besoin de travailler encore plus notre vision. Le sujet du numérique est extrêmement politique au sens de vie de la cité, c’est une transformation complète de nos usages, de l’éducation à la santé en passant par le militaire. On a la chance d’avoir réellement un pays où on a de très bons ingénieurs, qui comprennent très bien ce qui est en train de se passer et qui innovent. Mon souhait personnel serait de voir un peu plus de politiciens un peu plus ingénieurs, ça nous aiderait probablement un petit peu.
Asma Mhalla : Ou philosophes.
Yann Bonnet : Ou aussi philosophes, ce serait un bon mix.
Cette souveraineté, comme on l’a dit, c’est notre capacité à gérer notre futur, à gérer nos dépendances. Pour répondre à ta question, je pense qu’il faut qu’on ait une approche par les risques dans tous les choix qu’on a à faire. On a des cas d’usage du numérique qui sont extrêmement importants pour la nation, vitaux pour la nation, je pense à la défense, la santé, et puis on a des cas d’usage qui le sont peut-être un peu moins. En fonction de cet équilibre à trouver, nous devons avoir nos propres services et faire nos propres efforts.
Justin Vaïsse : Donc éviter la dépendance, mais ça implique tout de même un peu de faire du tit-for-tat, comme on disait, ou Airbus ou Galileo par rapport au GPS, Airbus par rapport à Boeing.
Pour revenir à ce que vous disiez, Asma, il y a tout de même une partie presque de concurrence, un peu de suivi, c’est-à-dire qu’il faut avoir nos outils pour ne pas dépendre et qu’on ne nous coupe tel ou tel service, mais, ce que vous disiez, c’est qu’il faut aller au-delà et définir le quoi, c’est-à-dire ce qu’on souhaite dans ce monde-là et pour quels usages.
Asma Mhalla : Et ce qui est incroyable, parce que c’est la minute no bashing, j’y tiens toujours, vraiment, parce que c’est aussi la question de la mesure, on sait le faire, parce qu’on a su le faire sur la filière cyber. La mesure, pour apporter un peu de nuance. Tout ne marche pas, mais il y a des choses qui marchent, c’est ce que je veux dire. Donc on sait faire, ce n’est pas que l’on ne sait pas faire, la France sait faire ça.
Sur la filière cyber, qu’est-ce qui s’est passé ? Il faut dire que le ministère des Armées, nos armées ont été extrêmement actives et je dois dire, très objectivement pour en avoir fait un peu le tour, que c’est l’une des institutions je crois aujourd’hui, en France en tout cas, qui est l’une des plus robustes, parce que précisément elle travaille ça : les signaux faibles, l’anticipation, la prévisibilité, les risques. Sur le cyber, c’est exactement ce qu’elles ont réussi à faire, c’est-à-dire poser une doctrine et structurer la filière. Si on sait le faire sur le cyber, il va falloir m’expliquer pourquoi on n’arrive pas à le faire sur les autres, puisqu’on sait le faire.
La France est un pays qui a énormément de ressources, des compétences, des ingénieurs, certes, etc., encore que, si je peux mettre un petit un petit bémol sur le discours disant qu’on a beaucoup de talents, d’ingénieurs, de compétences et de chercheurs. C’est très vrai, mais attention à ne pas dormir sur nos lauriers. Le propre d’une politique publique ou des politiques publiques, tel qu’on me l’a appris quand je suis passée par Sciences Po, c’est la cohérence entre elles, c’est qu’elles fassent système, c’est qu’elles créent réellement une véritable policy au sens le plus total du terme. Or il est impossible et impensable de penser la souveraineté, c’est-à-dire l’industrie, si on n’a pas pensé l’école, si on n’a pas pensé la recherche publique. En fait, tout cela est absolument imbriqué. Or, vu l’état des finances aujourd’hui, la façon dont les arbitrages sont faits, nous sommes visiblement exsangues, il va falloir qu’on ne fasse pas plus mais que l’on fasse beaucoup mieux, c’est la question de la qualité contrairement à la quantité par exemple chinoise ou même américaine dans un certain sens. Et on saurait le faire. Ça revient à ce que je disais tout à l’heure : que voulons-nous être ? Quelle est la définition qu’on donne à la puissance ? Quelle est la définition qu’on donne à la souveraineté ? Ce ne sont pas des concepts qui sont posés là et qui sont absolument inamovibles. Ils doivent être pensés, ils doivent être réinvestis et redéfinis : ça s’arrête où, ça commence où, selon qui, avec qui, pour quoi faire ?
Justin Vaïsse : J’imagine que le test à l’acide, en quelque sorte, c’est celui de la dépendance. À partir du moment où on nous coupe des services et que ce que l’on tenait pour acquis, c’est-à-dire que l’on aurait toujours – la disponibilité de nos systèmes d’exploitation, de nos ordinateurs, des cartes de crédit, maintenant sans doute de ChatGPT, Gemini et d’autres –, quand tout d’un coup ce n’est plus évident qu’on en aura la disponibilité, c’est là qu’il y a un réveil.
Asma Mhalla : Dans les grandes entreprises en France, il faudrait vérifier vraiment précisément, une à une, mais, sincèrement, la prise de conscience est faite, la stratégie du choc trumpiste a eu ses effets. Yann, vous me direz si je me trompe ou pas, je suis un peu moins en adhérence avec le secteur privé, mais de ce que j’en ai vu, des échanges que j’ai pu avoir, globalement les grosses boîtes, en tout cas celles qui sont essentielles pour le pays, c’est-à-dire celles du CAC ou même à un certain nombre de TPE, ont complètement pris conscience de ça. Aujourd’hui on parle beaucoup de Business Continuity ; les solutions de redondance, de backups, les mix, les hybridations de solutions, etc., sont clairement au cœur des stratégies corporate en France, il me semble que c’est complètement acquis. Et côté public, pour ce que j’en sais, tout n’est pas chez les clouders américains par exemple, et encore heureux et heureusement. Les données ultra-sensibles – militaire, défense ou renseignement –, ne sont pas, il me semble, aux dernières nouvelles, hébergées chez des Américains et heureusement.
Justin Vaïsse : Yann, peut-être peux-tu nous éclairer là-dessus. Cette question du cloud est quand même très importante. Comment se présente-t-elle ? Est-ce qu’on a une souveraineté du cloud et quel type de souveraineté a-t-on ?
Yann Bonnet : C’est très compliqué. Je pense qu’il y a une prise de conscience, clairement, mais, en même temps, il y a une telle dépendance que, dans les faits, quand on regarde bien, c’est le chiffre que j’indiquais tout à l’heure : chaque année, au niveau européen, ce sont plusieurs centaines de milliards qui partent au niveau des Big Tech. Il y a une telle dépendance qu’on a encore des efforts énormes à faire, du côté des décideurs d’achats, publics ou privés d’ailleurs, des deux côtés, ainsi que du côté des offreurs. Dans le domaine de la cyber on a un marché un peu fragmenté, on a besoin de consolidation pour avoir des offres qui soient beaucoup plus simples à utiliser et beaucoup plus intégrées.
Sur le cloud, on a des très beaux fournisseurs en France, je pense à Scaleway, à OVH et compagnie, on a différents acteurs, là aussi il faut que l’État aide ces acteurs. Les Américains sont extrêmement protectionnistes, on a on le dit depuis 15, 20 ans, 30 ans. Aux États-Unis, on a le Buy American Act [8], le Small Business Act [9]. qui imposent aux administrations à acheter américain, à acheter les services de PME. Maintenant que certaines règles sont plus ou moins respectées, visiblement, pourquoi, au niveau européen, n’impose-t-on pas ce type de règles ? C’est une bonne question.
Justin Vaïsse : Mais lorsque les données des grandes entreprises, dont parlait Asma tout à l’heure, sont sur des clouds comme Azure ou Web Services Amazon, etc., est-ce qu’elles peuvent encore être considérées comme souveraines ? Est-ce que ces données-là restent souveraines ou pas ?
Yann Bonnet : C’est une grande question. En France, on a mis en place de systèmes de labels, le SecNumCloud [10] qui est géré par l’ANSSI [Agence nationale de la sécurité des systèmes d’information], qui regarde un certain nombre de critères techniques mais aussi juridiques parce que la question c’est de savoir, si on met des données sur un service américain, est-ce qu’il va être soumis à des réglementations de type CLOUD Act [11] qui permettraient aux services américains d’accéder à ces données.
On a mis des protections au niveau français pour cela, donc, en théorie, on est quand même très bien protégé. Après, je pense qu’on peut souhaiter d’avoir beaucoup plus d’acteurs français et européens, notamment dans le domaine du cloud, pour pouvoir mieux gérer ces risques de dépendance qui ne sont pas que techniques, qui sont aussi géopolitiques. On l’a vu encore récemment : un président des États-Unis, Trump pour ne pas le citer, qui décide de couper tel ou tel service.
Justin Vaïsse : Je trouve que le SecNumCoud est évidemment une figure très intéressante parce que, justement, ça montre qu’il n’y a pas forcément besoin de se retrancher dans notre village gaulois pour avoir cette souveraineté, on n’a pas besoin de tout remplacer terme à terme.
Je vais vous raconter une histoire de vieux. J’ai vécu le passage de l’an 2000 en Iran, j’étais là-bas. En Iran, on n’avait pas du tout peur de ce dont l’ensemble de l’Occident avait peur qui était le Y2K [Year 2000]. Le Y2K c’était le passage à l’an 2000, autrement dit c’était cette grande crainte que tous les ordinateurs s’arrêteraient parce qu’on passerait de 1999 à 2000, que ça avait été mal prévu dans les années et décennies auparavant, etc. Évidemment, en Iran où on applique le calendrier musulman, on part de l’hégire pour calculer les années, il n’y avait pas du tout cette crainte-là. Pour moi c’est resté un exemple de souveraineté numérique totale, évidemment, les ordinateurs iraniens étaient beaucoup moins avancés que ceux qui fonctionnaient sur Windows, c’est-à-dire l’essentiel du reste du monde, mais, au moins, ils ne craignaient pas le Y2K qui a fini par faire pschitt, finalement il n’y a pas eu grand-chose. C’est pour montrer que je suis né longtemps avant l’an 2000.
Asma Mhalla : Comme quoi tout est affaire de perception !
Justin Vaïsse : Exactement. J’aimerais en venir à un autre sujet et vous interroger, Asma, sur cette notion de guerre cognitive. Est-ce que vous pouvez nous expliquer ce que veut dire « guerre cognitive » et comment elle est menée actuellement, notamment à travers ces outils ?
Asma Mhalla : La première chose, c’est que la guerre cognitive ce n’est pas nouveau. En ce moment c’est un peu un mot à la mode parce que ça fait peur, il y a cognitif dedans, donc on a l’impression de grandes choses, d’extrême manipulation. En fait l’ancêtre des cartes cognitives ce sont les PsyOps, toutes les opérations psychologiques qu’on a toujours menées, que les armées, que les renseignements ont toujours menées, un peu comme la guerre informationnelle ; les luttes informationnelles ont toujours existé sauf qu’avant on appelait ça propagande. En soi ce que c’est ou son existence, rien de nouveau sous le soleil sauf que ! Je commence par la définition et je dis en quoi ça a changé aujourd’hui, quels sont les points de rupture.
Je commence par la guerre informationnelle, plus exactement les luttes informationnelles dans le champ cyber, hybride, etc., c’est en fait transformer, injecter des contenus, faux ou vrais, peu importe, parce qu’ils peuvent être vrais mais sortis de leur contexte, décontextualisés, etc., pour manipuler une opinion. D’ailleurs, ça peut être une affaire interne comme l’affaire des compétiteurs. La Russie, évidemment, à partir de 2022 et de la guerre d’Ukraine, a rendu la chose extrêmement mainstream et a fait entrer ça dans le débat public en Europe et en France puisque nous avons été particulièrement cible de ces opérations-là. La lutte informationnelle c’est vraiment aller sur l’aval, c’est-à-dire le bidouillage de contenus, puis on injecte, puis on industrialise avec les fermes à trolls, de l’IA, etc.
La guerre cognitive et les enjeux cognitifs viennent bien en amont de cela ou encapsulent, si vous voulez, les luttes informationnelles. C’est vraiment l’idée, l’enjeu, l’intention de manipuler l’ensemble de l’environnement mental d’une population ou d’une cible donnée. On n’est plus simplement sur « on va injecter du contenu sur des réseaux avec des sites miroirs ou je ne sais quoi », c’est vraiment travailler la perception, c’est altérer la capacité d’une population ou d’une cible à avoir une capacité de jugement, donc de décision. Ça peut être une armée, ça peut être une unité, ça peut-être une population entière. C’est vraiment une forme renouvelée d’ingénierie sociale en fait. Et en effet, elle attaque vos capacités cognitives avec la saturation cognitive, le flot d’informations, ce que fait par exemple Donald Trump sur ses réseaux sociaux. Pour donner un exemple très simple, Cambridge Analytica [12] était un exemple de guerre cognitive, Cambridge Analytica c’est 2016. On va avoir les élections, d’ailleurs du même Donald Trump, et on va accuser, à juste titre d’ailleurs, la Russie d’avoir fait des ingérences et d’avoir, avec l’aval de Zuckerberg, unité politique et non pas simplement entreprise technologique, récupéré des data et ciblé de façon hyper personnalisée un certain nombre d’électeurs notamment dans les swing states.
Au-delà de l’histoire, c’est cela une guerre cognitive : on va prendre l’ensemble des instruments qu’on va avoir à disposition – les contenus, votre psychologie, votre passé, votre historique, qui vous êtes, vos vulnérabilités, vos risques, le fait que vous hésitiez ou pas, tout ce que l’on sait sur vous, et aujourd’hui on sait absolument tout de vous Justin, sur Internet, tout, même ce que vous ne dites pas et même ce que vous ne faites pas est une information en soi, donc même le silence est une information. À partir de toutes vos data, on sait vous faire exactement, sur mesure, le discours, le nudge qui va bien aller pour vous emmener sur les comportements qu’on va attendre de vous, soit aujourd’hui soit dans 20 ans, ce n’est pas grave, ce n’est pas une question temps, ce sont des luttes informationnelles ou cognitives qui se jouent sur du très long terme.
Cambridge Analytica était un des premiers grands exemples ou cas d’école sur la guerre cognitive.
Ce que fait Trump avec sa communication sur les réseaux sociaux, au-delà du grotesque, rappelez-vous quand il arrive en janvier 2025 : il va saturer, matraquer, on a vu des contenus, plusieurs contenus par jour, tous les jours ; cognitivement, il était impossible de suivre ou même de comprendre. Désorienter votre adversaire, votre ennemi ou votre compétiteur fait partie de la guerre cognitive. Ce que jouent Trump et Musk, ce n’est plus du tout de la lutte informationnelle, on est sur de la guerre cognitive pur sucre, pur jus, à l’état de l’art.
C’est donc comprendre, nommer, déconstruire d’une certaine façon, qui permet de réarmer qui ? Pas nous ! Les citoyens, c’est-à-dire tout le monde, c’est l’affaire de tous. Tout à l’heure, je disais que le point de rupture c’est l’hybridation, c’est le civil et le militaire. Tous les citoyens doivent aujourd’hui être formés, armés à ça.
Il y a aussi la question de nos armées. Je ne sais pas exactement sous quelle architecture, mais elles peuvent aussi se « civilianiser », il va falloir, aujourd’hui, entrer aussi dans cette arène et ce qui est incroyable c’est la question des frontières. Aujourd’hui ce n’est plus le champ extérieur et le champ intérieur, ça c’est totalement hybridé.
C’est cela l’enjeu de la guerre cognitive d’un point de vue des définitions et ensuite, ce qui m’inquiète énormément, évidemment, elle va et elle s’est déjà industrialisée par l’IA. Je parlais de la rupture, la rupture ce n’est pas l’existence du principe même, la manipulation et/ou l’orientation des esprits, ça a toujours existé, d’ailleurs les Soviétiques étaient très forts à ça, ce sont eux qui avaient posé les premières grandes doctrines sur ces questions-là, c’est donc vraiment intrinsèquement dans leur ADN : la Chine aussi est beaucoup montée en compétences sur la chaîne de la désinformation, des luttes informationnelles et du cognitif, TikTok. Ce qui est parfaitement nouveau, c’est l’industrialisation. C’est-à-dire qu’aujourd’hui c’est la masse, le changement d’échelle est telle que parfois ça nous fait dire que c’est même un changement de nature de la conflictualité. Donc ça c’est un point.
Et enfin le dernier point, et je m’arrêterai là sur la réponse, c’est qu’aujourd’hui les infrastructures sur lesquelles se déploient ces luttes-là, ces guerres-là, c’est qui ? Ce sont les mêmes Big Tech et aujourd’hui elles font quoi ? Elles font de l’idéologie. Quand Elon Musk bidouille ses algorithmes, invisibilise ou sur-visibilise tel ou tel contenu, quand Mark Zuckerberg fait son aggiornamento et, tout d’un coup, change complètement d’état d’esprit sur la question du free speech ou de la liberté d’expression, quand TikTok aujourd’hui ne traite pas du tout son algorithme de la même façon chez lui que chez nous, on revient à la question Big Tech, big states, projection de puissance. Donc qu’est-ce que nous, Europe, sommes pour eux ? Nous sommes, aujourd’hui, un enjeu et non plus un sujet de notre destin et c’est là où on a une énorme question de reprise non pas de puissance, mais de reprise de contrôle de ce que nous sommes au sein de nos frontières.
Justin Vaïsse : Exactement. On revient à cette expression de colonie du monde numérique, évidemment avec des moyens différents.
Je retiens de ce que vous venez de dire d’abord que la guerre cognitive dépasse la guerre informationnelle, elle ne concerne pas seulement la question des news et de la politique mais va beaucoup plus loin.
Je retiens aussi ce que vous aviez dit un peu plus tôt et que vous avez redit ici, c’est-à-dire la personnalisation de la masse, ce qui me semble très intéressant comme concept, c’est-à-dire que l’on arrive à personnaliser, à customiser pour parler franglais, la façon dont on s’adresse aux gens, mais il s’agit de 70 millions de Français et pas simplement de certains d’entre eux qui seraient des cibles.
Et enfin, que c’est le changement de tout le régime de vérité qui donne à ces Big Tech, grâce à la massification, la possibilité d’agir à très grande échelle.
Face à ça, face à ce flood the zone, c’est une autre expression.
Asma Mhalla : C’est d’ailleurs Steve Bannon qui l’a complètement théorisé.
Justin Vaïsse : Flood the zone, c’est-à-dire noyer le champ de bataille, l’impératif est évidemment celui du discernement, c’est-à-dire parvenir à garder nos propres repères, on est comme un peu comme étourdis par cette perte des repères – j’imagine cela dans la guerre cognitive – l’idée d’avoir du discernement.
Asma Mhalla : Et beaucoup plus grave que ça, c’est qu’à la fin – Arendt déjà l’explicitait, l’écrivait noir sur blanc et c’est exactement ce qu’on est en train de vivre il me semble – on a cette impression que tout finit par se valoir, que tout n’est plus qu’un flux, c’est vraiment la dictature du flux, la tyrannie du flux permanent, j’avais appelé cela la « fluxoratie » dans mon dernier bouquin, ce n’est pas du tout pour parler de ça, mais c’est vraiment pour dire que si on finit, en démocratie, en tout cas en France héritière de ses propres Lumières, à arriver à la conclusion que tout se vaut, c’est-à-dire plus rien ne vaut, là c’est terminé.
Justin Vaïsse : La question n’est plus celle du mensonge.
Asma Mhalla : En politique, le mensonge a toujours été là, ce n’est même plus ça le sujet.
Justin Vaïsse : Plus rien n’a vraiment de valeur, toutes les informations se valent.
Asma Mhalla : Et là ce sera le début de la fin. Ce n’est plus du tout une affaire de verticalité, il va falloir qu’on horizontalise, qu’on hybride et qu’on embarque tous les Français dans ces nouvelles reconfigurations du pouvoir et de la puissance.
Justin Vaïsse : Face à ces changements, Yann, qu’est-ce qu’on peut faire et qu’est-ce que doit faire le politique ?
Yann Bonnet : Vaste question. Déjà sur le champ informationnel, je pense qu’on peut saluer ce qui a été fait au niveau français avec la mise en place de VIGINUM [13], cette entité qui est là pour essayer de détecter les ingérences numériques étrangères. Il ne s’agit pas d’un ministère de la vérité, il s’agit, en fait, de détecter des mécanismes artificiels de manipulation. Ce travail est extrêmement intéressant pour les citoyens, pour voir différentes actions.
Et puis on a le champ cognitif, l’impact du numérique sur la cognition. Je voudrais peut-être mettre en avant une initiative en particulier. La première victime de cette guerre cognitive, ce sont les enfants, on a 25 % de notre population en jeune âge, et leur cerveau est en pleine construction, c’est un chantier jusqu’à 25 ans. Et c’est vrai qu’on les expose à des algorithmes qui sont extrêmement efficaces pour attirer leur attention à un moment où ils ont besoin de découvrir de nouvelles choses, de prendre un peu de temps et de se développer, c’est important pour leur développement. C’est pour cette raison qu’on a lancé, il y a quelques mois, au sein du Paris Peace Forum, une initiative qui s’appelle iRAISE [International Research-driven Alliance for AI Serving Every child] [14], qui est une coalition d’un certain nombre d’acteurs. On met autour de la table des neuroscientifiques, des ingénieurs, des Big Tech aussi, en IA, qui n’ont pas l’habitude de dialoguer ensemble. On essaye de ne pas faire la même erreur que celle qui a été faite clairement sur les réseaux sociaux. Il s’agit d’essayer de fixer un certain nombre de règles, de lignes rouges, sans attendre la régulation qui prend son temps, de créer ces règles pour que, par défaut, dans le code, on mette ces règles en application.
Justin Vaïsse : C’est une sorte de réponse à la guerre cognitive, en quelque sorte.
Yann Bonnet : C’est prévu pour les enfants et notamment, pour être très concret, si on prend un chatbot éducatif destiné à un enfant de huit ans, actuellement le chatbot va dire « bonjour, je suis ton ami, je suis triste quand tu n’es pas là », c’est clairement de la manipulation affective. Après iRAISE [14] et les règles que nous sommes en train de fixer, cet algorithme dira « bonjour, je suis un algorithme, je ne ressens rien, si tu as un problème important, discutes-en avec un adulte de confiance. » C’est vraiment quelque chose sur lequel on travaille côté Paris Peace Forum, avec l’ONG everyone.AI [15], pour essayer d’avancer vite parce que les impacts, notamment sur les jeunes, sont catastrophiques.
Justin Vaïsse : Le développement est très rapide. On a lancé cette initiative il y a un an.
Asma.
Asma Mhalla : Puisque le thème d’aujourd’hui c’est vraiment l’IA, je voulais juste faire un dernier lien. Ce que dit Yann sur la question de la santé mentale est vraiment très important et, plus généralement, la rupture anthropologique que c’est, puisque c’est ce dont il s’agit. Donc dire « oui, non », etc., on va être un peu court si on n’a pas compris que c’est quelque chose de totalement systémique en termes de politique publique. Donc première chose.
Deux, sur la question de l’IA. Au-delà de l’industrialisation, l’IA n’est pas neutre. Déjà IA ne veut rien dire, ce que je viens de dire ne veut déjà rien dire, je vais auto-déconstruire cette phrase toute seule, comme une grande : déjà de quelle IA parle-t-on ? Là, on parle des IA génératives qui sont déjà un champ particulier dans la grande famille des intelligences artificielles. Ces systèmes algorithmiques, derrière les IA génératives, ne sont évidemment pas neutres, je vais dire un truc tarte à la crème : il y a des biais parce que, derrière, il y a des humains. Il y a de l’humain sur toute la chaîne d’une production d’IA, de l’extraction à l’éducation, à la formation, à l’entraînement, aux modèles, disons aux filtres qu’on va retrouver en Afrique, etc. Il y a de l’humain sur l’ensemble de la chaîne, donc forcément il y a des biais, nous ne sommes jamais neutres, nous embarquons forcément avec nous des inconscients, des visions, des arbitrages techniques ou personnels. C’est la première chose.
Mais la couche assez visible aujourd’hui, c’est la couche idéologique. D’ailleurs, quand ChatGPT va être lancé en novembre 2022 par OpenAI, la première réaction d’Elon Musk, qui est le concurrent direct de Sam Altman, le patron d’OpenAI, va être non pas de parler du risque existentiel, c’est un de ses sous-sujets puisque, au fond, il développe les mêmes IA avec les mêmes natures de risque, il va dire « ce sont des IA woke ». Il va très vite faire entrer ça sur le champ idéologique et il va donc justifier le développement de Grok qui est sa propre IA, qui vient d’ailleurs de signer un contrat avec le Pentagone, pour information et pour mémoire sur les imbrications techno-militaires et le complexe techno-militaire aux États-Unis et qui pose d’énormes questions parce que si, aujourd’hui le Pentagone commence à travailler avec Grok, compte-tenu de toutes les désinformations, des horreurs que cette machine sort, il y a énormément de soucis à se faire en termes de modération même de cet outil-là. Mais il faut bien comprendre que derrière il y a des batailles idéologiques, c’est-à-dire des visions du monde. Donald Trump a donné un discours cet été, qui n’a pas été beaucoup relayé en Europe – c’était l’été et c’est toujours pendant les vacances qu’il se passe les choses les plus intéressantes en général –, il va dire « on va tout débrider, plus de régulation, plus rien du tout, plus de limites, Sky’s the limit, aucune limite possible. » Au-delà de la question de la puissance, il a parfaitement compris que ce sont des outils de soft power américain et que la fabrication du savoir aujourd’hui, la fabrique du savoir – qu’est-ce qu’on visibilise, qu’est-ce qu’on invisibilise, « réécrire l’histoire » disait Orwell –, va passer aujourd’hui notamment par les IA génératives : « ChatGPT, s’il te plaît, peux-tu me dire ? » et ChatGPT va nous répondre quelque chose.
En fait, ce sont aujourd’hui des visions du monde, américaine ou chinoise si vous utilisez DeepSeek ou d’autres. La question c’est de bien comprendre les agendas idéologiques qui se cachent aussi derrière, de puissance quand on est vis-à-vis, mais aussi idéologique quand on est les Big Tech en propre comme unité politique ou unité idéologique. C’est très très important à avoir en tête parce que ça va poser une question fondamentale au 21e siècle, qui est la suivante et que je vous pose : qu’est-ce que penser au 21e siècle ? Penser, ça va être quoi ? Si on délègue même ça, si les IA génératives deviennent des médiateurs de pensée, si par ailleurs elles sont privées, au service de puissances extérieures, que par ailleurs elles cachent ou elles proposent des agendas idéologiques, ça reconfigure absolument tous nos repères et toutes nos catégories politiques, toutes !
Justin Vaïsse : Face à ça, Yann, que faire au niveau européen, c’est-à-dire est-ce que l’Europe est le bon niveau de réponse ? On connaît les outils qu’on a, qui sont sans doute imparfaits mais qui existent, le Digital Services Act [16] et le Digital Markets Act [17]. Après tout, si Thierry Breton a été sanctionné, c’est bien que les États-Unis sentent qu’il y a là un obstacle ou un problème ou quelque chose qui les irrite, c’est un irritant comme on dit en langage diplomatique. Il doit bien y avoir tout de même quelque chose, là, qui freine un peu cette domination. Est-ce que ces outils sont suffisants et est-ce qu’il y a besoin d’autres outils et, plus généralement, de régulation de l’IA ?
Yann Bonnet : L’État a effectivement un rôle à jouer, on l’a dit tout à l’heure. Ce numérique, cette IA, c’est extrêmement politique, ça concerne toute la palette de nos vies, de la santé à l’éducation. C’est important de fixer un certain nombre de règles, de limites. Je pense que des régulations comme le DSA, comme l’AI Act [18] sont nécessaires. Il faut qu’on arrive, dans la mise en œuvre, à essayer de simplifier un certain nombre de choses pour que ce ne soit pas trop complexe pour tout le monde. L’État a clairement un rôle à jouer.
Justin Vaïsse : Asma, vous partez à la NYU parler de souveraineté européenne, pas seulement de tech et d’IA, mais plus généralement. Cette souveraineté européenne passe-t-elle par la réglementation, par la régulation, par le DSA, par le DMA et par d’autres choses ? Ou alors faut-il une sorte de, je ne sais pas, protectionnisme plus grand ? Encore une fois, quels sont les outils possibles de la souveraineté ?
Asma Mhalla : Un premier outil, il est moral, c’est le courage, je l’ai déjà dit !
Plus sérieusement, il va falloir qu’on ait plusieurs béquilles, disons plusieurs trépieds au tabouret.
La première chose, celle qu’on a et qu’on maîtrise du reste très bien, c’est ce que j’appelle la souveraineté défensive normative : au sein de nos frontières, vous allez respecter nos règles et il me semble que c’est bien le moins d’ailleurs. Si je viens chez vous et que, tout d’un coup, je dégueulasse vos murs, il me semble que vous n’allez pas être très content ! Donc si vous m’invitez, je viens chez vous prendre un café, je vais respecter vos règles puisque je suis chez vous, c’est la moindre des politesses. Les paquets législatifs que l’Europe a construits, la Commission a construits à partir de 2019, c’est bienheureux, encore que, sur celui qui nous intéresse, l’AI Act, il faudrait peut-être revenir parce qu’il y a fondamentalement des vrais sujets, mais l’intention était bonne, le texte en lui-même et la mise en œuvre peuvent être largement discutés, mais on a fait ça. L’omnibus [19] va essayer de l’améliorer, de le simplifier, de le flexibiliser, mais, à mon avis, on n’est toujours pas à l’objectif.
Je disais déjà tout à l’heure que ce qui nous manque vraiment, c’est la question industrielle. Ce qui m’inquiète un tout petit peu c’est que si, à l’échelle nationale, nous n’arrivons pas à avoir des stratégies industrielles, je ne vois pas bien comment on peut en avoir à 27 et avec 27 acceptions différentes de la relation atlantiste, de la souveraineté et même parfois de la liberté d’expression ou de la liberté des médias. Comment fait-on pour construire quelque chose de cohérent et d’unifié si nous n’avons même pas de marché de capitaux unifié qui est d’ailleurs un des premiers obstacles à l’émergence d’acteurs à bonne échelle on va dire. Nous avons donc des enjeux structurels mais aussi culturels. Ce que je veux dire, qui va peut-être paraître un tout petit peu iconoclaste, mais, comme je ne suis affiliée à rien et à personne, je suis libre de le dire. Cette Europe des 27, qui est quand même excessivement lourde quoi qu’on en dise, a donc du mal à réagir et, même quand elle réagit, c’est trop tard, et parfois elle réagit par le silence. Vous avez compris aussi que les interdépendances n’étaient pas œil pour œil : vous avez mis une amende de 120 millions à X, donc on va on va vous punir sur X. On peut avoir des retombées ou de la coercition sur les vins, peu importe ! En fait, nous sommes pris dans des jeux de dépendance et d’interdépendance qui dépassent très largement la question technologique. C’est la première chose.
La deuxième, je me demande s’il ne va pas falloir qu’on arrive à avancer par des coalitions intra-européennes, peut-être que 27 c’est beaucoup trop. Ce n’est pas du tout une unité homogène techniquement, industriellement, technologiquement et surtout, en termes de vision du monde. Une possibilité serait donc qu’on arrive à construire, par bouts de projets, des coalitions à trois/quatre, et surtout avec du civil et du militaire, du public et du privé, sans ça je crains qu’on n’y arrive pas. C’est avoir aussi des formes de constructions parallèles, sinon je ne vois pas comment on va craquer la lourdeur ontologique de l’UE, j’ai du mal à le voir.
Justin Vaïsse : On approche de la fin de ce podcast. En vous écoutant, je me demandais s’il ne fallait pas revenir sur quelques-uns des piliers plus fondamentaux de la façon dont on appréhende ce monde-là, je pense à la section 230 [20] par exemple, c’est-à-dire l’idée que les hébergeurs ne sont pas responsables du contenu qui est chez eux. L’Europe a essayé de revenir au moins en partie là-dessus, mais tant que les États-Unis ne reviennent pas là-dessus on aura beaucoup de mal. Ou alors le Free Flow of Information, toute l’idée, qui était la bataille des années 2000 et 2010, qu’on pouvait librement faire circuler les données de l’un à l’autre. Ou la conception des produits de ces Big Tech comme un simple service, comme de l’assurance par exemple ou du consulting, etc. Il y a quelques structures de base qui ont permis cet essor et cet échange. Tout n’est pas mauvais et je ne me fais pas l’avocat d’une Europe forteresse qui se retrancherait derrière sa palissade comme le village gaulois, évidemment.
Par ailleurs, vous l’avez dit et c’est très important. On peut réguler tout ce qu’on veut, tant qu’on a pas d’industrie, tant qu’on ne crée pas nous-mêmes les modèles d’IA mais aussi toute l’infrastructure qui va avec, nous aurons beaucoup de mal à faire entendre notre voix. Cela dit, en effet, est-ce que le moment ne demande pas une révision, une réflexion sur les fondements-mêmes des catégories qui nous permettent d’aborder cette question de tech, d’IA ? Et on voit que les mots, parfois, nous conduisent finalement à accepter des choses qu’on ne souhaite pas.
Asma Mhalla : Absolument. On a beaucoup parlé des États-Unis, d’ailleurs c’est un tout petit peu de ma faute, il y a aussi toute notre dépendance à la Chine, notamment sur la question des terres rares, aujourd’hui on le voit beaucoup, ça monte maintenant de façon très forte dans le débat public et c’est heureux, et aussi la question de la rivalité. J’aurais dû commencer ma réponse par ça.
La question de l’intelligence artificielle au 21e siècle n’est pas du tout une question technique ou d’outillage, c’est la question de la puissance, c’est la redéfinition des attributs de la puissance. La rivalité géostratégique qui se joue entre États-Unis et la Chine se cristallise sur les IA, notamment pour les usages militaires, ce n’est pas l’IA en soi, c’est la question des usages militaires, c’est donc aussi la question du soft et du hard power.
Dans le cyberespace, il y a eu ce concept du Splinternet [21]. Nous avions des blocs géopolitiques auxquels se dupliquaient les blocs cyber, la Russie d’un côté avec sa souveraineté informationnelle.
Justin Vaïsse : La Russie en est un exemple ou la Grande Muraille de Chine.
Asma Mhalla : Exactement, le Firewall de Chine, l’Iran aussi et après le reste du monde, en gros le bloc occidental.
Justin Vaïsse : Relativement ouvert entre lui, entre l’Inde, l’Amérique latine, l’Europe et les États-Unis.
Asma Mhalla : J’ai l’impression, un des scénarios très probables, c’est qu’on ait le même sur le « AI-internet », qu’on ait un Splinternet de l’IA où on va avoir aussi des blocs et c’est exactement ce qu’on commence à voir, la fameuse doctrine Donroe : qu’est-ce que l’Occident ? Où s’arrête-t-il ? Est-ce que l’Occident en soi, disons comme construction politique, est complètement soluble dans les États-Unis ? C’est la vision de Donald Trump à l’évidence, puisque l’Europe serait la zone d’influence et l’Amérique latine, nous l’avons vu, pas de commentaire. À partir de là, toute la question pour l’Europe va être très simple : à qui voulons-nous donner notre blanc-seing ? C’est une première question. Et si nous voulons éviter d’être la colonie de l’un ou de l’autre, ou pire, pris en tenaille, ce qui est notre cas actuellement, par l’un et par l’autre, le bloc américain et chinois sur d’autres enjeux de dépendance, commerciaux, etc., c’est enchevêtré, l’autre question c’est : si nous ne voulons pas devenir cette zone d’influence là ou si on veut arrêter cette subordination, on va dire, quelle est la troisième voie ? La troisième voie passerait en effet par beaucoup de douleur et beaucoup de courage politique, mais c’est peut-être le seul chemin possible. À un moment donné, il va falloir qu’on largue les amarres. La troisième voie, ce n’est pas un discours sur la troisième voie c’est : qu’est-ce qu’on fait avec l’Afrique ? Qu’est-ce qu’on fait avec l’Inde ? Qu’est-ce qu’on fait avec le Brésil ? Qu’est-ce qu’on fait avec tous ces pays-là ?
Justin Vaïsse : « Avec » en termes de coopération.
Asma Mhalla : De coopération, de vraie coopération. Ce n’est pas « je vais vous exporter des valeurs et des choses comme ça ». Qu’est-ce qu’on fait concrètement ? D’ailleurs avec l’Inde, et vous le savez, on a commencé à travailler les nouveaux tech corridors, les questions des câbles sous-marins, etc. Donc ces réflexions émergent et il faut absolument les renforcer, les rendre très sexy, parce que c’est la seule voie possible pour l’Europe de construire cette autre chose, c’est-à-dire un opportunisme d’un autre genre, c’est-à-dire diplomatique ou techno-diplomatique. C’est absolument fondamental si on ne veut pas se retrouver définitivement colonisés par l’un ou par l’autre ou pire, par les deux.
Justin Vaïsse : Je crois qu’il faut vraiment qu’on arrête ce podcast parce qu’on arrive à la fin, mais Yann, je veux quand même te redonner la parole sur un mot de conclusion et, en particulier, sur le type de coalition qu’on peut nouer justement puisque Asma en faisait la suggestion.
Yann Bonnet : On a aussi un sujet sur la sécurisation de l’IA qui nous intéresse énormément partout à travers le monde et au Paris Peace Forum en particulier. On ne peut avoir confiance par défaut en ces IA pour différentes raisons.
En 2025, on a vu l’arrivée notamment de l’IA agentique qui, dans le domaine de la cybersécurité, va changer énormément de choses, une sorte de capacité à autonomiser, à planifier, à s’auto-déployer qui va changer beaucoup de choses. On ne peut pas avoir confiance en l’IA aussi parce que l’IA n’a pas de bonne conscience. L’image que je prends toujours c’est l’incident de Gènes en 2018 : on voit ce pont qui s’écroule et on voit cette camionnette qui a stoppé parce que l’humain a eu le bon réflexe de s’arrêter. Si ça avait été une voiture autonome, je vous parie que la voiture serait tombée parce que l’IA n’a pas de bon sens, ne comprend pas, n’a pas pu apprendre de ce passé à la différence de l’humain.
On voit aussi qu’on a une sorte de mur de verre entre différentes communautés en ce moment, entre la communauté cyber, la communauté data science. Les data scientifiques vont développer un certain nombre d’algorithmes et vont se dire que ce sont les gars de la cyber qui vont gérer les nouveaux risques et les gars de la cyber se disent que cde sont les data scientists. In fine, on est au moment où il y a des centaines de millions d’utilisateurs des IA, mais, en fait, personne n’a vraiment pensé la sécurisation de ces sujets. C’est pour cela qu’on va lancer, dans les prochaines semaines, une nouvelle coalition, au niveau du Paris Peace Forum, sur ces sujets de sécurisation de l’IA, on va mettre autour de la table des ingénieurs, des Big Tech, des États, on a Interpol aussi qui commence à être intéressée, pour gagner en transparence sur ces nouveaux risques, se poser la question de la responsabilité notamment sur l’usage et les mésusages de ces IA et puis décider d’orienter la recherche pour essayer de faire en sorte que ces IA se défendent, en quelque sorte, par elles-mêmes. Ça va être un gros chantier pour les prochaines semaines et on peut appeler les auditeurs qui seraient intéressés à nous rejoindre, on a besoin de beaucoup d’énergie pour essayer de faire avancer ça au niveau mondial.
Justin Vaïsse : Absolument. Merci beaucoup Yann. Je complète cette page de publicité en rappelant en effet aux auditeurs de ce podcast qu’ils peuvent nous suivre sur la chaîne YouTube, sur nos réseaux sociaux, notamment les deux initiatives dont on a parlé ici, mais il y en a beaucoup d’autres, donc iRAISE sur la protection de l’enfance, le développement des enfants par rapport à l’IA, et puis cette initiative sur la sécurité de l’IA et sur le lien cyber et IA. Et puis, bien sûr il y aura l’édition d’automne du Forum de Paris sur la Paix, ce sera la neuvième édition, les 11 et 12 novembre 2026 au Palais de Chaillot à nouveau, vous pouvez prendre date. Et puis, bien sûr, on continuera ce podcast sur d’autres sujets, avec toi Yann et également avec d’autres collègues .
Asma un très grand merci d’être venue, Asma Mhalla, spécialiste de ces questions, votre dernier livre Cyberpunk. Juste une petite dernière question : pourquoi Cyberpunk ?
Asma Mhalla : Cyberpunk parce que c’était un mouvement de science-fiction à la fin des années 70/début 80 et qui explique quelque chose de très simple, c’est la fameuse phrase de William Gibson, « le futur est déjà là ».
Justin Vaïsse : Excellent. Bonne journée à tous. On reste sur cette conclusion-là, sur le futur qui est déjà là.
Merci à tous.
Asma Mhalla : Merci.