Colloque sur les dangers de l’IA : faut-il appuyer sur pause ? Politiques Numériques

Ghislaine Senée : La réalité c’est que j’ai commencé à me pencher sur la question de l’IA au travers d’un rapport sur l’utilisation de l’IA au sein des collectivités territoriales [1] dans le cadre de la délégation aux collectivités territoriales ici. Je me suis rendu compte que c’était un sujet qui, à la fois, passionnait énormément les sénateurs et, à la fois, les inquiétait énormément. On a donc commencé à échanger, puis je me suis dit qu’il y avait des sujets importants : la question de la donnée, la question du bien commun. Et puis, au travers de ça, j’ai été contactée par l’association Pause IA [2] qui m’a alertée sur un certain nombre de risques, de vulnérabilités que j’avais déjà un petit peu perçues, sur lesquelles il me semblait important qu’on puisse, en tout cas ici au Sénat, au travers de ce colloque [3], poser.

Delphine Sabattier : Bienvenue dans Politique Numériques, alias POL/N, l’émission politique sur le numérique.
Je suis Delphine Sabattier. Aujourd’hui je vous emmène au Sénat où se tient un colloque sur les risques et les dangers de l’intelligence artificielle. Ce colloque est organisé par le collectif Pause IA, qui est une émanation française d’un mouvement plus large, Pause AI, qui est déterminé à convaincre les gouvernements des risques à laisser émerger l’intelligence artificielle générale, développement qu’ils jugent jusqu’à apocalyptique.
Je suis allée à la rencontre du président de l’association en France, également des sénateurs qui ont décidé d’accueillir ce colloque et des intervenants venus ici prendre la parole pour alerter sur les dangers de l’intelligence artificielle. Je vous propose de les écouter tout de suite.

Échange avec Maxime Fournes

Delphine Sabattier : Je suis avec l’organisateur de ce colloque sur la sécurité de l’IA, les risques de l’intelligence artificielle. Vous êtes le cofondateur, le président de Pause IA qui est une branche française de Pause AI. Comment définiriez-vous votre collectif ? Activiste ?

Maxime Fournes : Je ne dirais pas activiste, je dirais militant. Notre objectif c’est vraiment de sensibiliser le grand public sur les questions des risques de l’IA. On pense que c’est vraiment la clé pour éviter les pires dangers de l’IA. Tant que le grand public n’est pas au courant de ce qu’il se passe en intelligence artificielle, on a moins de chances que la situation évolue d’une manière satisfaisante.

Delphine Sabattier : Vous avez une formation de mathématicien, vous savez donc à quoi ressemble un algorithme, vous voyez, de manière assez experte, j’imagine, quels sont aujourd’hui les progrès dans le domaine de l’intelligence artificielle. Est-ce que vous avez l’impression qu’aujourd’hui ces IA sont capables de devenir des IA générales ? Est-ce que cette perspective vous inquiète ? Est-ce que c’est cela que vous avez envie aujourd’hui de pointer du doigt ? Ou est-ce que ce sont les déploiements déjà actuels de l’IA qui vous préoccupent ?

Maxime Fournes : Ce que j’essaie de pointer du doigt c’est la dynamique de la situation, c’est-à-dire la rapidité du progrès en ce moment. Je pense qu’on se focalise beaucoup trop sur ce qui existe aujourd’hui d’un point de vue statique et on oublie que ça n’existait pas il y a encore six mois ou un an. Je pense que c’est très important de garder ça en tête, parce que cette progression rapide de la technologie amplifie tous les risques. C’est pour cela que, aujourd’hui, j’ai fait aux parlementaires la recommandation d’avoir une approche beaucoup plus proactive. La durée des cycles régulatoires est constante. Il se passe peut-être un an ou deux ans avant de mettre en place une régulation, dans un an ou deux ans la technologie sera complètement différente. Il faut commencer à réfléchir pas sur du très long terme, on ne parle jamais de très long terme, il faut commencer à réfléchir à ce qui risque d’exister dans six mois, dans un an, pour être certains qu’on n’a pas une cible mouvante.

Delphine Sabattier : Quand vous dites réglementer, ça veut dire faire une pause, Pause IA ? Qu’est-ce que c’est ? Arrêter les déploiements de l’IA ? Arrêter leur mise à disposition auprès du grand public ? Est-ce qu’on peut faire ça juste au niveau français ?

Maxime Fournes : Nous pensons que la cible des laboratoires, des entreprises qui construisent les IA en ce moment est une très mauvaise cible. Ils sont explicitement en train d’essayer de créer ce qu’ils appellent des intelligences artificielles générales ou super-intelligences, etc. Le problème, c’est que cette direction a le pire profil de risque. On crée des systèmes de plus en plus généraux qu’on ne contrôle pas et dont on ne comprend pas le fonctionnement.
Notre discours va vraiment être de rediriger le développement vers des IA spécialisées, qui ont un bien meilleur profil de risque parce qu’on peut comprendre ce qu’elles font et on a beaucoup moins d’effets secondaires émergents, négatifs. Par exemple, on est à peu près certain qu’une intelligence artificielle spécialisée pour jouer aux échecs ne va pas se mettre à aller pirater du code informatique.

Delphine Sabattier : Beaucoup de vos confrères mathématiciens nous disent qu’aujourd’hui non seulement l’IA générale n’existe pas, que c’est un horizon tellement lointain que ça ne vaut même pas la peine de s’en préoccuper. Pour l’instant, les déploiements se font sur des IA hyper spécialisées.

Maxime Fournes : Ça dépend à qui on demande. Le problème, c’est qu’en France on est un peu dans une bulle, on a une moins bonne visibilité là-dessus. Quand on regarde un panel d’experts en intelligence artificielle de classe mondiale, la plupart pensent qu’on arrivera à une intelligence artificielle générale dans moins de dix ans, même les plus sceptiques comme Yann Le Cun [4], par exemple, pensent maintenant que ça a de fortes chances d’arriver dans moins de dix ans, François Chollet [5], un Français qui est aussi un grand nom de l’intelligence artificielle, pense que ça a des chances d’arriver dans cinq à dix ans. On n’est donc vraiment plus sur du très long terme. Les gens qui pensent que ça va arriver dans du long terme parlent de dix ans maintenant et la médiane c’est plutôt des prévisions sur quatre à six ans.

Delphine Sabattier : Vous parlez aussi d’un fossé réglementaire. Vous appelez donc les sénateurs qui sont ici présents, et pas seulement, l’ensemble des gouvernants, à prendre des mesures importantes, d’ores et déjà, parce que cette course technologique va très vite. Quels types de mesures faudrait-il prendre ?

Maxime Fournes : C’est une très bonne question. Chez Pause IA, on s’intéresse principalement à la source du problème qui est le développement incontrôlé de cette technologie. Ça se produit principalement aux États-Unis, on peut donc se demander comment la France peut avoir un impact. Je pense que la France peut avoir un impact à travers l’Europe et à travers les régulations européennes. On a, par exemple, le AI Act [6] qui commence à être mis en place en Europe, qui est une excellente régulation et qu’il nous faut vraiment soutenir avec tous nos moyens, parce que, de l’autre côté, les lobbies des GAFAM sont en train de s’attaquer frontalement à cette régulation. Il va donc falloir arriver à tenir bon là-dessus.

Delphine Sabattier : Merci.

Échange avec Axelle Arquié

Delphine Sabattier : Axelle Arquié, vous allez être intervenante sur cette conférence qui présente les risques de l’intelligence artificielle. Vous êtes économiste au CEPII [Centre d’études prospectives et d’informations internationales], spécialiste du marché du travail, vous êtes la cofondatrice de l’Observatoire des Emplois Menacés et Émergents [7]. Qu’allez-vous défendre ici ? Plutôt le fait que l’IA menace l’emploi ou crée de nouveaux emplois ?

Axelle Arquié : Je pense que la question se pose, c’est difficile de le savoir déjà, mais, ce qui est sûr, c’est qu’il va y avoir un certain nombre de destructions d’emplois, donc des activités cognitives, ce qui est une nouvelle menace par rapport aux automatisations passées. Il y a certainement création de nouvelles tâches, donc des nouveaux métiers, mais le souci c’est de savoir s’ils vont compenser en nombre suffisant pour que le solde soit neutre, voire positif, et je n’en suis pas tout à fait sûre.

Delphine Sabattier : Aujourd’hui, quand on présente justement les menaces sur l’emploi liées à l’intelligence artificielle, générative en particulier, est-ce qu’on ne se laisse pas un peu leurrer, finalement, par leur capacité à mimer la manière dont on parle ? Aujourd’hui, leurs raisonnements, leurs capacités de travail restent encore à prouver. Non ?

Axelle Arquié : Tout à fait, vous avez raison. Des limites techniques existent, notamment sur leur capacité à véritablement raisonner, c’est-à-dire que ces systèmes, pour le moment, ne sont pas capables de vraiment raisonner et d’affronter des problèmes nouveaux qui ne sont pas dans leurs données d’entraînement. Il y a le problème des hallucinations, des erreurs, qui sont toujours un frein à l’automatisation.
Cependant, ce qui est assez impressionnant, c’est que, même sans véritablement raisonner, ils sont capables d’accomplir des tâches qui, pour un humain, demandent un raisonnement. C’est là qu’on se dit qu’il y a quand même un certain nombre de tâches cognitives, qui nous demandent un raisonnement, que ces systèmes pourraient accomplir à notre place.

Delphine Sabattier : On dit que, pour la première fois, ça va toucher les cols blancs, que c’est une révolution technologique qui attaque les professions intellectuelles, mais ce qu’on voit surtout, en tout cas pour l’instant, c’est au niveau vraiment d’entrée dans l’entreprise que ça se passe. Par exemple, des entreprises se posent la question : est-ce encore nécessaire de prendre un stagiaire ? Est-ce qu’une IA ne suffit pas ? Est-ce qu’on est persuadé que ces IA vont, demain, occuper des postes plus stratégiques ?

Axelle Arquié : Persuadés non, en revanche vous avez raison. Les études qui existent actuellement montrent un effet sur l’embauche des juniors. Après, à savoir si ça va être le seul effet, moi je pense que c’est seulement une première étape parce que l’IA est une technologie à usage général, c’est-à-dire que ça prend du temps à se diffuser dans l’économie, ça demande une réorganisation, et on n’a pas encore mis en œuvre cette réorganisation dans les activités cognitives. Quand ce sera fait, on peut imaginer que ce ne sont pas seulement les postes d’entrée qui vont être touchés, mais des postes un peu plus stratégiques, comme vous dites. Après tout va dépendre de l’évolution technologique et de la place qu’on donne à ces IA dans un processus de décision, d’éducation, etc., et ça sera aussi un choix politique.

Delphine Sabattier : Ce colloque est organisé par Pause IA, une association qui demande à stopper le développement, en tout cas, à faire en sorte qu’on ne puisse pas faire émerger une intelligence artificielle générale, une super intelligence. Faites-vous partie également de ce mouvement ?

Axelle Arquié : Je pense que si on bascule dans ce paradigme d’une intelligence générale qui nous surpasserait dans tous les domaines cognitifs, on va avoir un problème politique, sociétal majeur. Idéalement, il faudrait éviter qu’on en arrive là. Une comparaison assez facile et classique, c’est un peu comme la bombe atomique, c’est-à-dire qu’on aurait intérêt, collectivement, à ne pas arriver à ce stade. Simplement, dans un monde ouvert et compétitif, c’est très difficile d’arrêter la course économique à l’IA générale. Vous imaginez le pouvoir que détiendrait économiquement et, à terme, politiquement, la première entreprise qui y parviendrait. Dans l’IA, on a déjà une concentration extrême et un pouvoir politique de ces entreprises qui est inquiétant. Donc si elles détenaient une IA générale, on aurait du mal à voir les limites.
Pour répondre à votre question plus simplement, je pense qu’idéalement il faudrait éviter qu’on bascule dans cette intelligence générale. Concrètement comment est-ce possible dans un monde compétitif où on ne peut pas réguler les autres pays ? Il faudrait une coopération internationale et on sait bien que c’est assez difficile à obtenir, surtout en ce moment.

Delphine Sabattier : Merci.

Échange avec Olga Muss Laurenty

Delphine Sabattier : Olga Muss Laurenty, vous allez intervenir dans quelques minutes. Vous êtes ingénieure en sciences cognitives, vous êtes membre de l’association Everyone.AI [8] qui s’intéresse aux risques de l’intelligence artificielle et informe aussi sur les risques de l’IA pour les enfants. Aujourd’hui on parle beaucoup des risques des écrans. Pour vous, est-ce que l’IA est un risque plus important que les écrans pour le développement de l’enfant ?

Olga Muss Laurenty : Effectivement, les écrans ont déjà été un vrai problème. Avec Everyone.AI, on essaye de dire « ne répétons pas les mêmes erreurs. » On a vu qu’il y a un impact sur la vue, sur le sommeil, sur la sédentarité par rapport aux écrans. Aujourd’hui, il faudrait développer une IA bénéfique pour les enfants, qui mette l’enfant au centre du design dès la conception du produit.

Delphine Sabattier : Qu’est-ce que veut dire « mettre l’enfant au centre du développement de l’intelligence artificielle » ? Très concrètement, à quoi pensez-vous ?

Olga Muss Laurenty : Par exemple, pour les réseaux sociaux, avec les connaissances de scientifiques qu’on avait déjà à l’époque, on sait qu’il y a des choix qu’on aurait pu éviter avec des conceptions différentes. On aurait pu éviter le scroll infini, on aurait pu éviter plein d’aspects addictifs liés à ce design. On peut tout à fait anticiper certains comportements, par exemple tous les aspects qui vont faire simuler le comportement humain par l’IA, la simulation des émotions, des désirs, des sensations, avoir une back story, une histoire personnelle qui est présentée par l’IA, tous ces types de petits aspects dans lesquels on peut intervenir en amont, dans la conception et dans la réglementation. On peut déjà faire beaucoup de choses et il y a encore beaucoup de choses qu’il faut encore faire.

Delphine Sabattier : Est-ce que vous voyez des effets positifs de l’IA auprès des enfants ?

Olga Muss Laurenty : En mathématiques, nous savons que des enfants ont parfois peur de poser des questions, ils ont peur de poser la question bête.

Delphine Sabattier : « Je n’ai pas compris », par exemple.

Olga Muss Laurenty : Exactement. Avec une IA à laquelle on peut poser une question sans avoir peur d’être jugé, ça peut être bénéfique. Elles peuvent aussi s’adapter à la façon de raisonner des enfants, elles peuvent aussi aider des enfants qui ont des besoins spécifiques. Or, pour que cela marche, il faut quand même concevoir une IA spécifique aux problématiques et aux besoins des enfants.

Échange avec Henry Papadatos

Delphine Sabattier : Henry Papadatos, bonjour. Vous êtes le directeur de SaferAI [9], une association française qui alerte sur les risques de l’intelligence artificielle, qui propose des solutions pour les minimiser. De quelle façon ?

Henry Papadatos : Je dirais que la partie alerte est une partie assez minime de nos travaux. Notre objectif principal va être d’améliorer le risk management qui est utilisé pour développer et déployer ces IA. Je pense que risk management est un terme qui peut paraître un peu vague. Ce qu’on veut dire par risk management, c’est l’ensemble des pratiques qui sont utilisées, d’ailleurs dans d’autres industries, par exemple l’aviation, pour réduire les risques. Ce sont tout un tas de pratiques qui commencent par l’identification des risques, l’analyse de ces risques, la modélisation, la mesure de ces risques, identifier quelle mitigation va être capable de réduire les risques, et puis on a également des aspects de gouvernance. C’est tout cet ensemble de pratiques qui a réussi à réduire les risques dans d’autres industries, comme l’aviation, et qu’on essaye d’amener et d’améliorer pour le développement des IA générales.

Delphine Sabattier : Dans quels secteurs voyez-vous en particulier des risques importants, sur lesquels on doit peut-être travailler en priorité ?

Henry Papadatos : Il y a une considération ici, c’est que les capacités des systèmes d’IA continuent à évoluer très rapidement, il faut donc se demander quels sont les risques qui sont posés maintenant par les systèmes d’IA et également quels sont les risques qui vont être posés par les systèmes d’IA dans le futur. Le fait que ces capacités se développent tellement rapidement fait que même si ce sont des risques qui ne se posent pas maintenant, il faut commencer à les regarder.
Pour répondre à votre question, je pense que les risques qui commencent à se poser maintenant et qu’on doit commencer à mitiguer maintenant sont les risques liés à la cybersécurité. Ces systèmes d’IA deviennent très capables en programmation. Il y a beaucoup d’impacts économiques positifs, pour ces compagnies qui développent des IA, à avoir des systèmes qui sont bons en programmation, donc ces capacités de programmation peuvent également être utilisées pour faire de meilleures cyberattaques. On pense que ce sont des choses qui commencent déjà à arriver maintenant et qu’il faut commencer à mitiguer maintenant.
Ensuite, il y a tous les risques qui vont arriver petit à petit avec cette augmentation de capacités dans le futur, qu’il faut donc commencer à voir venir aussi.

Delphine Sabattier : En fait, vous travaillez très concrètement à accompagner le déploiement des IA dans les organisations. Finalement, vous n’êtes pas partisan d’une pause dans l’intelligence artificielle comme le demande l’association qui organise ce colloque ?

Henry Papadatos : Pour répondre à votre première question, on ne travaille pas forcément avec les entreprises qui développent ces systèmes d’IA, on pense qu’il y a beaucoup de mitigation qui sont très dures à mettre en place par les entreprises qui utilisent ces systèmes d’IA. Les systèmes d’IA sont des choses très lourdes à faire tourner, très lourdes à modifier, à comprendre, on pense donc que beaucoup de mitigations doivent être mises en place par les compagnies qui mettent ces IA sur le marché, OpenAI par exemple. On aimerait se focaliser sur le fait que ces compagnies améliorent leurs pratiques de risk management.
Pour répondre à votre deuxième question. Comme je le disais, le fait que ces capacités augmentent rapidement fait que c’est très dur de s’adapter à une vitesse suffisamment rapide.
Je pense que vous avez parlé de l’impact économique, l’impact sur le marché du travail, l’impact sur le développement de l’enfant qui sont toutes des choses qui sont augmentées par le fait du développement très rapide de la technologie. Si je pouvais claquer des doigts et faire une pause dans le développement de l’IA à partir d’aujourd’hui jusqu’à ce qu’on ait fait plus de progrès sur ces questions de risques et sur les questions concernant le développement technique dont on a besoin pour réduire ces risques, oui, je claquerais des doigts.

Delphine Sabattier : Mais on ne claque pas des doigts, on voit bien qu’on n’est pas du tout sur ce mouvement.
Quand vous dites que vous vous adressez plutôt directement aux entreprises qui développent ces intelligences artificielles génératives et leurs chatbots, ce sont des compagnies qui, aujourd’hui, sont très peu présentes en France et en Europe, elles sont plutôt aux États-Unis. Comment avoir un écho auprès d’elles ?

Henry Papadatos : Il y a plusieurs manières de faire cela.
Par exemple, nous avons contribué au règlement européen de l’IA. C’est un règlement qui doit être respecté par ces compagnies si elles veulent déployer leurs modèles en Europe, c’est un exemple de levier d’action.
On travaille aussi sur des standards internationaux, ISO, c’est également un levier d’action.
On a fait un autre travail qui analyse les pratiques de risk management de ces compagnies-là et donne de la clarté aux gens qui vont déployer des systèmes d’IA. On essaie de créer cette boucle de visibilité sur leurs pratiques actuelles pour créer d’autres leviers, pour qu’elles aient de meilleures pratiques.

Delphine Sabattier : Merci.

Échange avec Thomas Dossus

Delphine Sabattier : Monsieur le Sénateur, vous avez conclu ce colloque en disant notamment qu’il fallait davantage politiser ce sujet de l’intelligence artificielle, parce que ceux qui sont derrière ces IA ont des idées, voire des idéologies politiques. Par quoi cela passe-t-il de politiser l’IA ?

Thomas Dossus : L’IA va avoir un impact très fort sur notre futur, sur la façon dont la société va être organisée, etc.
Le principe démocratique c’est de choisir collectivement dans quelle société on veut vivre. On ne doit donc pas se laisser imposer ce progrès, on doit le prendre pour ce qu’il est, c’est-à-dire une innovation importante qui aura un impact sur nos modes de vie. On ne doit donc pas laisser les personnes qui financent ces IA, qui sont les grands milliardaires américains ou les Chinois, construire le modèle de société dans lequel on veut vivre.
Si on doit réguler cette IA, c’est mon rôle de régulateur, de législateur, on doit d’abord s’interroger sur le monde dans lequel on veut que cette IA interagisse. Pour cela, il faut donc politiser notre vision de l’IA, comprendre quels sont les impacts sur la société, voir vers quelle société on veut aller.

Delphine Sabattier : Quelles sont les principales questions que vous vous posez aujourd’hui justement sur cette question de la régulation, de la réglementation autour de l’intelligence artificielle ? Vous avez travaillé sur des règlements sur le numérique, on a aussi un texte sur l’IA. Jusqu’où faut-il aller ?

Thomas Dossus : Le texte européen sur l’IA part d’une bonne posture, c’est-à-dire se poser la question en termes de risques, savoir quels risques fait peser tel ou tel modèle d’intelligence artificielle sur nos vies, je pense donc que ça part d’une bonne idée. On l’a évoqué un peu pendant ce colloque ; la façon dont a régulé l’aéronautique ou la pharmacie, par exemple, sont aussi de bonnes façons de faire. Par exemple, pour les médicaments, il y a une autorisation de mise sur le marché avant qu’on lance des médicaments à l’usage. Ne faudrait-il pas réfléchir aussi à une autorisation de mise sur le marché de certains modèles d’IA qui font peser certains risques sur nos modes de vie ?

Delphine Sabattier : Qu’avez-vous retenu en particulier des échanges ?

Thomas Dossus : C’est assez vertigineux. Évidemment on a parlé de l’exponentielle des IA qui deviennent de plus en plus performantes et qui vont bientôt dépasser l’humain sur certaines tâches, etc. C’est donc assez vertigineux, on se demande un peu quelle place on va avoir dans le futur. Tout ceci doit nous amener à très vite nous organiser, à la fois sur la façon d’accompagner parce que je pense que l’IA peut apporter beaucoup de choses, comme n’importe quelle technologie, mais aussi savoir quels risques ça fait peser sur nous. Donc, face à ce vertige, il ne faut pas être tétanisé, il faut savoir s’organiser.

Delphine Sabattier : Ce sont deux sénateurs écologistes qui portent ce colloque ce matin au Sénat. Pour autant, la dimension énergétique n’est pas la préoccupation première qui en est ressortie.

Thomas Dossus : On a fait le choix de voir l’impact sur la société plutôt que l’impact sur les ressources et sur l’environnement. Ce sont évidemment des sujets sur lequels on travaille : les ressources en eau, l’électricité, la façon dont ça peut aussi impacter nos sociétés à travers cette surconsommation. Tout ceci c’est bien évidemment quelque chose qu’on travaille, mais on avait choisi de prendre un autre volet. C’est aussi comment on pose des limites. De la même façon qu’on veut poser des limites aux émissions de gaz à effet de serre, à la façon dont on prend dans les ressources terrestres, il faut aussi fixer des limites dans le développement de l’IA et, quelque part, c’est un peu le même sujet. Pour des phénomènes aussi internationaux que l’IA ou que le changement climatique, comment met-on des limites pour éviter que nos sociétés sombrent ?

Delphine Sabattier : Merci beaucoup.

Échange avec Ghislaine Senée

Delphine Sabattier : Madame la Sénatrice, vous avez participé à l’organisation de ce colloque sur les risques de l’intelligence artificielle. Qu’est ce qui a motivé, pour vous, l’organisation de cet événement ?

Ghislaine Senée : La réalité c’est que j’ai commencé à me pencher sur la question de l’IA au travers d’un rapport sur l’utilisation de l’IA au sein des collectivités territoriales, dans le cadre de la délégation aux collectivités territoriales ici. Je me suis rendu compte que c’était un sujet qui, à la fois, passionnait énormément les sénateurs et, à la fois, les inquiétait énormément. On a donc commencé à échanger, puis je me suis dit qu’il y avait des sujets importants : la question de la donnée, la question du bien commun. Et puis, au travers de ça, j’ai été contactée par l’association Pause IA qui m’a alertée sur un certain nombre de risques, de vulnérabilités que j’avais déjà un petit peu perçues, sur lesquelles il me semblait important qu’on puisse, en tout cas ici au Sénat, au travers de ce colloque, poser et voir quels leviers ont pouvait lever, ici, pour essayer de limiter au maximum ces risques.

Delphine Sabattier : Ce colloque était organisé aussi avec des intervenants je dirais assez modérés, finalement, sur les risques de l’IA, il n’y avait pas d’appels ostentatoires à tout arrêter sur le développement de cette technologie. C’est un peu le principe de Pause IA. Que pensez-vous de la nécessité, ou non, de faire une pause ?

Ghislaine Senée : C’est vraiment la façon dont j’ai voulu qu’on aborde ce colloque. L’idée n’est pas de dire on arrête tout. Je suis écologiste, on a dit « il faut arrêter le nucléaire » et on voit où on en est aujourd’hui ! Je crois, au contraire, qu’il faut que nous puissions collectivement nous demander quel est l’intérêt général, quels risques et vulnérabilités on fait prendre à nos entreprises, aux acteurs économiques et aussi à la population, et comment, en toute conscience, nous, législateurs, nous allons mettre des limites, définir des lignes rouges, donc nous allons évidemment parler, travailler à la régulation. Une régulation qui se fait, on le voit, au niveau au niveau européen, sur laquelle, je pense, nous avons des secteurs particuliers, ça a été soulevé, notamment la question de la sécurité sur laquelle la France peut avoir un vrai leadership.

Delphine Sabattier : Qu’est-ce que vous avez retenu justement des échanges qui ont eu lieu ici et de la salle, parce qu’il y avait du monde pour écouter tout ça ?

Ghislaine Senée : Oui, on voit que c’est un sujet qui intéresse, quasiment tous les jours, dans les médias, on traite de l’intelligence artificielle. Il y a deux sujets sur lesquels, je pense, on peut trouver un terrain d’entente et sur lesquels on peut avoir réellement une approche, un texte transpartisan :
la question de la protection de l’enfance, droits de l’enfant et les atteintes cognitives qui peuvent directement les toucher ; je pense qu’il peut y avoir ici un consensus
et ensuite la question cyber, avec l’exemple des hôpitaux qui ont été hackés. Au sein de toutes les collectivités territoriales, je pense que c’est vraiment un sujet dont beaucoup de personnes et d’élus ont conscience et, sur lequel, là aussi, on peut certainement trouver des terrains d’entente.

Delphine Sabattier : Il y a donc une prochaine étape, selon vous, à la suite de ce colloque ?

Ghislaine Senée : L’idée c’est de pouvoir continuer. C’est ce que j’aimerais faire, c’est-à-dire progressivement ouvrir les champs de discussion et voir comment on peut, au final, apporter, en tout cas ici au Sénat, des réponses très concrètes aux inquiétudes qui sont levées par nos concitoyens. Cet outil n’est pas simple, je pense qu’il faut former, qu’il faut l’appréhender, il faut continuer notamment à parler de l’empreinte environnementale qui est catastrophique. Donc, quel équilibre trouver avec nos concitoyens pour faire en sorte que cet outil puisse être au service de l’intérêt général et non pas simplement au service d’intérêts privés avec tous les biais et tous les travers qu’on vient d’évoquer.

Delphine Sabattier : Merci beaucoup.

C’était Politiques Numériques, alias POL/N, votre émission politique sur le numérique. Vous nous avez suivis dans cette édition un peu spéciale, tournée au Sénat à l’occasion d’un colloque sur les risques de l’intelligence artificielle.
N’hésitez pas à partager, en commentaires, votre propre regard sur cette société numérique et sur les déploiements de l’intelligence artificielle.
Cette émission est disponible en audio sur les plateformes de streaming, podcasts, vous les connaissez par cœur. Elle est également disponible en vidéo sur ma chaîne YouTube. Je suis Delphine Sabattier, je serai très heureuse de vous y retrouver.