Licences Open Source et IA : Quelles licences sont les plus adaptées aux modèles d’IA ? Open Source Experience 2024

Primavera De Filippi : Bonjour à tous. Merci pour la patience. On va commencer.
Ce panel c’est sur la question des licences, de l’open source par rapport à l’IA. On va essayer d’explorer cette question : dans quelle mesure les licences open source aujourd’hui sont ou peuvent être utilisées dans l’IA. Et, plus largement, le concept d’open source s’applique-t-il, les principes et les concepts de l’open source peuvent-ils être transposés dans le contexte de l’intelligence artificielle ? Des nouvelles pratiques sont-elles en train d’émerger ? Quelles sont ces nouvelles pratiques ? Sont-elles effectivement compatibles avec l’open source ? Ou alors est-on en train de se diriger vers un système qui est ouvert, mais qui a des restrictions spécifiques, un peu comme avec l’arrivée des Creative Commons qui ont introduit certaines restrictions par rapport aux principes fondamentaux de l’open source pour répondre à certains besoins qui étaient plutôt les besoins des artistes ? Donc, que ce soit des questions éthiques, que ce soit des questions de business ou commerciales, l’intelligence artificielle peut-elle s’emparer des licences open source ? Ou bien est-ce que cela justifierait la création de nouvelles licences qui ne soient pas tout à fait propriétaires, mais qui ne soient pas complètement ouvertes, autant qle les open source ?
On va commencer avec Benjamin Jean. Tu veux te présenter.

Benjamin Jean : Bonjour tout le monde. Benjamin Jean. Je suis juriste de formation, je me suis spécialisé très rapidement sur les sujets qui touchaient à l’open source, l’open data, tout ce qui était collaboratif et j’ai fondé, en 2011, une structure qui accompagne spécifiquement tout type d’organisation sur ces sujets.
Le sujet open source – IA est à la fois très complexe et, en même temps, des choses très intéressantes sont ressorties récemment. Qui, dans la salle connaît, l’Open Source Initiative [1] et l’Open Source Definition [2] ? Toutes les mains ne se sont pas levées, c’est donc bien que je pose la question.
Dans les années 2000, en 1998, il y a eu un besoin de créer une définition de ce qu’était une licence open source, parce qu’on se rendait compte qu’il y avait des licences dans tous les sens, que tout le monde se perdait et que l’intérêt même du logiciel libre, open source, qui était de créer des standards et de faciliter la collaboration était perdu parce qu’il y avait trop de spécificités. Une instance a été donc créée, l’Open Source Initiative, une définition a été créée, l’Open Source Definition , et aujourd’hui c’est notamment grâce à cette Open Source Initiative qu’un nombre limité de licences open source existent et, lorsqu’une licence est dite open source, c’est vraiment parce qu’elle respecte les 10 critères de l’Open Source Definition.
Récemment, on s’est mis à parler d’open source de partout, notamment, et c’est le point que je voulais aborder, dans le contexte intelligence artificielle. En Europe, lorsque le législateur a rédigé son règlement en matière d’intelligence artificielle [3], il a notamment, à la demande des acteurs de l’open source, introduit une exception en matière d’IA, en disant « OK on a des règles, on va apporter une régulation en fonction des contextes dans lesquels vous allez utiliser l’intelligence artificielle, mais, pour l’open source, on va aménager des exceptions parce que, effectivement, les acteurs ne sont pas les mêmes, les enjeux sont un peu différents. » Je ne rentre pas sur l’AI Act en tant que tel. En revanche, une définition a été proposée par le législateur européen à l’époque, qui a fait peur à pas mal d’autres acteurs, notamment à l’Open Source Initiative qui a dit « on a essayé, jusqu’à maintenant, de clarifier ce que voulait dire open source et vous, vous créez une nouvelle définition, vous ne nous consultez même pas et vous nous apprenez que l’open source AI c’est ça ».

Est-ce que l’Open Source Initiative était légitime pour créer une définition de l’open source dans le domaine de l’AI ? C’est une vraie question et je dirais qu’ils se sont auto-saisis pour savoir s’ils devaient, ou pas, publier une nouvelle définition. Il y a eu pas mal de désaccords, des membres du board sont partis, il y a de nouveaux membres au board, des financeurs ont arrêté de financer l’OSI, de nouveaux financent l’OSI. Il y a eu donc un jeu assez intéressant, en une seule année, de remise en question du rôle de l’OSI, donc de l’intérêt, ou pas, d’avoir une définition de l’open source AI.
Au final, ils ont publié un texte. Ce texte n’est pas inintéressant. Qui a lu le texte de la définition de l’open source AI par l’Open Source Initiative ? Il y a quelques mains.
C’est très proche de la définition du logiciel libre. C’est paradoxal parce que, généralement, il y a deux définitions : celle du logiciel libre et celle de l’OSI avec l’OSD. Eux, en fait, ont défini les libertés de l’open source AI en disant, globalement, je ne reprends pas le texte, « il faut que ça permette l’usage, que ça permette d’étudier le système AI en tant que tel, de permettre la modification et le partage de ces éléments-là ». Pour ce faire, là où il y a eu du vrai travail, entre guillemets, « contractuel » – je ne devrais pas le dire comme ça, ils n’apprécieraient pas s’ils m’entendaient parler d’eux comme ça, ils ont beaucoup travaillé –, là où il y a eu plus d’efforts c’est sur la définition de ce qu’est un open source AI system. En fait, qu’est-ce qui compose un système d’AI et comment on décrit notamment les modèles en termes d’AI, en fait qu’est-ce qui caractérise ces parties d’un tout qui est le système AI ?
Ce qui est intéressant aussi c’est qu’ils se sont rendu compte que la propriété intellectuelle n’était pas l’essentiel. Ils ont rapidement dit – Carlo Piana [4] siégeait au sein de l’OSI à moment-là – que, finalement, dans la définition de l’open source c’était principalement de la propriété intellectuelle, du juridique, et un petit peu de clauses qui touchaient à l’accès au code, en disant « juridiquement, vous devez donner les droits, matériellement vous devez donner ce qui correspond à ce que vous voulez que les gens puissent manipuler. » Dans l’IA c’était l’inverse. Sur les droits il n’y a pas grand-chose parce qu’il n’y a pas beaucoup de propriété intellectuelle. En revanche, il y a plein de choses qu’il faut potentiellement transmettre, mais il faut délimiter le périmètre de ce qui doit être transmis.
Ça c’était un premier retour de l’open source AI par l’Open Source Definition .
Dans la discussion qu’on a eue dans le contexte de ce panel et de ces échanges, la première question, pour moi, c’est : est-ce qu’on doit s’inspirer de ce qui a été fait dans l’open source pour définir ce qui est la définition d’un open source AI ? Est-ce que le rôle de la propriété intellectuelle doit être le même ? C’était très facile, avant, de dire à tout le monde : il y a des droits de propriété intellectuelle, donc on va s’entendre sur la manière dont on va les gérer. En fait, dans l’AI, les enjeux ne sont pas les mêmes.
Je réfléchissais un peu aux réponses qu’on devait chercher à apporter, selon moi, mais je n’ai pas les réponses. En tout cas, les quelques questions qui me venaient, c’était : comment est-ce qu’on propose un modèle qui est systémique, neutre et englobant ? En fait, l’intérêt de la propriété intellectuelle c’est que, quand vous demandez à quelqu’un « est-ce que vous connaissez la propriété intellectuelle ? », les gens, avec plus ou moins de confiance, vous disent « oui ». Maintenant, si vous leur demandez « est-ce que vous comprenez ce que veut dire un système d’intelligence artificielle et est-ce que vous comprenez les droits associés à un système de gestion d’intelligence artificielle ? », c’est beaucoup plus complexe.
Il faut aussi qu’on puisse proposer quelque chose qui soit alternatif et compatible avec les modèles économiques actuels. Ce qui fait l’une des forces de l’open source c’est que, même s’il y a plein d’acteurs qui ne se retrouvent pas dans des logiques commerciales, c’est tout à fait compatible avec des logiques commerciales. Il faut aussi qu’on sensibilise et qu’on participe à une prise en compte, une montée en conscience de ces différents acteurs.

Quelques actions qui me sont venues, et je finirai avec ça, c’était juste pour introduire un peu les réflexions que je pourrais avoir, c’est, d’une part, la question de la sensibilisation. Je pense notamment à ce qu’a lancé La Quadrature [5] sur la façon dont on rend perceptibles les enjeux de l’AI à tout un chacun, parce que, en fait, beaucoup de personnes sont dépassées. On voit l’opportunité, on ne comprend pas trop les risques.
Une question que je me posais, je n’ai pas la réponse, c’est un sujet d’un projet de recherche sur lequel on a travaillé il y a quelque temps, c’est la manière dont on pourrait aussi se concentrer sur toute la partie services. En fait l’intelligence artificielle, les systèmes d’AI en tant que tels, dans leur globalité, c’est surtout une manière de fournir des services d’un point de vue économique. Ce sont des personnes qui proposent à des personnes, souvent via une interface web, de payer pour avoir accès à des réponses d’AI. Je me dis que l’interface, finalement, est surtout dans les conditions d’utilisation de ces services-là. On avait fait un travail qui s’appelait APIToS [6] ; le terme c’était FACT [Your API Terms are Fair, Transparent and Trustworthy]. Globalement, c’était comment donner confiance dans l’utilisation des services sur Internet, ça rejoint un peu toute la réglementation qu’il y a aussi autour de la loyauté des hébergeurs ou des fournisseurs de services, se dire qu’il y a peut-être quelque chose à faire sur les conditions d’utilisation, on est donc sur du contractuel, c’est un peu le point qu’on évoquait hier, et surtout sur une compréhension. Typiquement vous utilisez ChatGPT, dans quelle mesure êtes-vous alerté sur les enjeux principaux qui vont vous donner confiance, ou pas, dans l’utilisation de ChatGPT ou de n’importe quel autre fournisseur d’AI. Cela se retrouve d’un point de vue consommateur et aussi d’un point de vue commanditaire : quels critères peut utiliser quelqu’un qui veut acheter de l’AI pour choisir une solution ou une autre ?
C’était très rapide mais juste pour introduire la réflexion.

Primavera De Filippi : Je peux faire juste une micro réaction. Par rapport au point que tu viens de faire, j’ai l’impression que quand on parle d’une solution contractuelle, avec les termes of service, ça ne fonctionne que si, effectivement, il y a un accès API où on doit cliquer sur « je suis d’accord ». Mais, justement, ce n’est pas très compatible avec une approche open weight si ce n’est pas open source où, en fait, on n’a plus besoin, les termes n’existent plus, il faut qu’il y ait une licence associée avec le modèle. Donc comment l’approche contractuelle peut-elle faire ?

Benjamin Jean : Oui et non. Ce qu’il y a derrière et ce qu’on avait essayé de traduire dans le cadres d’APIToS [6], c’est de dire, typiquement, si la transparence et l’accès à certaines informations sont nécessaires pour les utilisateurs des services, quelque chose doit être affiché, mis en avant, de telle manière que les personnes choisissent d’utiliser tel type de service plutôt qu’un autre. Ça veut dire que l’incidence de l’importance que cette transparence va imposer ce qu’ils diffusent par ailleurs, c’est-à-dire qu’ils n’ont pas l’obligation de le faire, mais ils vont le faire. Ensuite, il y a ceux qui vont le faire parce que ce n’est pas un argument commercial.
Là, c’était juste la manière dont on pouvait rattacher les enjeux de transparence et tous ces sujets en matière d’AI à des business modèles, en tout cas des situations dans lesquelles les acteurs économiques auraient intérêt à partager. En fait, quel intérêt peut-on donner aux acteurs à partager ?, c’est peut-être un peu le schéma qui me venait.
Plein de choses me viennent en tête. Pour moi, ce n’est pas incompatible mais ce n’est qu’une partie de la solution. En revanche, ça permet d’intégrer les acteurs du marché dans cette logique de distribution là où, sinon, ils ne le feront pas.

Primavera De Filippi : Disons, pour les acteurs qui ne prennent pas une approche open weight.

Benjamin Jean : Complètement.

Primavera De Filippi : OK. Merci. Adrien, tu veux te présenter.

Adrien Basdevant : Bonjour à toutes et à tous. Je m’appelle Adrien Basdevant. Je suis avocat au barreau de Paris. J’ai fondé un cabinet qui s’appelle Entropy [7], je traite de sujets de data et d’algorithmes tous les jours.
Il y a un an, près de Londres, à Bletchley, il y a eu le sommet AI Safety Summit dont vous avez très certainement entendu parler, qui a réuni à la fois tous les institutionnels, les académiques, les ONG et les acteurs privés qui développent des modèles de fondation. Le principal narratif, à l’époque, c’était de dire que ceux qui développaient des modèles open source allaient démocratiser, favoriser l’accès au bioweapons [armes biologiques] et que l’open source était synonyme de danger. Et ce narratif n’était pas du tout minoritaire, il ne faut pas croire que c’était une action juste dans un coin, c’était véritablement coordonné. Il a été factuellement documenté que plusieurs millions ont été injectés, en politiques publiques, pour montrer aux gouvernements qu’il y avait un risque lié à l’open source.
Le problème des modèles complètement fermés, en dehors du fait que ça va créer, encore une fois, une situation oligopolistique, le risque principal c’est qu’il n’y a pas une pluralité à la fois dans les données d’entraînement mais aussi dans les algorithmes qui les traitent, une pluralité de représentation du monde et d’accès par rapport à ces différents services pour les citoyens utilisateurs.
Sauf que du côté de l’open source, tel qu’il a été défini d’un point de vue logiciel, il n’y avait pas encore une voix, il n’y avait pas encore un plus grand dénominateur commun créé. Du coup, un contre-narratif n’était pas proposé et personne n’était capable, oralement, d’expliquer véritablement, que ça soit au Premier ministre de Grande-Bretagne ou dans d’autres juridictions, que l’open source était en fait un enabler, quelque chose qui allait permettre de faire plusieurs choses, que ça soit la reproductibilité scientifique dont on vient de nous présenter les bienfaits, que ça soit en termes d’explicabilité, de transparence, fixer des bugs, on se rend compte qu’il y a quand même beaucoup de points positifs à l’ouverture, à l’openness, on peut en lister peut-être une douzaine. Et pourquoi n’y avait-il pas un plus grand dénominateur commun ? C’est qu’en fait l’écosystème de l’openness, et je vais faire exprès de ne pas parler d’open source, est un écosystème qui voit qu’il y a des avantages de manière assez grande, il y a une taxonomie d’avantages et, parfois, des personnes ne vont pas jusqu’à faire de l’open science, c’est-à-dire qu’elles ne sont pas en train d’additionner open data et open model, etc., et pourtant elles apportent quelque chose à la conversation. Et ce plus grand dénominateur commun n’était pas trouvé parce que l’écosystème était tiraillé entre de l’openwashing avec des grands groupes américains qui pouvaient dire qu’ils faisaient de l’open source AI, ou qui s’appelaient directement, dans leur titre, Open AI, ou qui mettaient à disposition des modèles de LLM [Large Language Model] qui sont pourtant sur des licences propriétaires et, si vous regardez le détail de la licence, vous ne pouvez pas, par exemple, utiliser les outputs, les résultats de sortie pour les réutiliser pour du training de datasets dans l’entraînement d’un autre modèle et pourtant ça s’appelait open source. Il y avait donc tout cet openwashing. Et, d’un autre côté, des personnes voulaient faire en sorte qu’une vision quasi prescriptive de l’open source, tel qu’il pouvait être plus facilement défini en matière de logiciel, vienne s’appliquer à l’IA, sans venir définir de quel élément on discutait, donc elles disaient, de manière quasi absolue, ce qui serait peut-être l’excès inverse, asymétriquement caricatural, de l’openwashing : « Vous avez une composante qui n’est pas du tout open source, arrêtez de dire que c’est open source. »
On se rend compte que dans l’openness il y a plusieurs avantages et ce n’est pas parce que vous ne faites pas de la reproductibilité scientifique, qu’en mettant à disposition de la communauté le code par exemple d’inférence ou les pre-training weights que vous ne contribuez pas aussi à quelque chose qui va permettre d’encapaciter d’autres individus.

Donc avec Mozilla, il y a six mois, sept mois maintenant, on a réuni à New York beaucoup d’acteurs qui venaient de ces différentes sphères, ça va de EleutherAI [8], pour ceux qui connaissent, qui font des choses vraiment remarquables, jusqu’à des personnes qui peuvent travailler dans des private labs où elles font plus de l’available weight ou de l’open weight que de l’open science de manière très globale et on s’est posé deux questions : quels sont les bénéfices de l’openness ? Ne pourrait-on pas commencer à décrire ce que serait le text Act d’un modèle et d’un système d’IA pour comprendre ce dont on parle. Parce que demain, quand quelqu’un va vous dire « mon système d’IA est open », de quoi parle-t-on en fait ?
Est-ce qu’on parle du code ? Est-ce qu’on parle des data ? Est-ce qu’on parle des weights ? Et là on n’est qu’au niveau du modèle.
Quand on parle du code, est-ce qu’on parle du pre-training code ? Est-ce qu’on parle de l’inference code ?, et j’en passe.
Parmi les data, est-ce qu’on parle du pre-training dataset ? Est-ce qu’on parle des data d’évaluation ?
Parmi les weights, est-ce qu’on parle des paramètres que vous avez utilisés au tout début ?
On a essayé de dresser une taxonomie et ça c’est le modèle. Au-dessus du modèle, vous mettez des interfaces utilisateur, etc., vous avez un système, le système d’IA d’ailleurs qui est défini dans l’AI Act principalement. Vous pouvez avoir des systèmes prompts ; toutes les guardrails et les safeguards se jouent davantage au niveau du système.
Donc demain, quand vous dites que vous avez un système d’IA qui est ouvert, encore une fois de quoi parle-t-on ?
On s’est rendu compte qu’il faut, premièrement, avoir une approche qui ne soit peut-être pas prescriptive et accepter les bienfaits d’une typologie qui peut être un peu plus multiple, avec des curseurs qui vont, encore une fois, de quelque chose qui va de l’available weight jusqu’à l’open science. Il y a plein de degrés bénéfiques pour une approche de l’openness.
La deuxième chose, c’est d’écrire ce text Act et de savoir de quoi on parle.

On a publié ça avec des chercheurs très intéressants qui travaillent soit chez Hugging Face [9] à Princeton, à Colombia ou chez Mozilla.
À partir de ce papier-là, on essaie maintenant de réfléchir sur les questions d’AI safety parce que, là encore, il faut des outils qui soient open pour pouvoir tester des modèles qui le sont aussi.
Cette approche globale permet, d’abord, d’apporter, dans la conversation un narratif différent à des institutionnels et des policy makers à qui on est venu nudger le fait qu’open = danger. Alors qu’on se rend compte que dans des clauses, de toute manière si vous voulez faire une action qui est véritablement belliqueuse vous pouvez aussi très bien hacker un système et récupérer le code source.
De ces débats sont nées différentes prises d’initiatives. Des frameworks intéressants sont sortis. Celui de Linux, que vous avez peut-être vu passer, le MoF, le Model Openness Framework [10] décrit aussi une typologie de ce text Act.
Je vais donc passer la parole à Charlotte.

Charlotte Heylliard :Merci. Enchantée. Je m’appelle Charlotte Heylliard. Je suis également avocate au barreau de Paris. En ce moment, je suis directrice des opérations dans une startup spécialisée dans les solutions LegalTech dans le domaine de l’intelligence artificielle, qui s’appelle Alien.
Du coup, pour ma part, je vais vous présenter, dans la continuité de tout ce qui a été présenté avant sur les problématiques liées à l’open source et surtout à la fragmentation des licences, un état des lieux. On a fait un peu le même travail que vous.
Vous l’aurez compris, le sujet, aujourd’hui, c’est que la plupart des big players en IA se mettent à rédiger leur propre position et le constat c’est que pour les utilisateurs, à la fin, c’est un petit peu difficile de s’y retrouver et il n’existe pas, on va dire, un modèle de licence de référence, comme on peut trouver avec Creative Commons, qui permettrait d’avoir une meilleure lisibilité des différentes options, une meilleure compréhension globale de tout cela.
Nous avons fait un petit tableau, si vous voulez on vous le partagera. Nous nous sommes amusés à aller lire une à une toutes les licences et voir quelles étaient un peu les conditions, qu’est-ce qui était ouvert, fermé, conditionné, conditionné à quoi, etc.
Le mot d’ordre c’est quand même que c’est un petit peu difficile de s’y retrouver. Du coup, pour clôturer un peu ce panel, je voulais vous présenter notre solution. Je ne dis pas que c’est la solution, c’est notre solution à cette situation de fragmentation des licences.
Initié par Alien et avec plein d’autres acteurs, on a procédé à la rédaction d’une licence unique, modulable, qui permette un peu de retrouver toutes ces petites options qu’on voit, qui sont déjà choisies par les acteurs existants, et de publier tout ou partie des composants de l’IA dans des termes qui parlent à tout le monde, qui deviendrait un peu le référentiel.
Donc notre licence, qu’on appelle la Copy Fair License, s’inspire des licences Creative Commons dans le sens où c’est une licence avec des options, donc une licence conditionnelle. Comme Creative Commons a répondu aux besoins des artistes quand ils ne s’y retrouvaient pas et qu’ils avaient des intérêts économiques à défendre, l’idée c’est de répondre à ces besoins. Elle s’inspire également, et ça a été beaucoup mentionné, des licences qui sont dites OpenRAIL [Open & Responsible AI licenses], donc plutôt en lien avec tout ce qui est responsible innovation, puisqu’elle contient aussi des options sur ces sujets-là.
Vous pouvez accéder à la licence, je vous ai mis le lien en bas, si vous voulez lire le texte en entier, sur notre site qui s’appelle www.alien.club/technology/copyfair-license. Il faut que vous sachiez que c’est la première fois qu’on la présente aujourd’hui.

En tant que licence ouverte, la licence Copy Fair permet évidemment tout ce qui est très classique : reproduire, copier, utiliser, développer, etc., le matériel sous licence.
Elle permet, ça c’est plus le côté un peu OpenRAIL ou similaire, d’intégrer des restrictions d’utilisation, pour ceux qui seraient soucieux de prohiber certains usages, par exemple les usages militaires.
Elle permet donc d’intégrer une clause de copyleft. Idem on peut retrouver ça un peu dans toutes les licences qui sont aujourd’hui pratiquées.
Une obligation de créditer, tout ça c’est assez standard.
C’est vraiment à l’utilisateur de la licence, quand il choisit, de cocher les cases, de moduler ce qui l’intéresse oui ou non.
La grande nouveauté c’est dans la clause dite de Copy Fair qui fait, en fait, la distinction entre différentes catégories de bénéficiaires. L’idée n’est pas de distinguer en fonction des usages, commerciaux ou non, en tout cas pas uniquement, mais d’essayer de distinguer des typologies d’acteurs. Vous pourrez lire la licence, il y a plein d’options. Ce qu’on permet dans cette clause c’est de distinguer les usages open qui sont dits permissionless, donc au donneur de licence de les définir et, par opposition, tout ce qui n’est pas permissionless sera conditionné, au donneur de licence de définir à quels critères cette clause est soumise. Ça peut être, par exemple, des critères de revenu, des critères de chiffre d’affaires en lien avec l’utilisation du matériel sous licence, etc., et de définir ce que sont, pour lui, des conditions acceptables. Ça peut être, par exemple très classiquement, l’obtention d’une licence en direct avec lui ou le paiement d’une somme forfaitaire ou même un système de tiered pricing, de paiement qui augmente en fonction des revenus générés par l’utilisation du matériel protégé.
Vous pouvez retrouver la licence sur ce lien. Ça c’est notre petit logo et, évidemment, nous sommes très preneurs de vos retours sur cette licence.

Public : Inaudible.

Charlotte Heylliard :On envisage de publier certaines de nos briques sous cette licence, mais on ne l’a pas encore fait. C’est vrai que quand on l’a rédigée, on s’est projeté dans l’utilisation de ce texte.

Primavera De Filippi : Super. Merci.
Pour créer un peu de conversation dans ce panel, j’ai une question pour tous les trois, une question ouverte pour générer un peu de débat. En écoutant ces interventions, la question que je me pose est : dans quelle mesure est-on vraiment en train d’essayer de déterminer si les licences utilisées aujourd’hui par l’IA rentrent dans le contexte de l’open source ? Je pense que la réponse est plus ou moins non pour l’instant.
L’OSI a eu aussi pas mal de critiques, notamment par rapport à la question des données : doivent-elles faire partie de l’open source ? Et, d’une certaine façon, de quoi parle-t-on quand on parle d’open source ? On parle de sources. On parle de code source. Dans l’IA, de quoi parle-t-on quand on parle d’open source ? Parle-t-on de la source ? Dans ce cas, effectivement, ça pourrait être la source des données, mais la plupart des modèles d’IA n’ont même pas le droit, eux-mêmes, de dévoiler les données puisqu’elles sont protégées soit par propriété soit par droit d’auteur.
Il y a, en plus, toutes les questions notamment d’AI alignment auxquelles on répond par des licences telles que les OpenRAIL qui vont introduire certaines restrictions sur les usages pour s’assurer qu’on ne fasse pas ces bioweapons.
Ensuite, il y a toutes les questions commerciales : si on ouvre tout alors qu’un énorme investissement a été fait, si le choix c’est soit open source soit propriétaire, le choix sera propriétaire.
Est-ce qu’on se retrouve pas un petit peu comme à l’époque où l’Internet a ouvert la possibilité d’avoir des contenus un petit peu accessibles facilement et qui a donc motivé la génération de licences qui ne sont pas des licences open source et qui ne revendiquent absolument pas d’être des licences open source, par exemple les licences Creative Commons ? Avec l’intelligence artificielle, n’est-on pas en train de rencontrer un nouveau moment de bascule où, en fait, on a besoin de nouvelles licences, des licences potentiellement ouvertes, mais pas ouvertes jusqu’au bout dans le sens de l’open source pour des raisons de confidentialité ou du droit d’auteur par rapport aux données, pour des raisons d’alignment et de safety autour de l’IA et pour des raisons commerciales ?
C’est une question un petit peu ouverte, mais ça m’intéresse de connaître vos opinions.

Adrien Basdevant : Déjà c’est intéressant, si certains acteurs n’utilisent pas le terme open source alors qu’ils ne font que de l’open weight, je pense que c’est une des premières approches.
En réalité, des acteurs vont dire qu’ils font de l’open source dans l’IA alors que l’open source ne s’appliquerait qu’à l’inference code et pas au pre-training.
Je dirais donc que le premier réflexe serait déjà de ne pas utiliser le terme open source dans l’IA de manière trop large.
Le second c’est de commencer à utiliser des nuances, donc si vous faites de l’open weight dire open weight, si c’est de l’available weight dire available weight.
Pour autant, il y a quand même une nécessité de reconnaître que même ceux qui font de l’available weight contribuent à quelque chose par rapport à ceux qui font une approche entièrement fermée.
Après, par rapport à ta question, Primavera, si on rentre sur est-ce que l’open source s’applique à l’IA, c’est là où tout n’est pas du code source. Pour un weight, par exemple, peut-être qu’une licence open data sera plus appropriée, mais je trouve qu’aujourd’hui, en tout cas dans la communication très grand public, des personnes vont faire de l’Apache sur l’inference code mais, pour autant, le pre-training va être complètement propriétaire et c’est cet amalgame-là qui n’est pas très bénéfique pour l’écosystème et son développement.
Ensuite il n’y a pas que des questions d’openness, il y a des questions de completness. Si on va juste sur la data, si vous faites des data cards ou même des model cards, OK, peut-être que vous avez mis certaines choses sous une forme open, pourtant vous ne l’avez pas rempli de manière complètement exhaustive et complète. C’est donc open mais c’est incomplet dans la précision de l’information. On se rend donc compte que l’openness n’est pas non plus le seul vecteur. Il faut voir aussi l’aspect completness.
Il y a aussi des licences qui sont customisées, qui ne sont pas des licences open source comme les RAIL Responsible AI Licenses auxquelles tu faisais référence et qui ont quand même aussi une certaine utilité.
C’est donc un débat qui est complexe parce qu’on se rend compte qu’il faut distinguer le text Act et aussi qu’il ne faut pas utiliser des appellations qui pourraient soit créer des amalgames soit rendre d’autres personnes sensibles sur le fait que ça soit une réappropriation d’un concept.

Primavera De Filippi : Puisqu’on a le training dataset, on a le code d’entraînement ou d’inférence, on a le modèle et on a l’output, j’ai l’impression que lorsqu’on va utiliser quelque chose d’ouvert on l’appelle open source sur toute la lignée au lieu de définir précisément quelle est la brique qui détient cette licence.

Benjamin Jean : Je pense qu’il y a quand même une envie d’avoir les mêmes libertés dans le domaine de l’AI, la même confiance dans l’intelligence artificielle qu’on a pu l’avoir dans le logiciel parce qu’il était open source, soutenu par une communauté, ouvert, qu’on pouvait, je dis n’importe quoi, le reproduire dans un autre environnement si on avait le besoin, de le forker si on le voulait. Il y a ces idées que ce qui existe dans le logiciel puisse se reproduire dans le domaine de l’AI, mais sans le levier de la propriété intellectuelle. C’était facile de dire « le logiciel on sait ce que c’est, un droit de propriété intellectuelle a été créé pour ça et hop !, on change juste la manière dont on l’utilise, donc on a une licence copyleft ou pas, mais on inverse l’usage qu’on a l’habitude de faire du droit d’auteur. »
Dans ce qu’on s’est dit, j’ai l’impression qu’il y a la question de quelles seraient ces libertés ? On pourra effectivement se poser la question de quel type de code source on veut, quel type de données on veut. On peut vraiment se poser la question du périmètre et ça peut dépendre des projets, comme dans l’open source, il y a des projets qui vont nous donner tout le code qui a été nécessaire à tester, à développer le logiciel et ainsi suite, d’autres qui vont donner juste le code source nécessaire à l’exécution. On a donc ces différences qui ne sont pas si importantes que ça, sauf dans certains contextes, dans le domaine de l’open source j’entends. Là, à voir si c’est plus important.
Dans le contexte de l’Open Source Definition de l’OSI, ça a été des négociations, ça a été un an de douleur pour aboutir à cette idée que les données qui devaient être partagées étaient des données qui étaient suffisantes, il y a cette idée de « vous faites autant que possible, mais il y a des choses que vous n’avez pas le droit de partager ». Ça a été très critiqué, notamment par le courant de la recherche. En fait, ils ont été critiqués par tout le monde, donc ils ont juste essayé de trouver un compromis qui leur permettait de faire plaisir à la majorité, pas à tout le monde et ils le savaient. Ce n’est donc pas inintéressant, mais, pour moi, ce n’est clairement qu’une première étape et je pense qu’ils ont juste eu le mérite de mettre le pied dans la porte pour continuer à pouvoir en débattre et voir s’il y a à améliorer. Il y a ce sujet. Pour moi, on n’a pas encore les leviers pour le faire.

Ensuite, la Copy Fair License me fait penser à tout ce qui est, j’utilise fair trade. Je pense au label qu’on a dans certains produits qu’on achète, ce n’est pas une critique, on se dit « c’est plus éthique, c’est mieux parce que commercialement parlant je suis consommateur, je sais ce que je paye, je sais que je ne me fais pas… ». Je trouve que c’est utile d’un point de vue relation commerciale entre l’utilisateur, l’entreprise et le fournisseur, mais, d’un point de vue liberté associée à la techno qui est derrière, ce n’est pas l’enjeu. L’enjeu c’est que finalement les gens aient envie d’AI.
Je pense que là, en fait, on est un peu dans ces deux sujets : il y a cette idée qu’il pourrait y avoir une communauté complètement autonome autour de ce système-là qui le ferait vivre et qui permettrait à n’importe qui d’en disposer vis-à-vis de ses propres besoins, de manière complètement décentralisée, un peu comme le fait la Free Software, donc dans cette idée « j’arrive, je suis sur une île, il n’y a pas Internet, néanmoins je peux faire tourner mon système d’intelligence artificielle ». Je pense que si on posait la question à Richard Stallman [11], ce serait exactement son objectif, pourquoi pas. Mais, ensuite, il y a la question de la façon dont on organise ça, comment ça percole avec les opérateurs économiques, les acteurs qui font du business là-dessus, qui veulent se démarquer, qui veulent pouvoir travailler avec des communautés, sur quoi, comment, et là ! Pour moi, pour l’instant, on n’a pas suffisamment de leviers juridiques, peut-être qu’il faut qu’on recherche encore, pour sécuriser ça, pour donner confiance.

Primavera De Filippi : Si je peux rebondir avant de te passer la parole, il y a un truc qui m’interpelle. Quand tu parles notamment de l’OSI et dans quelle mesure ils ont la légitimité de définir ce qu’est l’open source AI, en fait j’aimerais presque aller à une question plus méta, une question plus open AI. J’ai l’impression que le fait que l’OSI se soit positionnée par rapport à définir ce qu’est l’open source AI, c’est aussi que, tout d’un coup, ça récupère l’AI dans le cadre de l’open source. La question plus élevée, ce n’est pas la question de savoir si l’OSI a la légitimité de définir cette chose, mais est-ce que ça a du sens de définir l’open source par rapport à l’IA alors que, justement, l’IA est un système qui est construit de plein de différents composants, que l’appellation open source a du sens pour un seul composant alors que les autres sont hors open source, en tout cas au niveau du fait que ce n’est pas du code source ?

Benjamin Jean : Je te rejoins complètement. Je crois qu’on a déjà eu à peu près cette discussion. En fait, je pense qu’ils l’ont fait en réaction. Il y a vraiment une loi, un règlement européen qui utilise ce terme et là ils se disent « mince, on a une marque qui s’appelle open source, notre rôle c’est de certifier des licences, de s’assurer que personne n’utilise open source autre que ceux qui ont effectivement un logiciel diffusé sous une licence open source et tout le monde va faire de l’open source, donc, si on ne fait rien, on se fait bouffer. » D’ailleurs, la manière dont ça a été défendu au sein de l’OSI, je sais plus si c’est là maintenant ou c’est à d’autres conférences que j’en ai parlé, ça été super complexe. Ils ont perdu des membres du board, ils ont eu de nouveaux membres au board, ils ont perdu des gros financements, ils ont eu d’autres financements. En fait, ça a reconfiguré complètement le positionnement de l’OSI en un an. Je pense donc que ce n’était pas évident et l’argument principal c’était « on ne peut pas ne pas le faire, il y a trop de risques à ne pas le faire. Ce n’est même pas qu’on a envie d’aller quelque part où il faut aller parce que c’est la tendance, c’est que si on le fait pas, on se fait juste diluer parmi quelque chose qui n’est pas du tout conforme à notre mission. »

Primavera De Filippi : Peut-être juste un dernier point et après on ouvre aux questions. Je rebondis sur ton deuxième truc, par rapport aux questions commerciales. Tu disais « il a un intérêt à faire de l’open source », j’ai l’impression, notamment si on regarde les différentes licences qui sont utilisées, aujourd’hui, souvent ce n’est pas commercial/non commercial, c’est « commercial pour une grande majorité des utilisateurs » et « non commercial pour une autre majorité des acteurs ». J’ai l’impression que ces typologies de licences permettent effectivement quand même de bénéficier de l’écosystème du réseau d’experts ou de contributeurs en open source puisque, à moins que tu sois une grosse boîte, tu n’as pas besoin de payer, tu peux faire de l’utilisation. En fait, on peut quand même bénéficier du bénéfice qu’offre à l’open source par rapport au network effect, par rapport au fait qu’il y a d’autres écosystèmes qui se pluggent autour de ça. Par contre, si c’est un acteur qui a soit trop de revenus soit trop d’utilisateurs, dans ce cas on rentre dans le volet commercial et j’ai l’impression que ce sont des licences nouvelles. En fait, c’est récent d’avoir fait cette distinction où c’est non commercial pour les petits acteurs, on va dire, et commercial pour les grands acteurs. Est-ce que ça répond à ce besoin ou pas ?

Benjamin Jean : En fait, je ne suis pas sûr que ce soit nouveau. Avec APIToS [6], on n’était vraiment que sur les API et ça faisait partie de ce qu’on remontait en disant « il est important de comprendre que, dans les API, il y a plein de politiques différentes tarifaires ». Il y a souvent cette idée que, effectivement, les petits utilisateurs ne payent pas là où les gros payent. Dans les collectivités, l’open data se finance notamment là-dessus, en disant « vous faites un usage pour accéder à nos données, il y a pas de problème. Si jamais vous voulez baser votre API sur la nôtre, là ça va être payant parce qu’en fait vous nous faites peser une grosse charge. »
Pour moi ce n’est pas contradictoire, ce n’est pas nouveau et je pense que ce qu’on a dans l’AI, c’est la même chose que ce qu’on a dans des services qui ne s’appuient pas du tout là-dessus d’un point de vue économique.
Le projet APIToS est un projet de recherche. En ce moment, on ne le pousse pas plus que ça, je ne dis pas ça pour dire « allez voir ce qu’il y a dessus ». On avait dit que globalement certains éléments donnent confiance et le but c’est qu’ils soient visibles. Ensuite, il y a des éléments qui sont nécessaires, qui sont spécifiques à chaque acteur, notamment les conditions tarifaires, pareil, il faut que ça soit transparent, que ça réponde à certains critères, et c’est parallèle. Lorsqu’on a une société, qu’on propose du service, c’est normal qu’on fasse payer à certains. À la limite c’est même sain qu’on se fasse payer parce que ça donne une certaine pérennité.
Je pense que d’un point de vue fournisseur de service, via des API ou peu importe, il y a des éléments de transparence et de confiance à construire et là, aujourd’hui, on n’a pas vraiment les outils, on avait proposé des choses, on n’a pas eu le temps de pousser assez loin. Je pense aussi que c’est important pour les acheteurs. Ça fait très business, mais on le voit dans le salon Open Source Experience. Par exemple les grosses administrations, lorsqu’elles achètent de l’open source, en fait ça leur permet, d’un point de vue du marché, de savoir précisément ce qu’elles vont avoir comme bénéfice au titre des licences qui sont apportées et là il y a un peu la même chose. Je pense qu’il y a des acteurs qui, typiquement, voudraient avoir des services sur base de l’intelligence artificielle mais qui voudraient pouvoir s’assurer que les services qui leur sont proposés sont des services qui répondent à un certain nombre de conditions qui sont à construire, qui n’existent pas encore. Je réfléchis encore à voix haute.

Primavera De Filippi : OK. Avant de terminer, on va peut-être prendre deux questions de l’audience, s’il y a des questions.

Public : Bonjour. Merci. Dans les modèles économiques autour du logiciel libre, il y a ce qu’on appelle l’open core avec la possibilité de faire des modules un peu plus métiers qui sont vendus sous licence propriétaire autour d’un socle libre, c’est générique. Est-ce que vous voyez des tendances là-dessus autour de l’IA ? C’est ma grande question.

Benjamin Jean : Je sais pas si ce sont des tendances, mais j’ai vu quelques projets, notamment des projets qui venaient de la recherche, qui différenciaient tout ce qui était construction d’une IA générique et des IA beaucoup plus spécifiques pour faire tourner des robots dans tel type d’environnement et ainsi de suite. Ils faisaient cette adaptation, c’est pour cela qu’ils avaient besoin d’un écosystème, d’une communauté pour faire vivre l’IA générique et ensuite, pouvoir avoir, eux, la durabilité du modèle économique et construire des modèles spécifiques qui permettaient de répondre à des besoins particuliers, comme pour l’open source.

Adrien Basdevant : Un autre point mérite d’être creusé. Tu faisais référence au règlement européen sur l’IA [3] et les définitions, qui ne sont pas vraiment des définitions ; dans les règlements, ce sont les textes qui sont des considérants, ce qui vient un peu donner le contexte, puis il y a les articles qui ont une force un peu plus contraignante. Dans les considérants, on parle d’open source, et on dit que tout le régime d’exception sur l’open source ne s’applique plus à partir du moment où vous en tirez un bénéfice pécuniaire, ça peut donc poser des questions par rapport à votre interrogation. En tout cas, selon les membres du Parlement de l’Union européenne si, en contrepartie de la mise à disposition d’une brique open source on en tire soit de la data qu’on peut indirectement derrière monétiser, soit un avantage financier, le régime d’exception, notamment en termes de documentation, ne s’applique plus.

Benjamin Jean : Pour rebondir rapidement là-dessus, ce matin on parlait du CRA, du Cyber Resilience Act [12], il y a exactement le même procédé : il y a cette idée qu’on va protéger, par un principe d’exception, les communautés open source, en revanche le fabricant, l’industriel qui gagne sa vie là-dessus, qui a une activité commerciale indirecte ou directe, rentre en plein dans la réglementation. Oui, c’est complètement pareil pour l’IA.

Public : Je pars du fait que vous avez fait état du conflit qu’il y a eu à l’intérieur de l’OSI quand elle s’est saisie de cette question-là. L’open source, quelque part, a bénéficié d’un rapport de forces entre les gros intérêts et les petits chercheurs, développeurs dans leur coin, etc., du fait que coder était beaucoup plus accessible qu’aujourd’hui développer des systèmes d’IA. Pour arriver à ouvrir plus l’IA, où se situeraient, en fait, les éléments qui pourraient équilibrer le rapport de forces, pour arriver demain à une IA beaucoup plus ouverte que ce qu’elle pourrait l’être parce que l’IA nécessite les moyens des gros, quelque part, pour pouvoir s’ouvrir ?

Adrien Basdevant : La première chose, déjà, c’est que la pyramide de Maslow d’IA n’est pas la même. Vous avez le computing power en bas et c’est la grande différence. De toute manière, d’ici 10 ans, avec les GPU [Graphics Processing Unit], il n’y aura que cinq acteurs qui seront verticalement intégrés, donc, de fait, c’est très différent.

Primavera De Filippi : Je pense ça revient à la question de l’open source, notamment la question des données. En fait, même si les données étaient potentiellement ouvertes, en full open source, ce n’est pas comme le logiciel où on a le code source et on peut le faire tourner sur son ordi. J’ai de plus en plus de doutes : est-ce que ça a du sens d’appliquer le concept d’open source dans le système IA parce que, notamment, le concept d’open source c’est que n’importe qui peut étudier, mais aussi réutiliser et aussi ré-entraîner ; dans le cas de l’IA, ce sont des gros acteurs et ça justifie aussi la raison pour laquelle les licences qui sont utilisées aujourd’hui essaient de bloquer les grands acteurs.
Je pense que la question d’obliger les développeurs d’IA à dévoiler les données pour pouvoir être considérée open source a du sens dans le sens propre et fondamental de l’open source, mais, en vrai, il manque la chose qui passe avant qui est l’entraînement. En fait, c’est open source mais ça n’a pas la même valeur open source qu’un logiciel qui n’a pas besoin d’entraînement.

Benjamin Jean : Je suis complètement en phase et c’est pour cela que ce sont aussi des sujets géopolitiques.

Public : Inaudible.

Benjamin Jean : J’allais dire peut-être la recherche. C’est aussi pour cela que la recherche est aussi présente dans ces sujets-là et je trouve que c’est une excellente chose. Ça permet de repositionner la recherche en amont et aussi dans sa globalité pour dire que si le virage est loupé, ça sera difficile de rattraper.

Adrien Basdevant : Vous avez peut-être vu l’initiative aux États-Unis où des chercheurs de Stanford expliquent qu’ils n’ont pas accès à assez de GPU par rapport au private labs. Il ne faut pas non plus qu’on soit trop naïfs sur le fait que les pouvoirs publics français vont… Il y a accès à certains GPU, Jean Zay ou autres quand on est sur une approche académique ou associative, mais si, même aux États-Unis, les labs des plus grandes universités expliquent qu’ils sont sur un facteur 10 ou 100 moins équipés que les private labs, il y a cette question-là. C’est une partie du problème. Pour autant, il y a aussi des opportunités qui ne se jouent pas au niveau des modèles. Vous pouvez aussi utiliser un pre-trained modèle qui n’est pas complètement ouvert, dont certains composants sont ouverts et, sur l’aspect d’inférence ou si on va dans le nouveau terme clé des années 2025-226 sur l’aspect orchestration agentique par-dessus, vous pouvez aussi avoir des cas d’usage qui sont très intéressants en termes de partage, en termes d’encapacité d’autres acteurs de l’écosystème. C’est pour cela aussi qu’il faut peut-être éviter une approche tout ou rien, il y a peut-être des nuances, de choses qui sont bénéfiques si on les distingue bien.

Public : C’est un point lié à la recherche, justement, si les chercheurs n’ont pas accès aux données en l’occurrence, parce qu’on ne les a pas. Pourquoi Yann Le Cun [13] est-il chez Meta ? Il aurait pu rester en France, simplement on n’a pas accès aux données, ce sont les GAFAM qui ont les données si on veut vraiment faire de l’entraînement très important, sur ces problèmes-là, plus le temps de calcul, bien évidemment. Il y a quand même des domaines, des points où je vois des évolutions intéressantes dans le domaine de la recherche, mais je crois qu’on n’en parle pas encore beaucoup, dans tout ce qui est prédictions météorologiques, ça m’a un peu bluffée. Nvidia et d’autres ont commencé à s’intéresser à cette application-là et ils ont des résultats méchants, parce que, effectivement, les données météo sont ouvertes et ils font des entraînements avec ça et les résultats qu’ils ont sont un peu bluffants et Météo France commence sérieusement à penser IA en pratique. Ce n’est pas pour de la prédiction à court terme, c’est de la prédiction à moyen terme, il y a des résultats vraiment bluffants. On ne comprend pas, parce que le problème de l’IA, au point de vue recherche, il ne faut pas se rater, c’est-à-dire qu’on ne sait pas comment ça marche, ce sont des corrélations, etc., mais, de là à reconstruire quelque chose de déterministe avec vraiment de la connaissance scientifique, ce n’est pas la même chose. Si on a les données, une masse énorme de données, on arrive à faire quelque chose, mais on n’a pas encore très bien compris pourquoi.
Il y a aussi des problèmes à un niveau plus épistémologique et puis le fond du problème, c’est quand même le gros calcul plus le coût environnemental qui va avec. Ça va commencer, à mon avis, à être des points un peu de rupture.
Un autre problème que vous n’avez pas abordé, mais j’ai appris récemment que des boîtes, je crois, comme OpenAI, commencent sérieusement à avoir des problèmes avec les droits d’auteur. Le fait qu’ils moissonnent, si les auteurs ne sont pas d’accord qu’on moissonne leur truc ! Je crois que des procès ont commencé il y a quelques mois là-dessus, ça va faire mal ! En tout cas, il y a un cas en ce moment, tu es peut-être au courant.

Benjamin Jean : Oui, il y en a eu plein. Pour moi, ce sont les derniers soubresauts de la propriété intellectuelle pour lutter contre l’IA.

Public : C’est perdu d’avance.

Benjamin Jean : Je suis un peu taquin, mais je pense que l’IA va complètement amener à repenser la propriété intellectuelle et je pense que c’est une opportunité parce que ça permet, peut-être, de remettre un peu plus d’humain dans tout ça là où la propriété intellectuelle a eu tendance, parfois, à oublier les humains. J’aimerais bien qu’on réussisse à trouver une organisation sociale sur la production d’IA, de systèmes d’IA, qui soit plus juste et ainsi de suite.

Public : Ta remarque me plaît énormément. Pourquoi ? Parce que les chercheurs ne sont pas payés avec leur propriété intellectuelle, donc il ne faut pas qu’on ait une propriété intellectuelle et là on est quand même à des interfaces très fortes avec la recherche. Je parlais de la météo, les données sont publiques, sauf qu’un jour ça va peut-être être fermé, mais il y a quand même l’idée que tout ce qui recherche, normalement, c’est public. Nous n’avons aucun intérêt à garder notre droit d’auteur parce qu’après, justement, ce sont les publishers qui nous les piquent. Je crois qu’il faut vraiment réfléchir, raisonner à quel serait… Quand il y avait eu cette discussion, à Bruxelles, sur la révision des questions de propriété intellectuelle, tu te souviens nous étions tout un groupe de chercheurs à dire « nous ne voulons pas de notre droit d’auteur ». Il faut donc que vous nous en sortiez… On n’est pas dans cette négociation-là de surprotéger le droit d’auteur, on veut, au contraire, l’enlever. Je ferme la parenthèse. Nous sommes payés par de l’argent public, c’est ça l’explication, et nous ne vivons pas de notre droit d’auteur, tout simplement.

Primavera De Filippi : Je vais juste ajouter un point sur ça. En fait, il y a pas mal de débats notamment sur la question de est-ce que le data mining est en violation ou pas ? Est-ce qu’on peut opt-in, opt-out, etc. ? Beaucoup de personnes utilisent justement la propriété intellectuelle pour essayer de revendiquer la protection des auteurs, etc., et, en vrai, je pense que c’est un peu comme toutes les histoires du droit d’auteur qui essaye de s’étendre un petit peu plus. Si un auteur était rémunéré pour un centième de centimes parce que son œuvre est utilisée dans un modèle, ça ne va pas vraiment aider les auteurs. Par contre, le fait de déterminer qu’il faut compenser, donc augmenter énormément les coûts pour les personnes qui entraînent les systèmes d’IA, c’est aussi un mécanisme qui va renforcer déjà les acteurs très gros qui peuvent se permettre de payer ces licences et, en fait, d’une certaine façon, éjecter toute possibilité de concurrence par des petits acteurs qui, eux, n’en ont pas la possibilité. Il y a toute cette argumentation qui, je pense, est assez subtile. Évidemment, on veut tous protéger les droits des auteurs et des artistes et, en vrai, spécifiquement, indépendamment des chercheurs ou pas, en tout cas, d’habitude, on essaie de vouloir protéger les droits des auteurs et des artistes, même si là ils sont en train de subir des litiges. C’est aussi un argument qui va soutenir une concentration de l’entraînement au sein des grands acteurs à la OpenAI qui vont pouvoir payer effectivement ou qui vont acheter des licences à des contenus et, en fin de compte, dans tous les cas, ça ne va pas aller aider les artistes, mais ça va créer une société où on a moins de choix par rapport aux modèles qu’on peut utiliser parce qu’il y a moins de modèles en général.
Est-ce que les panélistes ont un mot de la fin ? C’est bon. Merci à tous.

[Applaudissements]