Big data, GAFA : nos données numériques nous appartiennent-elles ?

Titre :
Big data, GAFA : nos données numériques nous appartiennent-elles ?
Intervenants :
Corinne Morel-Darleux, Isabelle Attard, Benjamin Bayart, Lionel Maurel, Thomas Champigny
Lieu :
Remue-Méninges du Parti de Gauche - Toulouse
Date :
Août 2016
Durée :
1 heure 17 min 28
Pour visionner la vidéo
Licence de la transcription :
Verbatim

Transcription

Corinne Morel-Darleux : Si je parle de tout ça, c’est parce qu’on a souvent tendance à penser que parler de données numériques, d’algorithmes, de big data, comme on va le faire aujourd’hui, est un sujet technique réservé aux geeks informaticiens zélés. En réalité, non ! Ça nous concerne tous, et de plus en plus, et de manière de plus en plus prégnante dans notre quotidien. Et donc, en tant que parti politique, en tant que militants, en tant que citoyens éclairés, nous ne pouvons pas passer à côté de ce sujet. Je suis donc très heureuse qu’on puisse le faire aujourd’hui. Je suis d’autant plus contente que nous avons des intervenants, pour ce débat, qui sont des personnes qui travaillent depuis longtemps et de manière sérieuse et approfondie sur ces questions. Nous allons donc pouvoir écouter, pour nous aider à décrypter tout ça, Benjamin Bayart, qui est militant pour les libertés fondamentales sur Internet, qui est président de la Fédération des fournisseurs d’accès à Internet associatifs [1] et qui est également membre du Conseil d’orientation stratégique de La Quadrature du Net [2]. Il nous parlera, donc de big data. Ensuite, je passerai la parole à Lionel Maurel, qui est blogueur, juriste et bibliothécaire. Qui est également membre du Conseil d’orientation stratégique de La Quadrature du Net et qui est également le fondateur du collectif SavoirsCom1 [3]. Ensuite nous aurons un éclairage d’Isabelle Attard [4] qui est députée, citoyenne écologiste du Calvados, particulièrement engagée dans les domaines de la culture — patrimoine et numérique — des libertés publiques et du fonctionnement des institutions politiques et qui participe activement au débat sur la loi République numérique et qui, je me permets de le rappeler, fait partie des très peu de nos députés qui ont voté contre l’état d’urgence.
Applaudissements
Et enfin, je passerai la parole à notre camarade Thomas Champigny qui est le nouveau co-animateur avec Mathieu Faure que je salue également, qui est dans la salle, de la commission numérique du Parti de Gauche et qui nous présentera, un peu, l’état des lieux de nos réflexions et de notre travail sur ces questions, sachant que ce débat, cet atelier, parce que je ne suis pas sûre qu’il y ait un débat vraiment très contradictoire, c’est plutôt un atelier, va nous permettre, à nous aussi, et il faut le dire en toute humilité, de progresser sur notre propre réflexion, au sein du Parti de Gauche, sur ces questions. C’est aussi l’objectif de ce Remue-Méninge estival. J’en profite, dernier remerciement, pour saluer le travail de Laurence Pache qui a passé son été à organiser ce Remue-Méninges et qui fait partie des personnes pour qui ce débat sur le numérique était une chose essentielle dans notre parcours politique.
Applaudissements
Voilà. Je n’en dis pas plus. Je passe tout de suite la parole à Benjamin Bayart pour un premier éclairage. Concrètement, de quoi on parle quand on parle de big data, de traçabilité, et puis quels sont les usages positifs et moins positifs, voire franchement négatifs, du big data ?
Benjamin Bayart : [Là, comme ça, ça va marcher.] Bonjour. Le premier élément compliqué c’est d’essayer d’enlever l’épais vernis de marketing que vous avez pu lire dans la presse, pour revenir à des choses normales. Des données, vous en manipulez et vous en émettez tous, tous les jours, si vous êtes doté d’une forme d’ordinateur. Ceci est une forme d’ordinateur [Benjamin présente son téléphone portable, NdT]. Il y a des choses qui vont vous venir assez spontanément comme étant vos données et que vous considérez comme étant personnelles. Les messages que vous envoyez, que ce soit des mails, que ce soit des SMS, que ce soit de la discussion sur une appli ou sur une autre, sur Facebook, ce sont des données et vous les considérez comme personnelles. Ça c’est la partie évidente. Vos photos de vacances, ce sont des données, vous les considérez comme personnelles. Je ne parle même pas des sextos qu’on peut s’échanger ou des trucs. Juste toutes les photos que vous faites, vous les considérez comme personnelles.
C’est la partie la plus petite et la moins intéressante de vos données personnelles, parce que c’est une partie qui est épouvantable à analyser. Quand j’ai envoyé un SMS à Isabelle Attard disant « c’est de la bombe », si on faisait une analyse sémantique, ça pouvait allumer plein de warnings dans les services de renseignement. Rendez-vous compte, deux gauchistes échangent un message où il y a écrit bombe dedans. Il devrait y avoir des morts. C’est effroyable à analyser, il faut comprendre, il faut parler la langue. On a tous lu ça dans la presse, quand les organisateurs des attentats se sont mis à parler en arabe entre eux au téléphone, les policiers n’arrivaient plus à suivre. C’est très compliqué d’exploiter des données.
En revanche, il y a ce qu’on appelle les métadonnées.Ce sont, en fait, les données à propos des données, et qui elles, sont beaucoup plus riches et sont très faciles à exploiter. Ce que j’ai dit dans le SMS à Isabelle ne présente aucun intérêt. En revanche, mon téléphone était localisé à Toulouse. J’ai émis un SMS à 10 heures 22. Isabelle a émis un SMS, depuis Toulouse, une localisation très proche : c’est la même antenne relais, donc on est manifestement dans le même bâtiment, ou pas loin. Puis j’ai réémis un autre SMS derrière.
On peut, avec les données qu’on a sur mon téléphone, savoir que ce matin, tôt j’étais devant la gare de Toulouse-Matabiau, que cependant je n’ai envoyé un SMS à Isabelle que quand on s’est retrouvés raccrochés à la même antenne GSM, c’est-à-dire qu’on était proches. Donc manifestement, on voulait se rencontrer, il n’y a même pas besoin de lire le contenu. En fait, cette information-là est très facile à exploiter, elle est déjà structurée. Elle est très facile à analyser pour un ordinateur : deux personnes échangent des messages, donc elles se connaissent. Point. Elles sont raccrochées à la même antenne, donc elles sont au même endroit. Point. Il n’y a besoin de lire le contenu. Essayer de trouver la même information en lisant « Je suis arrivée. Dans quel bâtiment tu es ? Est-ce que tu es dans une conférence ? », c’est super compliqué de comprendre ce qu’on se raconte. Alors que les données à propos des données disent beaucoup plus de choses.
Ce qui est intéressant ce n’est pas le contenu de l’article de presse que vous avez lu, c’est l’identifiant de l’article. Vous et tous vos potes d’extrême gauche avez lu le même article de presse. Ça vous classe politiquement. Il n’y a même pas besoin de connaître son titre. Son numéro de matricule dit que vous êtes manifestement de la même opinion que les autres gens qui ont lu ça. Si on sait qu’ils sont majoritairement situés, disons qu’ils sont socialistes, donc d’extrême gauche de nos jours — il faut s’adapter — alors vous êtes de la même couleur politique. Donc les métadonnées sont une information beaucoup plus riche sur vous. Les métadonnées disent beaucoup plus de choses et elles sont plus faciles à lire.
Si on veut regarder la photo pour essayer de comprendre ce que vous avez pris en photo, c’est épouvantablement compliqué. Dedans, s’il y a votre position GPS qui dit que vous étiez dans les Alpes, s’il y a l’heure qui dit si c’est le jour ou la nuit, s’il y a le type d’appareil photo utilisé, s’il y a… En fait, on sait déjà beaucoup de choses et on sait déjà bien assez de choses. On est capable de dire si vous étiez en vacances ou si vous étiez au travail. On est capable de dire si vous étiez en train de photographier les étoiles ou de photographier le paysage, sans avoir à regarder l’image !
La fréquence à laquelle vous prenez des photos et à qui vous les envoyez, ça dit plus de choses que le contenu de la photo. Hier, j’ai pris une photo d’un truc ridicule, je l’ai envoyée à un copain, ce n’est pas la peine qu’on sache que c’était un truc ridicule. C’est quelqu’un à qui j’envoie des photos quand je me promène, donc c’est manifestement un proche, ce n’est pas une relation professionnelle. Ça suffit, en fait, à qualifier la relation, il n’y a pas besoin de lire.
Telle personne avec qui je ne correspondais jamais, on s’est mis à échanger vingt à trente textos par jour, de manière soutenue et continue. Il n’y pas besoin de savoir qu’on est en train de flirter. La fréquence des messages nous dit. L’heure des messages nous dit. Le dernier message est à minuit, on doit se souhaiter bonne nuit, ça suffit à le savoir, il n’y a pas besoin de lire le texte.
Donc ça, c’est pour que vous ayez une idée de ce qui est intéressant dans vos données.
L’autre élément, c’est la partie dont vous ne vous doutez pas, qui sont les données que vous créez sans le savoir. J’ai envoyé un message à Isabelle, l’opérateur de téléphonie a noté dans ses petits papiers que j’ai envoyé un SMS. D’ailleurs, ce sera décompté de mon forfait illimité pour vérifier que je n’ai pas dépassé la limite d’illimité. Mais c’est quand même noté dans ses petits papiers ; c’est une obligation légale. Il y a plein de données que vous émettez sans le savoir.
Qui parmi vous sait que son téléphone émet une position géographique en permanence ? En fait, votre téléphone mobile est accroché à une antenne. Par la partie radio, il parle en radio à une antenne précise. Votre opérateur sait sur quelle antenne vous êtes accroché, même quand vous ne téléphonez pas, puisque, quand on vous appelle, ça sonne ! Toutes les antennes radio du pays ne cherchent pas le téléphone de Benjamin Bayart quand quelqu’un m’appelle. Mon téléphone, quand je me déplace, parle en permanence avec l’antenne pour dire : « Je suis là ! Je suis là ! Je suis là ! » Et du coup, quand quelqu’un me téléphone, l’opérateur sait sur quelle antenne je suis. Donc en fait, l’opérateur de téléphonie mobile sait en permanence sur quelle antenne radio je suis. C’est-à-dire qu’il a un tracé. En fait, il sait même, s’il fait un petit peu attention, quelles sont les antennes avec lesquelles mon téléphone parle, puisqu’il parle avec plusieurs antennes en même temps. Les antennes répondent, il y en a une qu’il entend plus fort que les autres et donc il va décider que c’est avec celle-là qu’il échange s’il a un appel à passer. Mais il a discuté avec les autres antennes pour savoir où elles étaient, à quelle distance, et s’il entendait bien ou pas ; savoir s’il avait une barre ou quatre barres. Ça, l’opérateur le sait. Donc l’opérateur sait que mon téléphone était à cinq cents mètres de telle antenne, à deux kilomètres de telle autre et à trois kilomètres cinq de telle autre. Il a tracé les trois cercles, il sait au mètre près où je suis. Au mètre près ! Quand on décide de suivre la géolocalisation d’un téléphone, du moment qu’il est allumé, on sait où il est au mètre près ! Et ça, ce sont des données dont vous n’êtes pas conscient.
Quand vous faites de la navigation en ligne, vous affichez un article, alors vous savez que le journal que vous êtes en train de lire sait qu’un internaute est venu et a lu. Bien ! Il se trouve que sur la page il y a un Like de Facebook. Même si vous n’avez pas de compte Facebook, le petit bouton Like de Facebook vient de chez Facebook. Donc Facebook sait que vous avez lu cet article, même si vous n’avez pas de compte Facebook et même si vous n’êtes pas connecté sur Facebook. Alors il ne sait pas que c’est moi, Benjamin Bayart. Il sait qu’un internaute, qu’il y a déjà vu il y a une demi-heure sur tel autre article, est maintenant en train de lire ça, et que dans vingt minutes je serai en train de lire autre chose, où il y a un bouton Facebook.
S’il y a un petit bouton Twitter, même punition. Twitter sait que j’étais en train de lire ça, puis que je suis en train de lire ça. Il ne sait pas forcément qui je suis, parce que je ne suis peut-être pas connecté sur mon compte Twitter avec le même navigateur. Mais si dans l’onglet d’à côté il y a mon compte Twitter, il sait qui je suis, il sait que je suis Benjamin Bayart !
Si je navigue en navigation privée, donc je ne suis connecté à rien, il sait quand même que le même navigateur est passé par plusieurs endroits. Alors il ne sait pas que c’est moi, formellement. Il sait que j’ai lu tel article, puis que j’ai lu tel autre, puis que j’ai lu tel autre, puis que j’ai lu tel autre. On estime qu’à partir de six ou sept métadonnées, on peut savoir qui vous êtes de manière absolument unique. Sans avoir besoin d’identifiant formel, juste la métadonnée !
C’est en fait très simple : le téléphone qui fait tel trajet le matin à la même heure, c’est-à-dire le téléphone qui part de telle adresse le matin et qui arrive à telle adresse, le matin, eh bien c’est celui du salarié de la boîte qui habite là. Il n’y a même pas besoin de savoir que c’est son numéro de téléphone. Le type qui fait le trajet de chez moi à mon boulot tous les matins, c’est moi ! C’est plus fiable que ma carte d’identité, quasiment ! Si je fais le même trajet avec un autre téléphone, on sait très vite que c’est moi. Il y a un téléphone qui est parti de chez moi qui est arrivé à mon boulot. À priori c’est moi, même si j’ai piqué le téléphone de ma mère. Et du coup, tous les messages qui, pendant ce trajet, sont émis, à priori ils sont émis par moi. Il n’y a pas besoin de mon identité.
Donc, même quand vous êtes le plus anonyme possible sur Internet, il y a des traces. Il ne peut pas ne pas y avoir de traces : au mieux, le site que vous visitez, ou les sites qui sont cachés derrière, si vous regardez un site de presse un peu grand public qui fait de la publicité. Ce que j’appelle caché derrière, c’est comme le Like Facebook, vous voyez, le truc qu’on ne sait pas en regardant la page, il y en a une cinquantaine. Entre la régie publicitaire qui veut savoir qu’on a vu sa pub, l’annonceur qui a vendu la pub et qui veut savoir qu’on l’a vue, les systèmes de statistiques et de suivi, le site web lui-même, ses partenaires, les Facebook, Twitter, machin, truc et bidule : en gros, l’ordre de grandeur, c’est une cinquantaine de personnes qui vous suivent à la trace. Donc voilà !
Ce dont on parle, quand on parle des données personnelles, c’est de au moins tout cela.
Votre montre connectée qui vous dit que vous avez de la tension, qui vous dit que vous avez de la température ou qui mesure votre rythme cardiaque quand vous êtes sportif – il y a des tas de bracelets qui font ça pour savoir si on a bien fait du sport, combien on a marché et tout — tout ça ce sont des données personnelles. Mais la donnée personnelle, ce n’est pas seulement « j’ai marché ». C’est « j’ai marché tel jour à tel endroit ». C’est très fin, en fait, comme donnée ce qu’ils ont. Ça aussi, ça permet de vous identifier. La personne qui a fait tel parcours en courant tel jour à telle heure, il n’y en a pas cinquante. Avec deux ou trois parcours, on sait qui vous êtes.
Voilà. Quand on parle de données personnelles, on parle de tout ça. On ne parle pas seulement des photos de vacances que vous avez mises sur Facebook.
Corinne Morel-Darleux : Merci. On était en train de se dire, avec Isabelle, que toute la salle avait changé de couleur de visage à l’écoute de cet exposé introductif.
Rires
Mais c’est bien parce que, du coup, je pense que tout le monde est maintenant en appétit pour mieux connaître la législation et l’état des lieux en la matière, les différentes controverses, les différents rapports de force qui peuvent exister aujourd’hui. Et pour nous en parler je vais donner la parole maintenant à Lionel Maurel.
Lionel Maurel : [C’est bon ? Oui, c’est bon.] Moi, pour traiter la question qui est complexe et très vaste, je ne vais pas vous faire un cours de droit, mais je vais reprendre l’énoncé de cette table ronde. Nos données numériques nous appartiennent-elles ? Vous allez voir, c’est une question qui est très intéressante et assez complexe, mais qui dit beaucoup de choses.
C’est vrai que vis-à-vis des données personnelles, quand tu fais ce genre de tableau, on a un très fort sentiment de dépossession. C’est-à-dire que, effectivement, il y a une importance cruciale des données personnelles, mais cette capacité qu’on a à les émettre sans s’en rendre compte et à ce qu’elles puissent être captées par de grands acteurs qui sont dans le titre de la conférence : on avait les GAFA, Google, Amazon, Facebook et Apple. Moi je rajouterai GAFAM, d’ailleurs, il est important de rajouter Microsoft. J’ai rencontré des gens qui m’ont dit que l’acronyme GAFA a été peut-être inventé par Microsoft pour se faire éjecter du truc. Mais c’est très important de rajouter Microsoft.
Donc on a un sentiment de dépossession, on a un sentiment de perte de maîtrise parce que ces données, par recoupements notamment, elles peuvent dire tellement de choses sur nous, qu’on a beaucoup de mal à contrôler ce qui peut en être fait. Et on peut avoir aussi un sentiment de spoliation, parce que ces données sont génératrices de valeur économique à une échelle qui est vertigineuse. Là je voyais, en préparant un petit peu cette intervention, que les cinq plus grandes capitalisations boursières aujourd’hui ce sont les GAFAM. Ça y est. L’année dernière il y avait encore quatre compagnies pétrolières et Apple, et cette année on a les cinq GAFAM qui sont devenues les cinq plus grandes capitalisations boursières.
Alors ils n’utilisent pas tous les données personnelles au même niveau. On peut dire que Google et Facebook, sans doute, sont ceux qui vont le plus loin, mais tous, quand même, ont un pied très fortement planté dans cette question de l’exploitation des données personnelles. Et vous avez peut-être vu récemment aussi, que Microsoft a racheté le réseau social professionnel Linkedin pour une valeur de vingt-six milliards de dollars, ce qui est complètement incroyable — elles sont spéculatives aussi là-dessus — mais bien sûr, sans aucun retour vers les utilisateurs qui ont pourtant créé la valeur et participé très fortement à la création de la valeur. Parce que, ce qui fait la valeur d’un opérateur comme celui-là, c’est le fait d’avoir collecté nos données personnelles et de les avoir reliées. C’est le graphe que le réseau trace qui révèle, en fait, la structure de nos rapports humains entre nous, qui fait la valeur de ces données. Les données, à titre individuel, ont peu de valeur, en fait. Elles ont de la valeur quand elles rentrent en réseau et cette valeur est exponentielle à mesure que le réseau croît. Donc on a ces sentiments-là.
Mais, c’est une très mauvaise façon de poser le problème que de chercher à se dire s’il faudrait qu’on ait une propriété sur nos données personnelles. Juridiquement, ce n’est pas du tout comme ça que la loi envisage les choses. Vous savez que la loi, en France, c’est la loi de 78, la loi informatique et libertés, qui n’était pas du tout, à la base, créée dans une optique de nous rendre propriétaire de nos données. C’est une loi dont on dit souvent qu’elle est une loi plutôt d’inspiration humaniste, qui veut protéger nos données pour protéger notre vie privée, qui est conçue comme un droit fondamental de la personne humaine. Et cette loi, en fait, elle ne nous donne pas un droit de propriété sur nos données, elle ne dit pas que les données sont des biens qui peuvent être appropriés et dont on serait titulaire d’un droit de propriété, elle nous donne des facultés pour contrôler l’usage qui est fait de nos données.
Et dans ces facultés, il y a un droit, notamment, d’information : on doit être informé quand les données sont utilisées.
Il y a un droit d’opposition : on a le droit de contacter un opérateur pour lui demander d’arrêter de faire un traitement de nos données personnelles.
On a un droit de rectification : c’est-à-dire une fois qu’on a eu accès à nos données, s’il y a des choses qui sont fausses, on peut demander à ce qu’elles soient rectifiées, et ces droits ont évolué.
Vous savez qu’il y a eu tout un débat sur le droit à l’oubli, notamment propulsé par la Cour de justice de l’Union européenne, qui est ce droit qui serait de pouvoir faire en sorte qu’une page web qui contient une information personnelle puisse être désindexée par les moteurs de recherche, pour qu’on puisse ne plus être retrouvé et avoir ce droit à ne plus apparaître sur Internet, ce qui pose des tas de problèmes. On pourra peut-être en reparler, parce que c’est très dur à organiser. Et donc voilà. La philosophie de la loi c’est de ne pas donner un droit de propriété, mais des facultés aux individus pour qu’ils puissent contrôler.
Et alors, la grosse différence avec la propriété, c’est que, par contre, il y a une faiblesse, c’est qu’on n’a pas un droit d’autorisation préalable. Quand un opérateur veut faire un usage de nos données personnelles, il n’a pas à nous demander notre autorisation : il peut le faire. Parfois, il va devoir aller voir la CNIL, la Commission nationale informatique et libertés, qui, elle, va regarder le traitement de données qui est envisagé et qui va pouvoir le refuser, ou l’accepter, ou le conditionner. Mais il n’y a pas un droit pour les individus à avoir un consentement préalable pour qu’il y ait un usage de leurs données personnelles. C’est après coup que les individus — déjà il faut qu’ils soient informés — et après, ils peuvent exercer ces droits.
On en parlait en préparant cette conférence, un des gros problèmes c’est que ces droits sont dans la loi, mais les conditions d’exercice effectif de ces droits de contrôle sur les données sont très lacunaires. Par exemple, quand un site présente des cookies, c’est-à-dire des systèmes pour tracer notre navigation sur le site et récolter des informations, il y a un droit d’information, mais le droit d’information, vous allez la première fois sur le site, il apparaît comme ça dans une fenêtre. En général, on les lit à peine, on clique et, en fait, la plupart des gens ne sont pas informés et ils n’exercent pas le droit effectif, donc là, d’opposition donné par la loi.
On en parlait aussi, vous savez que sur les sites internet, quand vous vous inscrivez, vous acceptez les conditions générales d’utilisation, vous cochez une croix. C’est censé matérialiser le droit à l’information. Il y a quelqu’un qui avait estimé que quand vous allez sur un service d’Apple, si vous vouliez lire les conditions générales d’utilisation, c’est à peu près lire un roman de trois cents pages. Ce droit à l’information il est assez dérisoire et donc, en fait, le contrôle n’est pas effectif.
Alors du coup, il y a eu des gros débats sur « et si on créait finalement un droit de propriété sur les données personnelles ? » Il y a un débat qui est très ancien dans l’histoire de l’Internet. Il y a des gens qui, très tôt, l’ont dit, notamment un Américain qui s’appelle Jaron Lanier, qui est une espèce de gourou aux États-Unis, très connu, qui disait : « Les firmes font de l’argent sur les données personnelles, pourquoi est-ce que chacun ne serait pas propriétaire de ses données et aurait donc, avec ce droit de propriété, non seulement un droit de contrôle mais un droit à toucher une rémunération pour l’exploitation de ses données, et que Facebook, même s’il est censé juste nous donner quelques centimes, eh bien qu’il soit quand même obligé de rémunérer l’utilisateur pour l’exploitation des données. » Et il disait ce serait un moyen, comme ça, d’éviter cette évasion de la valeur et d’avoir un retour vers les individus sur la valeur qu’ils créent.
Et cette idée a fait son chemin en France. Vous avez eu, notamment un peu en amont du débat sur la loi République numérique, pas mal de gens assez connus qui ont commencé à prôner cette idée. À un moment donné, il y a eu une personne qui s’appelle Pierre Bellanger, le fondateur de Skyrock, qui a écrit un livre qui s’appelle La souveraineté numérique qui est, ma foi, assez intéressant — une personne un peu iconoclaste et qui dit de choses assez intéressantes — et qui disait : « Oui, le problème c’est que les données n’appartiennent à personne, donc elles se font capter par les grands opérateurs. Si on veut éviter ça, créons un droit de propriété sur les données, auprès des individus. Peut-être même, créons une sorte de droit d’auteur sur les données, parce qu’après tout, est-ce qu’on ne peut pas être considéré étant auteur de ses données et réglons le système comme ça. »
Ce n’est pas l’option qui a été retenue dans la loi, mais c’est allé assez loin, notamment quand Montebourg était au ministère de l’Économie, il avait engagé des travaux pour essayer de le formuler et ça failli aller dans le projet de loi.
Il se trouve que le Conseil national du numérique et le Conseil d’État ont fait des rapports préliminaires à la loi République numérique et ont très fortement critiqué cette idée. Parce que, si vous voulez, créer un droit de propriété c’est sacrément à double tranchant. Parce que, quand vous êtes propriétaire d’une chose, d’accord vous avez un droit d’autorisation préalable, vous avez aussi un droit à avoir une rémunération, mais vous avez aussi un droit d’aliénation. Quand vous êtes propriétaire d’une chose vous pouvez la vendre, vous pouvez vous en déposséder et ça, ça marche simplement par acceptation d’un contrat. Quand vous avez un bien, vous avez votre maison, vous pouvez transférer la propriété à quelqu’un. Si on met ça sur les données personnelles, ça veut dire que, à ce moment-là, on transférerait la propriété des données aux grands opérateurs numériques et qu’il suffirait, de la même manière, de cocher la petite case en bas pour que ça prenne effet. Donc il y aurait un effet de dépossession possible très fort.
Une fois que vous créez un droit de propriété, vous faites de la chose un bien et quand une chose devient un bien, elle peut être marchandisée. Donc en fait, la création du droit de propriété était le préalable à la marchandisation des données personnelles. Et aux États-Unis, on voit apparaître des gens, des sociétés, qui deviennent des courtiers de données personnelles et qui vous disent : « Apportez-nous vos données personnelles et nous, on va les gérer comme un patrimoine et on va les négocier avec les opérateurs type Twitter et d’autres, notamment beaucoup de sociétés de marketing, et en échange vous allez toucher quelques euros par moi. » Et ce système-là est incroyablement pervers, si vous voulez, parce que l’individu, après tout on lui donne une rémunération, il est poussé à auto marchandiser ses données et à rentrer dans une logique qui peut être extrêmement dangereuse.
Donc Voilà ! Finalement, dans la loi République numérique on n’a pas choisi cette voie-là. Il y a eu un petit renforcement des droits de contrôle, notamment il y a un nouveau droit qui a été créé, qui est celui de la portabilité des données personnelles. C’est-à-dire que vous allez pouvoir demander, maintenant, par exemple à un opérateur qui gère vos mails, de récupérer toutes les données liées à vos mails, dans un format supposé ouvert, pour pouvoir les injecter chez un autre opérateur. Bon, c’est quand même une avancée !
Et vous avez aussi la réglementation qui a bougé au niveau européen. Il y a un règlement européen sur les données personnelles qui a été adopté fin 2015, c’était en même temps que la loi République numérique, et qui est resté dans cette logique personnaliste, une logique qui donne des droits plutôt que créer un droit de propriété.
Voilà un petit peu ce débat, mais qui est un vrai débat de fond et on en parlera peut-être après. Moi, je prône plutôt une troisième voie, parce que je ne suis ni personnaliste, ni propriétariste. Je pense que les données relèvent, en fait, d’un enjeu collectif, et ni la loi actuelle, enfin ni la loi République numérique, ni même l’ancienne loi CNIl, ni l’approche propriétariste ne permettent vraiment de saisir cette question collective qu’il y a derrière les données personnelles.

Corinne Morel-Darleux :
Eh bien merci beaucoup pour ce renouvellement rafraîchissant du ni ni, vers une troisième voie qui, pour le coup, celle-là serait peut-être intéressante et qui rejoint un certain nombre de thématiques qu’on aborde régulièrement au Parti de Gauche sur la question des communs. Lionel Maurel faisait référence, à l’instant, au débat sur le projet de loi numérique. Il se trouve que Isabelle Attard, en tant que députée citoyenne et écologiste, a très activement participé à ces débats et je lui passe donc la parole maintenant, pour nous en parler, nous donner un peu la teneur de ces débats et des impacts politiques de tout ce qu’on vient d’entendre.
Isabelle Attard :
Merci beaucoup Corinne et merci surtout pour l’invitation à ces Remue-méninges. Juste pour vous donner une ambiance, à l’Assemblée, on doit être dix à s’occuper des questions numériques. Martine Billard, ici présente peut témoigner que, peut-être, la situation n’a guère évolué à l’Assemblée, je ne pense qu’ils étaient plus nombreux il y a quelques années.
Martine Billard :
Moins !
Isabelle Attard :
Vous étiez moins et on n’est guère plus. Ce qui signifie que, sur ces questions-là, il est difficile d’avoir vraiment un débat et que, parfois, le débat tombe complètement à côté. J’y reviendrai après par rapport, notamment, à la lutte contre les GAFA telle qu’elle est vécue par mes collègues de l’Assemblée.

Je voulais juste, dans un premier temps, vous donner quelques exemples de ces données personnelles, qu’on croit pouvoir anonymiser et, en fait, ça n’existe pas. Il faut bien être conscient dans ce qu’a dit Benjamin et dans ce qu’a dit, finalement, Lionel, l’anonymisation n’existe jamais. Pour ça il y a des exemples qui sont répertoriés dans un travail de recherche, excellent, qui est de Guillaume Piolle, chercheur à Supelec à Rennes. Je vous encourage à aller regarder ce qu’il a pu faire à travers quelques exemples.
AOL, vous connaissez. AOL, en 2006, a mis à disposition à des fins de recherche vingt millions de requêtes. Les chercheurs ont pu s’en emparer et travailler sur ces requêtes des internautes. Finalement, on a pu en déduire, les chercheurs en ont déduit, qu’on pouvait très bien retrouver qui étaient les personnes qui faisaient ces requêtes sur Internet. Je donne l’exemple d’un numéro, le numéro 44 177 49, vous pourrez vérifier, à partir de quelques données, genre célibataire de soixante ans, tremblements de la main, ça, ça ne fait pas partie des recherches qu’elle a faites, elle a tapé sur le moteur de recherche célibataire de soixante ans, tremblements de la main, effets de la nicotine et chien qui urine partout, avec quelques autres exemples, elle a été identifiée par des journalistes du New York Times très facilement : c’est Thelma Arnold, soixante-deux ans, qui habite en Géorgie. C’est un exemple.
Ensuite, en 2010, je vous donne des exemples mais pas dans le bon ordre, Netflix a mis à disposition les données d’évaluation anonymes sur les séries : quand vous regardez une série vous pouvez les évaluer, les noter, via le site de Netflix. Et un chercheur a recoupé avec les données du site IMDb, pareil c’est un site où vous consultez les films, vous pouvez faire des notations, et il suffit d’avoir la connaissance de deux notes pour identifier 68 % des utilisateurs. C’est extrêmement rapide. C’est ce que disaient Benjamin et Lionel.
Autre exemple. Dans le Massachusetts, au milieu des années 90, un comité d’assurances publie des données médicales. Alors là, on rentre dans un autre domaine, celui des données médicales, soi-disant anonymisées. Une étudiante a recoupé les données avec les listes électorales, a révélé l’affaire en envoyant au gouverneur de l’État son dossier médical. Le gouverneur a aussitôt demandé l’arrêt de la publication de tous les dossiers.
La même étudiante avait montré, en 2000, que 87 % des citoyens américains sont identifiables de manière unique si on a leur sexe, leur date de naissance et leur code postal. Des informations, finalement, que vous, que nous donnons à tout le monde assez fréquemment : vous vous inscrivez sur une carte de fidélité dans un magasin, ce sont quasiment les seules informations qu’on vous demande ; ça suffit à identifier près de 87 % de la population. Vous n’avez pas donné votre nom, bien sûr, mais vous avez donné ces trois informations-là, ça suffit pour vous identifier.
Donc c’est intéressant et je voudrais revenir sur la question de recoupement entre les données médicales et les listes électorales. Nous sommes ici au PG, un parti qui s’occupe des listes électorales et je vais donner l’exemple très récent de mon compagnon qui s’est inscrit sur les listes électorales à Bayeux et qui, aussitôt, a reçu de la publicité du Crédit Mutuel, de Carrefour et de Ouest-France. Comment ça se passe quand vous vous inscrivez sur les listes électorales ? Vous, moi, Corinne, Benjamin, Thomas, vous pouvez très bien demander à la préfecture de vous envoyer les noms des personnes inscrites sur les listes électorales. Il suffit d’envoyer, même, une clef USB, c’est très, très, simple ! Seulement, vous devez vous engager avec un formulaire, à ne pas les utiliser à des fins commerciales. Je peux les utiliser pour ma campagne électorale, tu peux les utiliser pour ta campagne, Benjamin pour je ne sais pas quoi, et Lionel, je n’en sais rien. Mais, pas à des fins commerciales. Sauf que personne ne vérifie par-derrière. Donc je suis en droit de demander au Crédit Mutuel, à Carrefour et à Ouest-France qu’est-ce qu’ils ont trafiqué d’illégal pour que mon compagnon reçoive des messages de publicité alors qu’il n’a fait, simplement, que de s’inscrire sur les listes électorales.
Autre exemple. Vous avez peut-être entendu parler, en 2012, de l’affaire Target, les magasins aux États-Unis, chaîne de magasins. Là, on est dans un exemple qui touche à la vie privée, on continue sur les données personnelles. Un père de famille voit dans sa boîte aux lettres des bons de réduction pour des couches-culottes ; il est père d’une adolescente de 16 ans. Il va faire un scandale au magasin en disant : « Pourquoi vous m’envoyez des bons de réduction de couches-culottes ? » Le magasin s’excuse. Et ensuite, quelques jours plus tard, c’est le père de famille qui vient s’excuser, car sa fille était effectivement enceinte et il ne le savait pas, et on ne sait pas si la jeune fille le savait également. C’est ça le point crucial, quand même, du problème. Pourquoi ? Parce que Target avait employé, à partir de 2002, un statisticien excellent, nommé Andrew Pole — peut-être que je prononce mal mais bon — qui avait établi finalement une liste de 25 produits que des femmes enceintes sont susceptibles d’acheter, jusqu’à prévoir un score de prévisibilité de grossesse. C’est-à-dire qu’avec les 25 produits achetés, vous pouvez savoir, avant même la personne qui est censée être enceinte, qu’elle est enceinte.
Par ce biais de statistique et de publicité ciblée, évidemment, on sait que vous avez des tendances à consommer tel et tel produit. Les publicités vont être ciblées : ils ont réussi à faire passer le chiffre d’affaires de Target, entre 2002 et 2012, de 44 milliards à 67 milliards. L’embauche d’Andrew Pole a été extrêmement rentable. Vu le tollé qu’il y a eu aux États-Unis suite à cette question ultra sensible, parce que ça va de recevoir des publicités pour les tondeuses à gazon, mais là pour des couches-culottes et des produits de grossesse, c’est quand même autre chose, eh bien justement, ils ont mélangé les tondeuses à gazon avec les produits pour femme enceinte. C’est-à-dire qu’au lieu de cibler de façon ultra précise leurs publicités, ils les ont mélangées avec des publicités qui n’avaient rien à voir, et sciemment. Pour ne pas qu’on puisse les accuser d’avoir fait, d’avoir envoyé à telle personne des… Vas-y.
Benjamin Bayart : Il y a un point même plus intéressant que ça, précisément sur ce point-là, les études montrent que quand les publicités sont trop bien ciblées, nous devenons méfiants. C’est-à-dire que si je vois des publicités qui ont l’air de vraiment me parler à moi, toutes, je rejette, je me sens envahi. Et les publicitaires sont arrivés à la conclusion qu’il faut 20 à 25 % de publicités ciblées pour qu’elles soient efficaces. Et ils font exprès de mettre 75 à 80 % de publicités non ciblées ou mal ciblées. Exprès ! Et ça change : je ne vais pas les suivre. Donc ce n’est pas que pour que je ne m’en rende pas compte, ça a cet effet-là. Voilà, ce n’est pas qu’une question de ne pas être accusés.
Isabelle Attard : Et je reprends la parole rapidement mais pour dire que nos données sont extrêmement importantes, pas le contenu des messages, je pense que Benjamin l’a suffisamment expliqué, mais bien les métadonnées qui y sont associées, c’est-à-dire que le lieu, la fréquence, avec qui je communique, a bien plus de valeur aux yeux des GAFA, mais également de l’État – et on y reviendra dans un deuxième temps – que le message lui-même.
Je ne sais pas qui est sur WhatsApp, vous pouvez lever la main. Voilà. Donc hier soir, en arrivant sur Toulouse, j’ai reçu un message sur les conditions d’utilisation de WhatsApp, je ne sais pas si vous l’avez reçu aussi, qui nous incitait à accepter les nouvelles conditions d’utilisation. WhatsApp a été racheté il y a deux ans par Facebook, je ne sais pas si vous le saviez, non ? Et donc, les nouvelles conditions d’utilisation font que vous autorisez WhatsApp à donner vos données à Facebook. D’accord ? Chose qui n’était pas le cas depuis deux ans.
Pour ceux qui ont mal lu, qui ont coché, qui ont accepté, parce qu’ils étaient soit bourrés, soit ils avaient mal vu, enfin quelque chose comme ça, vous avez — c’est ballot mais ça arrive — vous avez trente jours pour changer d’avis et décocher votre case, et c’est relativement simple dans les paramètres de WhatsApp. Apparemment il faut vous dire que WhatsApp est quand même un service de messagerie chiffrée, recommandé par Edward Snowden, comme Signal. Pourquoi ? Parce que Signal, comme WhatsApp, utilise un logiciel extrêmement performant le logiciel Open Whisper System, qui est à l’origine du logiciel de TextSecure, qui effectivement, aujourd’hui, est la méthode la plus sûre en termes de chiffrement. Et c’est parce que c’est une méthode extrêmement sûre en termes de chiffrement que Bernard Cazeneuve s’est attaqué, très récemment, au thème du chiffrement. C’est-à-dire que les supposés terroristes ou djihadistes utilisent la messagerie WhatsApp, utilisent Telegram, donc il faut surveiller Telegram et WhatsApp.
Je tiens à expliquer également que les terroristes utilisent des toilettes. Certains avaient dit qu’ils commandent aussi des pizzas et donc, il va falloir surveiller les livreurs et les fabricants de pizzas et les fabricants de toilettes !
C’est extrêmement grave. On y reviendra je l’espère, mais en tout cas, cette notion de chiffrement, de sécurisation des données, est à l’ordre du jour et le Conseil national numérique, dont parlait l’interlocuteur précédent, tout comme la CNIl, vient de signer une tribune mardi demandant à Bernard Cazeneuve de faire extrêmement attention quand il fait une campagne nationale contre le chiffrement. Les conséquences seront gravissimes, à la fois pour nous, dans l’utilisation de nos données et également pour l’économie en France. Merci.
Corinne Morel-Darleux : Merci Isabelle. Je signale à Bernard Cazeneuve, s’il nous écoute, que la direction du Parti de Gauche a migré de WhatsApp à Telegram récemment. Et je passe la parole à Thomas qui donc est co-animateur de la commission numérique du Parti de Gauche, qui a pris son essor il y a quelques mois et qui travaille, de manière collective, sur l’élaboration d’un certain nombre de propositions que nous pourrions ou que nous devrions porter en tant que parti politique, sur ces questions. Thomas, c’est à toi.
Thomas : Bonjour. Merci à tous d’être nombreux dans la salle et attentifs. C’est important. On a relancé la commission après de gros travaux qui ont été faits en 2012 et puis une période de creux qu’on a trouvée beaucoup trop calme, ces dernières années, et il était devenu vraiment inéluctable, pour une petite dizaine d’entre nous, de relancer fortement les activités autour du numérique pour des choses qui ont déjà été dites avant moi, notamment concernant les données et les métadonnées.
Je vais revenir sur quelques éléments économiques et nécessairement politiques. Lionel en a un peu parlé, mais les bénéfices considérables de ces sociétés, il disait que la capitalisation boursière principale étant de ces sociétés actuellement, c’est incroyable, ce sont des chiffres d’affaires qui dépassent le PIB de nombreux États et donc une influence, par conséquent, pour des services qui sont gratuits ! Et je trouve que ça, ça interroge beaucoup. On connaît l’adage si c’est gratuit c’est vous le produit. Nous travaillons, d’une certaine manière, pour ces sociétés, puisque nos données personnelles, métadonnées, valent donc davantage que les services gratuits qu’elles nous proposent. Et ces services gratuits sont considérables, c’est pour ça qu’on les utilise tous, c’est que c’est formidable.
Ne pas oublier également que ce n’est pas seulement des profits, c’est aussi de l’optimisation fiscale très importante, très considérable. En France, on estime 1,5 milliard d’euros de recettes fiscales manquées chaque année. D’optimisation fiscale et de fraude ! Au moins 22 % de plus d’impôts si elles étaient localisées en France, ces sociétés. Ça, c’est une étude de la Fédération française des Télécoms. On en reparlera, notamment cet après-midi, je vous invite à la conférence de Danielle Simonnet sur les questions d’ubérisation et de défiscalisation et d’inégalité entre les services existants et les services et les plateformes en ligne.
J’ai envie, quand même, d’apaiser, peut-être un peu, la salle et d’être un petit peu moins anxiogène, si on peut l’être, et un peu plus positif. On a, quand même, dans ce qu’on appelle le big data, le traitement de ces données à grande échelle, pas seulement de la publicité, pas seulement de la surveillance. On va avoir, par exemple, des informations sur les GPS automobiles qui vont permettre d’améliorer le trafic automobile. On peut avoir des données croisées qui vont améliorer la médecine. Les études médicales vont être plus faciles à mener, avoir des croisements automatisés. La consommation énergétique, par exemple, qui va être mieux répartie, et c’est tout un débat autour des compteurs Linky — vous avez certainement entendu parler de ça — et qui pose la question des données personnelles et de l’intrusion, malgré une volonté extérieure d’améliorer et de faire des économies d’énergie.
Alors je voulais poser la question comme ça, puisqu’on travaille pour eux, peut-être qu’on pourrait travailler, plutôt, pour la société. J’aime beaucoup la question de la propriété des données personnelles quand elle est posée en termes, finalement, de bien commun. Plutôt qu’une propriété individuelle qui, en fait, est difficile à poser. Il devient inéluctable ce traitement des données, on n’y échappe plus. Peut-être que toutes ces données croisées ont besoin d’être qualifiées de biens communs et c’est cette piste qu’on essaie de privilégier, avec nos moyens, au sein de la commission, dans nos réflexions.
Justement par rapport au PG, au Parti de Gauche, et à la commission numérique, depuis le début, un certain nombre d’éléments sont clairement actés. Depuis la création du Parti de Gauche, on a été présents, avec Martine Billard qu’on a mentionnée tout à l’heure, qui a fait un travail de députée extraordinaire sur les questions numériques, à l’époque, notamment, de la bataille contre DADVSI [5]et contre l’HADOPI [6], que vous connaissez peut-être, je ne vais pas détailler, mais on s’est positionnés clairement pour de grands sujets que je vais citer : la neutralité du Net et les logiciels libres. Je ne vais pas détailler, mais la neutralité du Net étant le fait qu’on a une confiance dans le réseau et tout le monde voit le même Internet : on a une égalité de traitement de tous les flux. Et les logiciels libres étant un contrôle de l’utilisateur sur le code du logiciel qui permet d’avoir confiance et de modifier. C’est cette notion de confiance qui est un peu à la base, aussi, de la souveraineté. Ce sont des préalables qu’on a vraiment actés dans notre projet et on met beaucoup de choses maintenant, par contre, en débat, concernant les choses qui nous semblent plus complexes et qui relèvent d’un droit plus élevé sur les données personnelles et qu’on voulait présenter dans le cadre de notre démarche de changement de République.
Dans le cadre de la Sixième République, on a une démarche pas seulement institutionnelle, pas seulement en réaction au présidentialisme de la Cinquième République, mais réellement, on souhaite, vous le savez, consacrer de nouveaux droits fondamentaux émancipateurs, sociaux, civiques, écologiques et donc, j’ai envie d’ajouter, numériques.
Par exemple, vous avez peut-être suivi lors de la bataille HADOPI, on a une victoire qui est que le Conseil constitutionnel avait censuré la riposte graduée d’HADOPI et avait empêché le fait qu’on puisse couper administrativement, sans juge, une connexion internet. Et de fait il est devenu un droit établi qui était celui de l’accès à Internet. Voilà le premier élément qu’on a clairement envie d’écrire dans la Constitution, puisque ça a été, d’ailleurs, déjà reconnu, mais il faut aller plus loin. Et la question de la propriété des données personnelles comme un droit inaliénable est clairement posée dans le cadre d’un droit constitutionnel. Le citoyen doit savoir comment les données sont traitées, pouvoir agir pour les modifier, les retirer. Lionel disait qu’il y a déjà un certain nombre de dispositifs, à travers notamment la CNIL actuellement, des dispositifs légaux qui nous semblent a minima devoir faire l’objet d’apparaître dans la Constitution. Voilà.
Notre rôle de parti politique est de porter un projet de société et nous devons être à la mesure du bouleversement que le numérique a apporté dans nos vies, dans tous les secteurs. Je pense qu’on commence à en être conscients, mais voilà : économie, culture, la question des médias, la question de la sécurité, on l’a entendu. J’ajouterais aussi, parce qu’ils favorisent la collaboration, le partage des communs. Ils sont positifs. On pense que le numérique doit être un appui dans la transition écologique que nous appelons.
Corinne Morel-Darleux : Merci beaucoup Thomas. On voit à quel point ce n’est pas un hasard si ce sont souvent les mouvements de l’écologie politique qui se sont emparés de ces questions parce que, effectivement, ça rejoint beaucoup de thématiques sur la question du consumérisme, sur la question des communs, qui sont autant de thématiques qui sont portées par l’écologie politique.
On devait faire un deuxième tour au niveau des intervenants, mais l’heure passant et le temps du débat et des réactions de la salle étant évidemment important, comme on a un impératif de fin à 13 heures, je vous propose qu’on passe tout de suite aux questions/réactions de vous tous et toutes, et puis je redonnerai, évidemment, la parole à nos invités, ensuite, à la fois pour répondre ou réagir à ce que vous aurez dit, mais éventuellement ajouter les petites choses qu’ils souhaitaient aborder dans un deuxième temps et qu’ils n’ont pas encore abordées. Je prends les inscriptions, sachant que nous n’avons pas de micro baladeur, je vous demanderai quand vous intervenez de vous lever, de parler fort et d’essayer de rester brefs afin qu’on puisse distribuer la parole le plus largement possible. Vas-y.

Public :
Olivier, dans le Rhône. Juste, quand on parle de toutes ces questions-là, il y a vraiment la question écologique derrière qui est fondamentale, parce qu’il faut savoir qu’Internet ça consomme autant, en électricité, qu’un pays comme le Japon, et que ça ne fait que croître à des vitesses exponentielles. Il y a un chercheur britannique qui a prévu que Internet, en 2023, ce serait la fin. Alors évidemment, c’est une prédiction alarmiste, ce n’est pas réaliste en soi, mais c’est un vrai problème, la consommation électrique. Et je ne parle pas, après, de tous les problèmes aussi de recyclage, enfin tout ce qui est lié à la consommation des objets qui sont liés à Internet.
Benjamin Bayart :
Je reprends la question en quinze secondes au micro pour que les gens qui ne verront que la vidéo : la question de la consommation de ressources d’Internet, en particulier de ressources énergétiques, mais pas seulement, il y a la question de recyclage des équipements. Il y a des études qui disent des bêtises sur Internet, il y en a depuis avant la création d’Internet. Internet ne consomme pas d’électricité, ce sont les ordinateurs qui en consomment. Si on ne les met pas en réseau, ça consomme quand même. Il faut faire très attention à la façon dont on lit.
Public :
Vous pensez que ce sont des bêtises, tout ce qu’ils disent ?
Benjamin Bayart :
Oui. Voilà ! C’est très important, parce que ça fausse l’idée qu’ont les gens. Si je fais des choses sur mon ordinateur au lieu de les faire en réseau, ça consomme probablement plus d’électricité. L’existence du réseau permet de traiter énormément de choses sans se déplacer. Ce qui correspond à terme : le seul mode de société qui permet de relocaliser la production c’est celui où les gens peuvent échanger des données. Il faut faire très attention à voir à quel endroit on consomme de l’énergie et à quel endroit on en économise. Je ne dis pas que la question n’existe pas, je dis qu’elle est beaucoup plus complexe et que je me méfie des études qu’on lit sur le sujet, parce qu’elles ont une certaine tendance à additionner n’importe quoi avec n’importe quoi d’autre. Oui les technologies de l’information et de la communication consomment une quantité énorme d’énergie. Oui ! Il se trouve que si on utilise correctement Internet, c’est une consommation d’énergie qu’on peut relocaliser.

À l’heure actuelle il y a une tendance, très fâcheuse, à l’hyper centralisation, c’est le principe des Google, Amazon, etc., qui sont des plateformes gigantesques. Ça, c’est hyper consommateur d’énergie et surtout, ça consomme beaucoup d’énergie en un point. Quand on délocalise, quand on décentralise ces infrastructures, on se met à consommer plus d’énergie, parce qu’on ne fait plus des économies d’échelle, mais partout. C’est-à-dire si au lieu d’avoir toutes vos données chez Google, vous avez toutes vos données sur un petit ordinateur chez vous, ça va consommer plus d’énergie que Google, mais ça va consommer un tout petit peu d’énergie dans tous les logements, et ça c’est facile à produire de manière propre. Produire des mégawatts de manière propre c’est compliqué. Produire quelques kilowatts, pour sa maison, c’est assez simple. C’est-à-dire qu’en fait, c’est beaucoup moins que le chauffage. Ma consommation d’énergie en matière de numérique, c’est moins que le chauffage de mon logement, beaucoup moins. Et donc, c’est une consommation d’énergie qu’on est capable de relocaliser, à terme.
Il faut faire très attention dans les grilles de lecture à ce qui est lié à une forme particulière de l’usage qui est l’hyper centralisation et à ce qui est lié à la technologie elle-même. Le numérique, en lui-même, est très peu consommateur d’énergie. La preuve un téléphone consomme très, très peu d’énergie. Si vous réfléchissez, la charge d’une batterie de téléphone, en quantité d’essence, c’est quelques gouttes. En fait, la quantité d’énergie qui est contenue dans une batterie de téléphone, c’est l’équivalent de quelques gouttes d’essence. Et pourtant, c’est un ordinateur extrêmement puissant. C’est-à-dire ça [Benjamin montre son téléphone] c’est largement assez puissant pour traiter mon mail, enfin toutes mes données perso, quoi ! La quantité d’énergie mise en œuvre dans un certain nombre de cas est extrêmement raisonnable. Donc il faut faire très attention aux grilles de lecture. C’est l’hyper centralisation qui coûte très cher en énergie. Là où il y a un vrai problème, c’est sur les consommations de ressources. C’est sur le fait que ça, on le jette tous les trois/quatre ans, alors qu’il n’y a pas de vraies bonnes raisons. Ça, c’est un autre sujet. Ça, ce sont des questions de recyclage, etc., mais c’est vrai dans toutes les techniques.
Corinne Morel-Darleux : Merci. Merci beaucoup. Ça me permet, puisqu’on parle d’énergie et qu’on a cité Martine à plusieurs reprises, de faire un petit peu de publicité pour un débat de cet après-midi à 14 heures 15 qui sera animé par Martine Billard sur la question de la transition énergétique.
Pas de micro donc pas de son

Corinne Morel-Darleux :
Merci beaucoup. Alors je peux vous dire que Isabelle Attard et Benjamin Bayart qui sont les deux les plus proches de moi, bouillent sur leur chaise depuis tout à l’heure, je vais donc tout de suite leur passer la parole pour répondre.
Benjamin Bayart :
Il y a une troisième voie. [en montrant Lionel Maurel]
Corinne Morel-Darleux :
De toutes manières, tout le monde aura la parole. On peut commencer par Lionel, dans ce cas, sachant qu’il nous reste un quart d’heure, donc on ne pourra pas répondre à tout. Je propose qu’on se recentre vraiment sur la question des données personnelles, puisque c’était le thème de cet atelier, pour le quart d’heure qui reste.
Lionel Maurel :
Très rapidement, je reviens sur ce que j’ai appelé troisième voie et le lien entre les données personnelles et la notion de communs. C’est, à mon avis, vraiment crucial. Pourquoi est-ce que les deux voies classiques, c’est-à-dire la voie « personnaliste » qui consiste à donner des droits aux individus, vous venez d’en parler, et la voie « propriétariste » ne me satisfont pas ? Parce qu’elles sont toutes les deux basées sur un individualisme méthodologique. C’est-à-dire qu’on considère qu’on a un problème global et que, dans les deux cas, ce sont des décisions individuelles qui vont gérer ce problème global. Et ça, si vous voulez, déjà on sait que ce n’est pas comme ça qu’on résout des problèmes globaux. L’écologie est un exemple typique. On a un problème global au niveau écologique, ce n’est pas uniquement en responsabilisant l’individu sur ses comportements qu’on arrivera à une résolution du problème. Il y a des décisions collectives à prendre pour régler le problème écologique.

Le problème des données personnelles est un problème écologique, en fait, transféré à l’écosystème numérique. Pourquoi ? Parce qu’en fait l’individu, quand il prend des décisions, il prend ses décisions, il externalise ; les externalités négatives il n’en tient pas compte, et il coche la case. L’exemple typique c’est si vous jouez à Pokémon Go, Pokémon Go va vous demander votre carnet d’adresses. Si vous donnez votre carnet d’adresses, vous ne donnez pas que vos données personnelles, vous donnez aussi toutes les données personnelles des gens avec qui vous êtes lié. Donc vous ne prenez pas une décision pour vous, vous prenez une décision qui engage beaucoup plus que vous, et je dirais que la notion même de données personnelles est dangereuse parce qu’elle nous fait croire que ces données n’engagent que nous, et elle donne un pouvoir fort à l’individu là-dessus. Et cette approche-là, il faut bien le dire, elle est libérale et même néo-libérale. Et donc, en fait, il y a une critique forte à faire sur cette pensée qui consiste à dire « pour résoudre ce problème, il suffirait de consacrer de nouveaux droits aux individus et plus l’individu aura de droits, plus il pourra contrôler cette question des données personnelles ». Sachant que dans ce domaine-là, on est dans un champ de servitude volontaire terrible. C’est-à-dire que l’individu, plus vous lui donnez de droits, plus vous donnez de droits de nuire à lui-même et de nuire aux autres. Il y a un vrai enjeu, là, à mon avis. Et d’ailleurs, même dans la sphère geek, moi je ne suis pas tout à fait toujours en accord avec l’approche qui est donnée où on responsabilise beaucoup l’individu, on lui dit même qu’il a tous les outils alternatifs possibles, « à toi de les utiliser ! » Sauf qu’on sait que ce n’est pas comme ça que ça marche et ça ne suffit pas.
Donc, à partir du moment où on a dit ça, qu’est-ce qu’il y a comme troisième voie ? Eh bien il y a la voie de considérer que les données personnelles, de les considérer comme un commun, c’est-à-dire un élément qui a des utilités sociales, positives ou négatives, et qui doivent faire l’objet d’une décision collective sur son usage. Il y a un chercheur qui s’appelle Antonio Casilli [7], qui travaille beaucoup sur les questions de digital labor et qui a dit : « La vie privée n’est plus une question de droits individuels, c’est l’objet d’une négociation collective ». Il dit : « Cette négociation collective a trois points : il y a l’État, il y a les grandes sociétés et les individus qui sont parties prenantes d’une négociation tripartite. Et c’est en fonction du rapport de force dans cette négociation qu’on a la réalité de la protection de la vie privée ». Sauf que dans cette négociation, il n’y a pas d’organisation de la société civile pour peser dans le débat. Il n’y a que l’individu, bon, il peut aller saisir la CNIL, on lui dit qu’il peut aller faire des recours en justice tout seul, ou qu’il peut cocher, ou pas, une croix. Mais la société civile n’est pas organisée. Alors nous, on essaie de le faire à La Quadrature du Net, on essaie de diffuser la conscience qu’il y a un pouvoir d’agir collectif, notamment au moment du vote des lois, etc.
En fait, ce n’est pas la donnée personnelle, en elle-même, qui est un commun, c’est le réseau des données personnelles liées qui fait le graphe social et qui est le bien collectif qui permet de faire des utilités en termes de recherche, en termes d’environnement, mais qui peut aussi être capté et approprié par des grandes sociétés et qui, là, aboutit à une privation. La question c’est : comment faire en sorte de retrouver un pouvoir de décision collectif sur l’usage du commun ? Alors pas du bien commun, je préfère dire commun, parce que ça évacue le bien et donc le risque d’une marchandisation, mais ce commun que sont les données personnelles.
Et pour ça il y a plusieurs voies : il y a toute la voie des alternatives aux plateformes centralisées. Il y a des alternatives. On a parlé des logiciels libres, par exemple, c’est une alternative très concrète. Il y a des gens, aussi, qui réfléchissent à faire une fusion entre le Libre et l’économie sociale et solidaire : ça s’appelle le coopérativisme de plateformes, pour faire en sorte qu’il y ait des nouveaux services, qui soient équivalents de ceux des GAFA, mais qui soient co appropriés avec les utilisateurs. Là, on a une vraie question. Il y a aussi toute la question éducative qui est essentielle. Et quand on voit, par exemple, le ministère de l’Éducation nationale signer un contrat, enfin ce contrat terrible [8] avec Microsoft, là on se dit qu’il y a vraiment quelque chose de terrible qui a été fait, parce que toute cette portée éducative qu’il pourrait y avoir sur les données personnelles est très gravement compromise.
La question c’est : comment retrouver un pouvoir d’action collectif ? C’est important d’avoir des droits individuels, mais ce n’est pas suffisant. Et là il y a une vraie piste à creuser, il y a un rôle de l’État et il y a un rôle aussi, je pense, de la société civile à s’organiser pour reconquérir ce pouvoir d’action collective.
Corinne Morel-Darleux : Merci beaucoup. Je pense qu’il y a une piste, effectivement, à creuser et que ce que je disais en introduction aussi d’alimenter nos travaux au Parti de Gauche, pour le coup, là on a effectivement une piste pour la commission et pour l’ensemble du parti. Je vais donner la parole, maintenant, à Isabelle pour réagir à ce qui a été dit dans la salle.
Isabelle Attard : Tout d’abord, le but n’était pas de faire un atelier anxiogène, mais de faire un atelier réaliste, de façon à ce que tout le monde soit au courant de ce qui se passe et qu’ensuite chacun prenne ses responsabilités, avec ses données. Je rejoins tout à fait ce que dit Lionel, mais, quand même, chacun doit pouvoir interagir avec les données personnelles qu’il met à disposition, d’une façon ou d’une autre, via les réseaux sociaux ou ses achats sur Internet ou son bracelet Fitbit qui vous donne en temps réel, effectivement, le nombre de calories que vous avez consommées et qui pourra être utilisé, des données qui pourront, bien sûr, être utilisées par les assureurs. De la même façon, il ne faut pas se leurrer, quand vous avez des patrons qui regardent votre compte Facebook pour savoir quel est votre réseau d’amis et si vous êtes quelqu’un de fiable, ou pas, depuis des années. Il faut en être conscient et il faut avoir les moyens de lutter contre ça, contre cette utilisation marchande des objets connectés. Mais si vous vous connectez, vous prenez aussi certains risques.
Et donc l’objectif, finalement, du législateur — que je suis encore pour quelque temps et j’espère encore plus longtemps, mais pas trop, comme ça je vous rassure, en même temps — c’est effectivement de pouvoir mettre dans la loi qu’on peut récupérer ses données à n’importe quel moment. C’est-à-dire qu’à un moment donné, oui, j’ai laissé sur les réseaux, j’ai confié, j’ai laissé mes données personnelles. Je dois pouvoir faire l’inverse, en termes de portabilité des données, je dois pouvoir les récupérer à n’importe quel moment. Pas seulement les mails que j’ai pu mettre dans une boite mail, mais toutes les données, dispersées à gauche à droite. Je dois pouvoir, et on en parlait avec Benjamin tout à l’heure, d’un simple clic, parce que si c’est compliqué personne ne le fera ou ne pourra le faire, d’un simple clic, je dois pouvoir les enlever, de la même façon que d’un simple clic j’ai pu les mettre. Et ça, je pense que ça fait partie de ce qu’on peut mettre, effectivement, dans un texte de loi. Alors si les multiples lobbies font leur travail, on n’y arrivera jamais. Si on a des députés qui n’obéissent plus aux lobbies, on y arrivera. Ça c’était une première chose.
Ensuite, deuxième point, je voulais aller à l’essentiel. Si vous avez besoin de plus d’infos, il y a quand même des articles spécialisés, et en particulier quelqu’un qui n’est pas là avec nous, Marc Rees, qui travaille pour Next INpact [9], ou bien Guillaume Champeau sur Numerama [10]. Je vous encourage à aller les lire parce que c’est très pointu, mais c’est aussi très clair ; ce n’est pas du charabia.
Je voulais dire une chose. L’État laisse aujourd’hui aux GAFA la possibilité d’agir et de se faire du pognon. Typiquement, le Google Art Project est une façon de se dessaisir de notre patrimoine culturel, de laisser Google numériser notre patrimoine que ce soit en termes d’art, d’architecture de photos, etc., de films, et de faire du business dessus après. Or, et Lionel est très bien placé pour le savoir, nous avions la possibilité, nous l’avons toujours, en France, la possibilité de faire ce travail, qui a été confié à Google, de numérisation. Nous avons toutes les capacités intellectuelles, techniques de faire la même chose nous-mêmes et d’être maîtres, de la même façon qu’on peut parler dans un autre atelier d’être maîtres du foncier, on peut être maîtres, finalement, de notre culture sans avoir à la brader à Google qui va nous séduire en nous disant qu’ils peuvent le faire gratuitement. « C’est gratuit », il y a un piège, quand même, derrière. L’État joue un jeu extrêmement dangereux aujourd’hui, ce n’est peut-être pas nouveau, mais c’est encore plus flagrant ces dernières années, avec justement les GAFA. On fait semblant de vouloir lutter contre Google, Facebook, Amazon, etc., or, on ne touche à rien, parce que la seule chose qui pourrait les faire flancher c’est sur la fiscalité. Et pourtant Google, Facebook, Amazon, Microsoft, continuent à ne pas payer les impôts qu’ils devraient payer chez nous et les milliards s’envolent en fumée. Et on nous fait croire qu’on peut lutter contre eux en faisant une petite loi Amazon, à deux balles, qui n’a servi finalement à rien puisque Amazon avait déjà la parade avant même que les législateurs votent la loi sur les frais de port. Enfin bref, c’était du grand n’importe quoi !
Ensuite, par rapport à la relation d’apprenti sorcier, la relation extrêmement dangereuse entre l’État et les GAFA, entre le gouvernement et les GAFA, pendant la loi renseignement, pendant même les débats sur la loi antiterroriste, on a eu entendu, et vous pouvez retrouver les vidéos, M. Bernard Cazeneuve dire : « Mais Mme Attard, M. Facebook a déjà nos métadonnées ! » Conclusion : ça voulait dire M. Facebook a déjà nos données, donc vous comprenez nous, on peut les avoir aussi. L’État n’est absolument pas protecteur, d’une façon collective, de nos données personnelles puisqu’il va utiliser les GAFA, il va vous dire : « Vous avez confié vos données à Facebook, à Twitter, donc ne venez pas ensuite nous accusez de les utiliser pour faire de la surveillance généralisée ! » Il est là le discours de Bernard Cazeneuve et de Le Drian, mais il lui n’avait rien compris. Il a juste répété, il ne sait pas ce que c’est qu’un algorithme, mais il le dit quand même ! Il est là le côté dangereux ! Il est là !
On parlait des données tout à l’heure et c’est là où j’ai peut-être le plus sauté sur ma chaise, de l’utilisation des métadonnées à des fins commerciales, mais ce n’est pas à des fins commerciales ! C’est à des fins de flicage ! C’est à des fins de savoir ce que vous pensez, ce que vous votez, ce que vous croyez. On est là, exactement, à la veille de la Deuxième Guerre mondiale lorsqu’une filiale d’IBM avait lancé la machine qui calculait déjà qui pensait quoi, qui croyait quoi, donc pour différencier les Juifs des non Juifs. Les métadonnées, aujourd’hui, servent à l’État à la surveillance généralisée. Et j’espère pouvoir conclure là-dessus et passer la parole à Benjamin qui, tout à l’heure, disait et à Thomas, pour dire que « quand est-ce qu’on passe à l’étape d’après avec l’utilisation et au flicage ? » C’était l’année dernière ! Ce n’est pas « quand est-ce qu’on va y passer demain ou après-demain ». C’est déjà fait.
Je vous engage donc à lire l’article 15 et l’article 2 de la loi sur l’état d’urgence que mes collègues, dans une grande unanimité, ont voté le 21 juillet dernier, avec l’article de Reporterre [11]. Il y doit y avoir aussi des choses sur Mediapart. La conclusion de ce vote du 21 juillet c’est que, de toutes façons, nous sommes tous, aujourd’hui, susceptibles d’être surveillés dans nos communications et nos données puisqu’il suffit d’avoir un lien avec une personne présentant potentiellement une menace sur l’État. Un lien ! Vous ne savez pas ce que c’est qu’un lien ? Moi non plus ! Un lien c’est un retweete ? C’est un carnet d’adresses ? Vous l’avez salué dans la rue ? Vous êtes en photo avec cette personne ? Donc conclusion, nous sommes tous aujourd’hui sous le coup d’une surveillance généralisée. C’était l’objectif de Bernard Cazeneuve et de Manuel Valls, ils ont réussi, aujourd’hui. Ce n’est pas être défaitiste, ce n’est pas être anxiogène, ce n’est pas être ultra pessimiste, c’est juste de façon à se réveiller et d’avoir une action collective en étant conscients du problème. Voilà.
Applaudissements

Thomas :
Une piste rapide sur un rôle plus positif de l’État. On s’est penché sur un cas d’étude qui est l’Estonie, un pays considéré comme le pays d’Europe le plus connecté. En fait, c’est un petit pays d’environ trois millions d’habitants, qui a une fierté nationale, quand même, parce qu’ils ont édité le logiciel Skype, que vous utilisez tous, et qui est considéré comme hyper connecté pour le meilleur et pour le pire, mais, dans les tous les cas il y a des choses à aller regarder. Notamment, ils payent leurs impôts, ils signent des contrats de travail, ils votent en ligne depuis déjà un certain nombre d’années. Et puis, concernant les données personnelles et, en réponse, peut-être, aux questions médicales, il y a une certaine transparence puisque beaucoup de choses se font à travers une plateforme publique où l’utilisateur a également accès, peut découvrir qui a demandé l’accès à ses données personnelles et peut accorder ou non l’accès à ses données, par exemple ouvrir ou non un dossier médical à un hôpital ou à un médecin. Voilà. Ce n’est pas dire que confier toutes mes données à l’État, sera plus évident que les donner aux privés actuellement, et pour ça il faut explorer, effectivement, les pistes de coopératives de citoyens, en tout cas de groupes de contrôle citoyen de gouvernance, qui nous parlent beaucoup plus que l’étatisation. Mais ça, c’est une piste clairement à creuser en service centralisé. Voilà. Je pense qu’il y a un grand intérêt pour la conférence, semble-t-il, et peut-être que la prochaine pourra se faire sur un sujet moins anxiogène, sur des questions du partage, de la collaboration en ligne et de l’écologie, du bien vivre ensemble grâce au numérique. En tout cas, on reviendra.
Corinne Morel-Darleux :
Merci et je vais donc laisser la parole de conclusion à Benjamin Bayart.
Benjamin Bayart :
Merci.
Public :
On parle de nous, de notre génération. Moi ce que je vois arriver c’est dans des écoles. C’est pratiquement une imposition : les enfants doivent avoir des ordinateurs, des tablettes et tout ça. Je suis dans un village où je me bagarre, où on est comme des…
Benjamin Bayart :
Entendu, compris, j’en parle. On ne va pas être d’accord, mais ce n’est pas grave ! J’ai noté quelques points clefs, je vais d’abord évacuer un truc très simple sur les questions d’intelligence artificielle et de traitement des données versus les métadonnées. C’est quelque chose qui est super simple à comprendre. Les données sont intéressantes, ce que nous disons et ce qu’il y a sur les photos c’est intéressant, mais c’est compliqué. Pour en faire quelque chose de manière automatique, il faut structurer. C’est-à-dire qu’il faut partir de données non structurées, typiquement un discours, pour essayer de créer de la structure, donc de la métadonnée, qui donne des informations et de la richesse à la donnée, pour pouvoir ensuite l’exploiter. Et tout le jeu de l’intelligence artificielle et tout le travail de Yann Le Cun [12], c’est de partir de données brutes pour obtenir des structures. Il faut comprendre que ça marche, que ça va marcher, et que ça donne aussi des résultats ridicules.

Je voyais passer hier sur Twitter des gens qui disaient qu’ils s’étaient donné rendez-vous à La Lingerie qui est le bar dans le squat de l’hôpital Saint-Paul, à Paris. Et du coup, depuis, ils reçoivent de la publicité pour de la lingerie. Bien ! Si au lieu de mettre le nom du bar, qui a été mal compris par l’algorithme, ils avaient mis le compte Twitter du bar, l’algorithme ne se serait pas trompé. Si on avait donné des métadonnées au lieu de donner des données, ça aurait été bien compris. C’est parce que je connais le lieu que je sais que La Lingerie ce n’est pas de la lingerie, c’est le nom du bar. L’intelligence, même naturelle, n’est pas simple. Artificielle, c’est un danger, mais pas tout de suite. Les métadonnées sont tout de suite un danger parce qu’elles sont certaines, alors que l’intelligence artificielle ne sera jamais certaine. Donc ça c’est le premier point que je voulais évacuer.
Le deuxième que je voulais évacuer, très vite, ce sont toutes les questions sur la captation de données alors qu’on n’a pas encore de but, par exemple ce qu’on fait dans les villes intelligentes. En fait, quand on capte de la donnée, on crée du savoir, le savoir n’est pas en lui-même toxique. Savoir comment les gens se déplacent, ça permet d’optimiser la ville. Collecter des données sans savoir ce qu’on va en faire et ce qu’on va en tirer comme intelligence, ça porte un nom, ça s’appelle de la recherche. Les chercheurs collectent des données et essayent de comprendre ce qui se passe dans les données qu’ils ont collectées. Donc ce n’est pas, en soi, malsain et c’est même plutôt sain. Capter des données sans savoir ce qu’on va en faire, dans le but d’essayer de comprendre comment fonctionne le monde pour l’améliorer, ce n’est pas malsain, de base. Ce qui est malsain c’est quand, ayant collecté des données, on cherche comment on va pouvoir exploiter les gens. Mais avoir collecté les données pour comprendre le monde, ce n’est pas une démarche malsaine. Le fait d’avoir collecté des données de santé pour prédire mon état de santé et mieux me soigner, ce n’est pas malsain. Ce qui est malsain, c’est quand mon assureur cherche comment il va faire pour ne plus m’assurer, pour que je ne sois pas soigné et que j’aille crever ailleurs, mais pas à ses frais. Il faut faire très attention. Elle est là la finesse : capter des données sans but ce n’est pas malsain, capter des données ce n’est pas malsain.
Enfin, il y a un point sur lequel je veux revenir. Moi, je l’ai noté sur mon papier comme étant Klass contre Allemagne 1978 [13], jurisprudence célèbre de la Cour européenne des droits de l’homme, si je ne me trompe pas. 1978, j’insiste Ça dit que le simple fait de savoir qu’on est susceptible d’être surveillé déforme la société parce que ça interdit de penser : je sais que je risque d’être surveillé et donc je vais faire attention ! « Non ! Non, lui je ne peux pas discuter avec lui par SMS, c’est un gauchiste, je vais être fiché ! Je ne peux pas parler avec des copains anarchistes parce qu’en fait, ils interviennent dans des Black Blocs, et des fois ils font : « Eh ! », et alors du coup je pourrais être soupçonné de. Et en fait, ça interdit de penser. Le fait de se savoir surveillé ou de se savoir susceptible d’être surveillé, ça interdit de penser.
Or, précisément, ce que veulent faire les pouvoirs publics, c’est nous surveiller en permanence, c’est nous surveiller sans motif. Quand Bernard Cazeneuve fait semblant de s’attaquer au chiffrement, parce qu’il ne touchera pas au chiffrement, il ne pourra pas ! Et il ne pourra pas pour des raisons techniques. C’est-à-dire qu’il se trouve que les mathématiques qui sont derrière le chiffrement sont solides. Si la NSA n’y est pas arrivée ce n’est pas papa Cazeneuve, avec ses billes, qui va y arriver. Il n’y arrivera pas. Mais ce n’est pas ça le jeu, ce n’est pas ça le jeu ! Ça, c’est le chiffon rouge. Ce qu’il est en train de passer derrière, c’est le fait que tous les systèmes qui permettent de discuter soient considérés comme des opérateurs télécoms et que tous les systèmes qui permettent de discuter aient les mêmes obligations que les opérateurs télécoms, donc de fichage généralisé de la population et de libre accès de la police, sans contrôle de la justice. C’est exactement ce que fait la NSA quand la NSA est interfacée avec Facebook pour savoir qui discute avec qui. Et quand Cazeneuve dit qu’il veut avoir accès aux données, objectivement il se tire sur la douille. Il aimerait avoir accès aux contenus, mais, les métadonnées, il sera déjà content. Il veut surveiller la totalité de la population, et l’idée que quelqu’un puisse échapper à la surveillance le terrorise. C’est une caractéristique des dictatures. C’est typiquement le comportement paranoïaque d’un Ben Ali. Vouloir surveiller la totalité de la population parce que, rendez-vous compte, quelqu’un est susceptible de penser du mal du gouvernement ! C’est ça son problème. Son problème n’est pas tellement de prévenir les attentats. Ce n’est pas tellement un problème de sécurité : en termes de nombre de morts, le terrorisme est encore beaucoup moins dangereux que l’automobile. Donc ce n’est pas un problème de sécurité, ce n’est pas un problème de santé publique, ce n’est pas un problème de longévité pour les gens. C’est un problème de contrôle politique. Je rappelle que le directeur des services de renseignement parle de djihadiste vert. Alors, pour info, un djihadiste vert c’est une personne qui ne veut pas d’aéroport. OK ! Je pense qu’on verra apparaître des djihadistes rouges qui sont les gens qui ne sont pas d’accord avec le Medef. OK ? Il est là le problème ! Ne croyez pas, je sais que c’est une idée très ancrée dans l’esprit des gens de gauche, ne croyez pas que l’État est protecteur. Ce n’est pas le cas. Il n’est pas forcément pire que les grandes compagnies et si un traitement doit avoir lieu, souvent, la puissance publique est peut-être moins pire. Mais gardez bien en tête qu’il y a chez nos politiques ce phantasme de la toute puissance qui est lié à l’ego surdimensionné. Et c’est quelque chose d’extraordinairement dangereux et gardez ça en tête à chaque fois. : quand ils disent qu’ils veulent surveiller des terroristes ayez bien à l’idée que c’est faux.
Applaudissements
Corinne Morel-Darleux : Merci infiniment, à vous toutes et tous, aux invités, aux participants à ce débat. Prenez le temps de vous restaurer, de vous rafraîchir, et on se retrouve cet après-midi pour la suite de nos ateliers. Merci encore.