Voix off : Next, Next, Next, Next.
Mathilde Saliou : En 2025, la France comptait 316 centres de données ou datacenters. Ça faisait de l’hexagone le 6e pays au monde le plus doté en usines à données, parce que les datacenters, si on résume leurs fonctions, c’est à peu près celles d’une usine : ils stockent les éléments essentiels à nos usages numériques, les données, ils effectuent dessus les calculs éventuellement nécessaires, et puis ils les redistribuent chaque fois qu’on les sollicite. Cela dit, pour faire cela il faut entreposer des lignes et des lignes de serveurs dans un espace dédié, faire en sorte que celui-ci soit approvisionné en électricité et qu’il soit correctement climatisé, parce qu’un serveur c’est comme mon ordinateur, quand on l’utilise en continu, il chauffe.
Je suis Mathilde Saliou, journaliste chez Next, et vous écoutez Écosystème,
Épisode 3. Dans les usines de données
Les datacenters sont devenus un peu plus visibles dans le débat public dans le contexte du boom de l’intelligence artificielle générative. Nous allons en reparler au fil de notre épisode : ces systèmes d’IA sont très consommateurs en énergie. Comment les datacenters s’intègrent-ils dans nos espaces concrets ? Comment se fondent-ils dans nos rues et dans nos villes, dans nos campagnes aussi ?
Pour mieux saisir leurs effets sur leurs voisins, que ceux-ci soient humains ou non humains, je vous propose d’écouter Cécile Diguet. Cécile Diguet est urbaniste et elle travaille depuis une dizaine d’années sur les impacts environnementaux et spatiaux des infrastructures numériques. Pour planter notre sujet du jour, je lui ai demandé de décrire les acteurs du marché des datacenters.
Cécile Diguet : Déjà, les datacenters sont des infrastructures très stratégiques pour Internet puisqu’elles stockent, mais aussi elles transportent, dispatchent les données et elles les traitent de plus en plus, notamment avec le développement de l’IA.
Ces bâtiments, qui sont de plus en plus grands, sont opérés par différents types d’acteurs.
Ça peut être ce qu’on appelle les acteurs de la colocation, là on va héberger des données d’entreprises différentes.
Ça peut être Equinix, un acteur des États-Unis mais qui est mondial aujourd’hui, ça peut être Digital Realty, ça peut être OVH par exemple, qui fait de l’hébergement, ce sont les acteurs commerciaux.
Après, on a les acteurs du cloud que sont les Big Tech – Meta, Google, etc. –, qui ont leurs propres centres de données pour leurs clouds et pour leurs propres usages.
Enfin, on a les datacenters qu’on appelle d’entreprise ou traditionnels, puisqu’on a encore des grandes entreprises, évidemment, comme Orange, EDF ou autres qui ont leurs propres infrastructures pour leurs propres usages.
Mathilde Saliou : Étant donné que tout ce monde-là, quand il décide de s’installer quelque part, il ne le fait pas dans le vide, je demande à Cécile Diguet, quelle variété d’acteurs participe à la décision d’installer, ou pas, un centre de données.
Cécile Diguet : Quand un opérateur veut installer un datacenter sur un territoire, quelle que soit sa nature en fait, il va devoir passer par un certain nombre de procédures et d’autorisations administratives, qui sont souvent en partie similaires à d’autres types d’usages industriels, ce ne sont pas non plus forcément des autorisations spécifiques aux datacenters.
Tout d’abord, ce qui va être le plus important pour eux, c’est de sécuriser l’approvisionnement électrique. Ils vont donc d’abord trouver un site, trouver une parcelle, voir s’ils peuvent l’acheter avec des conditions suspensives, ce qui veut dire qu’ils sont vraiment propriétaires, s’il y a l’approvisionnement électrique, s’ils ont toutes les autorisations, etc., pour ne pas se retrouver avec ce terrain ou cette parcelle sur les bras.
Ensuite, ils vont aller voir les opérateurs électriques. En gros, aujourd’hui, les datacenters requièrent des puissances électriques de plus en plus importantes, souvent au-dessus de 40 mégawatts. Au-dessus de 40 mégawatts c’est RTE, le transporteur d’électricité, en dessous de 40 mégawatts, c’est Enedis. De plus en plus, les demandes vont vers RTE puisque les datacenters sont de plus en plus grands. Donc, pendant quelques mois, RTE va faire une proposition à ces opérateurs, qui va leur convenir ou non, parfois ils auront essayé de courir plusieurs lièvres, comme on dit. C’est vraiment la base, c’est se demander si on peut avoir de l’électricité suffisante.
À partir de là, un projet plus précis va se dessiner, avec un architecte, avec beaucoup de bureaux d’études, parce que les datacenters sont des objets techniques très complexes avec des systèmes de refroidissement, des systèmes électriques, vraiment pour créer une sorte de bulle climatique intérieure hyper stable, cela c’est déjà tout un processus. Il va y avoir des autorisations environnementales, par exemple ce qu’on appelle les autorisations ICPE, Installations classées pour la protection de l’environnement, qui vont vérifier que l’infrastructure ne cause pas de dommages à l’environnement, a bien prévu tout ce qu’il faut pour le stockage d’essence, de fioul pour les générateurs de secours, a prévu ce qu’il fallait pour l’isolation sonore, évite de dégrader une situation par exemple existante sur la biodiversité ou sur le voisinage avec des habitants, etc. Il peut y avoir d’autres études d’impact environnemental en fonction des sites.
Il peut y avoir ensuite des discussions avec la commune ou la communauté de communes ou d’agglomération sur le permis de construire, pour le coup sur des dimensions en lien avec le plan local d’urbanisme : est-ce que le projet respecte le PLU [Plan local d’urbanisme] ? Des améliorations sont-elles possibles sur son insertion paysagère, urbaine, etc. ?
En Île-de-France, il y a quelque chose de particulier qui s’appelle l’agrément. En fait, historiquement, l’agrément est donné par la préfecture d’île-de-France, donc l’État dans la région. Au début, c’était pour rééquilibrer les bureaux et le logement à l’est et à l’ouest de la région. On avait une offre de bureaux très forte à l’ouest et une offre de logements très forte à l’est, sans mixité. L’idée de l’agrément c’était pour équilibrer tout ça et finalement le principe de l’agrément s’est étendu à d’autres usages, notamment aux datacenters. La préfecture vérifie d’abord que le datacenter, en quelque sorte, est compatible avec le schéma directeur de la région Île-de-France, le SDRIF, qui a quelques préconisations sur les secteurs on va dire préférentiels d’implantation, mais aussi la très forte incitation à se raccorder à des réseaux de chaleur et à éviter, si possible, de se développer sur des terres agricoles ou forestières même si elles sont ouvertes à l’urbanisation. En gros, l’État vérifie tout ça, fait des préconisations et peut refuser l’agrément, c’est arrivé une fois à Amazon à Brétigny-sur-Orge, par exemple.
Il y a donc plusieurs étapes pour sortir un datacenter et, en général, ça peut prendre entre deux et quatre ans voire un peu plus selon la taille du projet.
Mathilde Saliou : J’entends parfois dire qu’il y a une culture différente de la construction et de la gestion des datacenters selon que les acteurs viennent des États-Unis ou de France et d’Europe. Aux États-Unis, par exemple, la culture qui semble se développer est celle de gestion d’usines : de très vastes étendues dédiées à l’accueil des serveurs. En France, en revanche, il y aurait une pratique plus développée de centres de petite taille. Je demande donc à Cécile Diguet si elle constate la même chose, y compris en fonction des acteurs qui viennent travailler en France et ce que ça implique en termes de gestion.
Cécile Diguet : Aux États-Unis, il y a des très grands datacenters depuis plus longtemps qu’en France. En France, juste pour rappeler, RTE avait, en 2021, une seule demande de raccordement pour un très grand datacenter, donc au-dessus de 40 mégawatts ; aujourd’hui, ils en sont à une quarantaine. Il y a un changement radical, depuis quelques années, sur la taille et la puissance des datacenters qui s’installent en France et on sait que les Big Tech veulent s’installer en France. Le modèle étasunien essaye donc de s’exporter en France, c’est déjà un premier point.
Ensuite, la taille des datacenters est effectivement liée aussi aux acteurs, parce que les acteurs de colocation ont eux aussi des datacenters de plus en plus grands, mais c’est quand même moins grand que ceux du cloud. Quand je dis grand, le cloud ça peut être 60, 80, 100 000 mètres carrés, c’est énorme, alors que les datacenters, on va dire en 2015/2016, de colocation, faisaient 10 000 mètres carrés, ce qui est déjà beaucoup.
Pour donner un exemple plus concret, à côté de la mairie du 11e arrondissement à Paris, un datacenter de Telehouse [1] héberge notamment un des points internet les plus importants du réseau français, il fait 7000 mètres carrés et c’est grand, mais maintenant c’est petit. Les ordres de grandeur ont donc beaucoup changé, ils sont en train de changer un peu vers la course à la grandeur.
Il faut voir, quand même, que les acteurs des datacenters en France sont très étasuniens dans la mesure où les Big Tech ce sont les États-Unis, Equinix ce sont les États-Unis, Digital Realty ce sont les États-Unis, et même DATA4, on pense que c’est français, mais derrière il y a des fonds d’investissement qui sont en partie canadiens ou américains. Il n’y a que OVH [2] qui reste vraiment française et OVH a un modèle assez particulier, puisqu’ils font de l’hébergement, mais surtout, ils construisent leurs propres serveurs. Ce ne sont pas des salles à disposition dans lesquelles les entreprises viennent mettre leurs serveurs : OVH fournit les services d’hébergement.
Mathilde Saliou : Quand on se concentre sur la question de la taille, et vous parliez tout à l’heure des autorisations nécessaires pour construire de nouveaux datacenters, il y a aussi une idée, que j’entends beaucoup, qui est qu’on construit beaucoup les datacenters dans des bâtiments déjà existants, on utilise d’anciennes usines ou d’anciens bâtiments pour les réemployer. Du coup, j’imagine que dans l’évolution de contexte dont on est en train de parler, ça ne se passe plus tellement comme ça.
Cécile Diguet : Quand j’étais encore à l’Institut Paris Région, nous avons fait une base de données sur les datacenters en Île-de-France [3]. On voyait effectivement que, jusqu’à 2018, beaucoup de datacenters s’installaient sur des parcelles déjà urbanisées, ce qui ne veut pas dire qu’ils se mettaient dans un bâtiment existant, mais ils le faisaient encore beaucoup.
Si je reprends l’exemple de Telehouse, à côté de la mairie du 11e, c’est un datacenter qui s’est installé dans un ancien grand magasin du 19e. Pourquoi ? Comme il y avait des lourdes marchandises, il y avait une structure métallique, et non pas une structure en bois, qui permettait de supporter le poids des serveurs. Il est possible de s’installer dans des bâtiments existants, il y a évidemment quelques prescriptions techniques particulières, mais aujourd’hui, les opérateurs veulent de plus en plus construire leurs propres bâtiments selon des cahiers des charges qui sont extrêmement standardisés, qui sont les mêmes qu’aux États-Unis, qui sont les mêmes qu’en Inde, qui sont les mêmes que partout dans le monde, c’est un peu le McDo de la data. Même si Digital Realty a fait un datacenter très grand, 40 000 mètres carrés, à La Courneuve, le long de l’autoroute A 86, qu’il a construit sur l’ancienne usine Eurocopter, mais tout a été détruit. En fait, il y a des gradations.
Il y a ceux qui sont capables, et qui le font, de transformer des bâtiments existants, impact carbone ultra réduit ; ceux qui s’installent sur des parcelles déjà urbanisées, donc on n’artificialise pas les sols, c’est moins bien mais c’est toujours mieux que ceux qui artificialisent des sols agricoles naturels forestiers, HQ Cloud à Lisses [4] qui artificialise des sols naturels. Aujourd’hui, la tendance n’est pas très vertueuse.
Mathilde Saliou : Si on commence à détailler vraiment les différents impacts d’un datacenter d’un point de vue environnemental ? Parce qu’il y a cette question de l’artificialisation des sols, mais il y a aussi tout ce qui permet de refroidir les systèmes, de les faire tourner, etc.
Cécile Diguet : Généralement, l’impact dont on parle le plus, c’est effectivement la consommation électrique. Peut-être pour le rappeler, il y a des serveurs, dans les datacenters, qui chauffent énormément et il faut les refroidir pour que le matériel continue à fonctionner et ne s’arrête pas, à une température qui, selon les datacenters varie aujourd’hui entre 18 et 27 degrés. Donc non seulement il faut de l’électricité pour les faire tourner, mais il faut aussi de l’électricité pour les refroidir, ce qui fait beaucoup d’électricité puisqu’on utilise de plus en plus le numérique, avec de plus en plus de matériels différents, et l’IA, évidemment, est venue renchérir encore plus cette consommation électrique puisqu’elle se fait avec des processeurs, qu’on appelle des GPU [Graphics Processing Unit], qui sont très consommateurs d’énergie.
Que veut dire avoir une consommation électrique importante ?
Par exemple, on se dit que ce n’est pas grave, on en produit énormément, en plus, en France, elle est décarbonée. OK. Sauf que même si on a beaucoup d’électricité, il y a quand même une montée en puissance de l’électrification, du chauffage et des mobilités, avec une volonté de décarboner globalement le bilan français, et il peut y avoir des moments, notamment localement, où on a des tensions parce que les datacenters vont venir préempter, en quelque sorte, les puissances électriques disponibles qui ne seront pas à disposition d’autres usages, par exemple, des stations électriques pour des bus, pour une flotte de bus, par exemple le développement d’un métro qui a aussi besoin d’électricité ou encore d’autres industries qui pourraient être des industries de production qui ont besoin d’électricité.
C’est donc déjà un sujet de planification énergétique et de déroulement de ce qu’on essaye d’appeler une transition énergétique, un terme qui est aujourd’hui beaucoup débattu.
Et puis, dernier sujet sur l’électricité, il faut voir que derrière l’électricité, il y a des consommations d’eau, pas au sein des datacenters, mais pour produire du nucléaire et pour produire de l’hydroélectricité, il y a beaucoup d’évaporation d’eau et ça vient perturber les cycles locaux de l’eau. OK, elle va retomber quelque part, mais elle ne retombera pas au même endroit, du coup on transforme complètement des écosystèmes.
La question de l’électricité est donc un peu multidimensionnelle.
Ensuite, il y a la question des impacts sur les sols. C’est évidemment un sujet qui m’est assez familier puisque je suis urbaniste. En gros plus les sols sont, on va dire vivants, plus ils sont aérés, plus ils vont absorber de l’eau, faire en sorte que l’eau tombe, revienne dans les nappes phréatiques, qu’elle génère évidemment de la terre fertile pour la biodiversité, éventuellement pour des cultures, en tout cas ça vient stocker du carbone, ça vient améliorer le cycle de l’eau, ça vient aussi rafraîchir des territoires, si on est à proximité de territoires urbanisés, ça vient clairement les rafraîchir. Donc préserver les sols c’est vital pour les épreuves climatiques qui sont déjà là et qui continueront d’arriver.
Bétonner les sols pour des datacenters, c’est donc un non-sens total.
Ensuite, la question de l’eau. En France, c’est une question qui est assez peu explorée que j’ai essayé d’explorer avec Hubblo et Morraine de Montenay, avec qui je travaille actuellement pour l’ADEME sur tous ces sujets-là. Aux États-Unis et en Europe, en France en particulier, on ne fonctionne pas tout à fait de la même façon. Les techniques de refroidissement des serveurs ne sont pas les mêmes.
Aux États-Unis, c’est beaucoup ce qu’on appelle de l’adiabatique [5]. On envoie des gouttelettes d’eau qui refroidissent et qui humidifient, en quelque sorte, l’atmosphère, du coup ça consomme beaucoup d’eau qui s’évapore par la suite. C’est pour cela qu’on voit dans les bilans annuels de Google, etc., des consommations d’eau qui ont explosé, en particulier depuis qu’il y a l’IA.
En France, on utilise d’autres systèmes qui sont plus consommateurs d’électricité et moins d’eau. On n’a pas de données, c’est donc difficile à illustrer, mais aujourd’hui, à ce stade, on a un peu moins de craintes sur les consommations d’eau. La crainte viendrait plutôt de consommations importantes à des endroits spécifiques. Quand on donne les chiffres – combien de les datacenters, aujourd’hui c’est 4 % de l’électricité française –, plein de gens disent « bof, ce n’est pas tant que ça ! ». En fait, les chiffres ne veulent rien dire. La question c’est plutôt : où est-ce que ça atterrit localement et quelle pression très spécifique cela vient-il mettre en jeu ? En fait, les datacenters fonctionnent beaucoup par clusters. Eux vont dire « mais moi je suis vertueux, je suis hyper efficace pour mon énergie », mais souvent, ils parlent pour eux, ils ne voient pas qu’ils sont 15 autour et 15 autour, en termes de consommation d’eau sur un réseau local, sur une nappe phréatique, 15 autour avec un poste source qui se fragilise, 15 autour avec des habitations à côté qui vont voir les températures augmenter parce qu’on a des rejets de chaleur fatale, la chaleur fatale n’est pas toujours récupérée, en pleine canicule ça devient un problème de santé publique.
La question de la concentration spatiale est aussi importante à bien saisir.
Mathilde Saliou : Quand vous disiez qu’on ne gère pas le refroidissement de la même manière aux États-Unis et en France, est-ce que c’est indépendant de qui fabrique les datacenters ?
Cécile Diguet : Non, ce n’est généralement pas indépendant, vous avez raison. On sait, par exemple, que les acteurs des clouds, donc plutôt les Big Tech, aiment bien l’adiabatique, mais je ne saurais pas exactement dire pourquoi. Est-ce que c’est parce qu’ils le font là-bas, donc ils aimeraient bien avoir les mêmes techniques ici ? Je ne sais pas. Je sais, par exemple, que dans un datacenter de colocation qui est à Pantin, qui est divisé en deux grands bâtiments, il y en a un pour le cloud d’un Big Tech et là c’est de l’adiabatique, sur sa demande, alors que plein d’autres vont dire « tant que vous rafraîchissez à la bonne température, on se fout un peu du système que vous allez choisir. »
Mathilde Saliou : Je pose la question parce que dans d’autres pays européens où on a déjà vu beaucoup d’acteurs étasuniens venir, ça a posé des problèmes d’accès à l’eau. C’est en train de poser des problèmes, notamment en Espagne, où des grands établissements, notamment de Meta, s’installent dans des endroits déjà très secs.
Cécile Diguet : D’où la question de l’adéquation entre les localisations et les fonctionnements écosystémiques locaux. Clairement, aller dans des territoires où il y a des zones de stress hydrique, c’est presque criminel.
Mathilde Saliou : Du coup, quels sont les intérêts pour les villes d’avoir un datacenter chez elles ? Peut-être que c’est changer complètement l’angle de la réflexion et partir sur le plan économique.
Cécile Diguet : Juste pour revenir à ce que vous disiez avant : pourquoi vont-ils aller dans un endroit sec ? Ils disent souvent que si c’est un peu désertique, semi-désertique, par exemple dans l’est de l’Oregon, ils peuvent, je caricature, ouvrir les fenêtres la nuit, il fait très frais. Il fait chaud le jour, mais il fait très frais la nuit, du coup, ils font quand même des économies en termes de refroidissement, des économies pour eux.
J’imagine que le foncier est peut-être moins cher dans ce secteur-là.
Après, pour les collectivités locales, les communes, villes et territoires, leur intérêt est à la fois subjectif et objectif.
Subjectif dans la mesure où certains élus restent fascinés par l’aura du numérique, de la tech, de tout ce qui va avec, au sens fantasme d’une certaine modernité, fantasme aussi sur ce que peut faire la technologie, ou pas. Il y a une forme de séduction, c’est la partie subjective.
Plus objectivement, en France en tout cas, même si la fiscalité n’est pas incroyable, les taxes foncières que paient les datacenters aux communes sont quand même importantes.
Et puis, il peut y avoir des deals, dont on n’a pas toujours connaissance, sur du mécénat ou des choses comme ça, mais qui sont quand même assez contrôlés, donc aujourd’hui relativement minimes.
En termes d’emplois, on sait que ce ne sont pas beaucoup d’emplois. Par exemple, certaines collectivités vont justement dire « au moins il n’y aura pas d’embouteillages. Il n’y a pas beaucoup d’emplois, ce n’est pas grave, et surtout, ce n’est pas une usine qui fait du bruit, qui fait de la poussière. Et puis, comme ils sont très sécurisés, ça va un peu nettoyer ma zone d’activité, il n’y aura plus de gens qui traînent. » Il y a aussi toutes ces idées derrière que ça va un peu nettoyer, que ça va rendre propre, et que ça donne une image positive du territoire, il y en a qui pensent ça.
Mathilde Saliou : Rendre propre une zone industrielle, c’est ce que vous dites.
Cécile Diguet : Un peu, aussi, du nettoyage social sur les bords.
Mathilde Saliou : Qu’est-ce que ça change qu’un datacenter installé en ville, en périphérie ou en zone rurale ? Est-ce que les impacts sont très différents ou pas ?
Cécile Diguet : Ils sont un peu différents dans la mesure où on ne les met pas en regard de la même chose.
En ville, on va les mettre en regard de qui habite à côté. Est-ce que ce sont des populations vulnérables ou pas ? Par exemple, si on a beaucoup de personnes âgées, beaucoup de personnes qui ont des problèmes de santé, comme je disais tout à l’heure, et qu’on est sur un territoire très minéral. Le minéral, les pierres, les bâtiments, lors des périodes de grande chaleur stockent la chaleur et la restituent la nuit. En gros, on dort mal parce qu’il fait tout le temps très chaud. Alors que dans les territoires ruraux, ça se rafraîchit beaucoup plus le soir, la nuit. Donc une récurrence d’événements climatiques de ce genre, avec des populations fragiles, qui ne peuvent pas dormir et qui, par ailleurs, travaillent, par ailleurs ont des boulots souvent plus physiques et plus éprouvants, avoir des datacenters qui viennent encore plus appuyer cette situation de température qui augmente, parce que eux chauffent plus aussi pour se rafraîchir et rejettent plus de chaleur fatale, c’est un problème hyper urbain, clairement, qu’on ne retrouve pas dans les territoires globalement périurbains ou ruraux. C’est vraiment se dire que les impacts sont relatifs à la population.
Ensuite, on peut aussi prendre en compte d’autres populations non humaines. Par exemple, je ne l’avais pas réalisé, récemment on me disait qu’à Marcoussis il y a un gros campus de Data4 qui, je crois que c’est en négociation, en discussion, a des lumières très puissantes la nuit pour des raisons de sécurité, qui sont extrêmement mauvaises pour les oiseaux et la biodiversité. En fait, la nuit il faut dormir et si les oiseaux ont plein de lumière, ils n’y arrivent pas.
Mathilde Saliou : Comme dans l’agriculture, le même type de problème.
Cécile Diguet : Oui. En ville aussi on fait attention à la pollution lumineuse, mais elle est encore plus puissante dans certains secteurs ruraux.
Je ne vais pas faire toute la liste, en tout cas les problématiques ne sont pas exactement les mêmes, parce que les impacts ne sont pas sur les mêmes êtres vivants, sur les mêmes objets en quelque sorte.
Mathilde Saliou : Un autre élément qu’on n’a pas encore trop détaillé, mais qui est important, je pense, pour comprendre le paysage des datacenters en France : où sont-ils géographiquement ? Il me semble que c’est très déséquilibré sur le territoire ; comment cela s’explique-t-il ?
Cécile Diguet : Aujourd’hui, on a à peu près 350 datacenters en France de toutes tailles, des tout petits et aussi des grands, et on a une concentration très importante en Île-de-France puisqu’on en a, je pense, à peu près 180 et probablement une vingtaine de gros projets dans les tuyaux. Les deux grosses polarités, aujourd’hui, c’est l’Île-de-France qui gagne haut la main la course. Ensuite on a Marseille qui fait beaucoup parler d’elle depuis plusieurs années parce que de nouveaux câbles, qui connectent la France et l’Europe à l’Asie et au Moyen-Orient, sont arrivés directement dans le port de Marseille, du coup on a eu beaucoup de développement de datacenters directement connectés à ces câbles pour des raisons de rapidité.
Ce sont les deux gros pôles.
L’Île-de-France tout simplement parce que c’est la capitale, qu’il y a beaucoup de main-d’œuvre qualifiée, qu’il y a un secteur informatique déjà très important. Historiquement, l’informatique s’est développée très fortement en Île-de-France et la France est un pays très centralisé.
Aujourd’hui, il y a de nouveaux développements. D’autres métropoles régionales comme Bordeaux, Strasbourg accueillent des datacenters. Avec les annonces du sommet de l’IA de début février [6], on a vu des nouveaux secteurs être fléchés, mais, à chaque fois, c’est pour une ou deux installations de très grandes usines IA, sachant que tout n’est pas confirmé. Du coup, on a vu que les Hauts-de-France se positionnaient, un peu la Normandie, un peu le Rhône-Alpes, un peu le Grand Est, on ne sait pas exactement où. Il me semble qu’un datacenter visait Colmar, en Île-de-France on peut penser que ça va être beaucoup autour de Villaroche en Seine-et-Marne, au nord de Melun, des secteurs comme ça.
La géographie se redéfinit un petit peu avec les très grands datacenters d’IA et peut-être aussi ceux de cloud qui, de toute façon, auront les moyens, beaucoup de moyens financiers, de tirer des fibres très facilement et qui peuvent gérer le fait d’être plus loin d’un marché de consommation, alors que, pour les datacenters de colocation, les entreprises viennent souvent poser leurs serveurs, de temps en temps viennent réparer des choses, maintenir. Il y a quand même un sujet de proximité.
Mathilde Saliou : On a déjà pas mal parlé de l’IA dont on sait qu’elle est très consommatrice, on sait qu’elle explique qu’il y ait eu ce grand plan d’investissement annoncé début février, 109 milliards pour l’intelligence artificielle, etc. Pour les datacenters, est-ce que ça change quelque chose à part leur taille ?
Cécile Diguet : Oui, ça change pas mal de choses, ce n’est pas qu’une question de taille. Justement les puces, les GPU, les processeurs sont donc dix fois plus puissants, au minimum, voire plus, que les CPU, les processeurs classiques, donc ils sont beaucoup plus intenses au niveau énergétique.
Si on a un datacenter qui fait la même taille et qu’on remplace tous les CPU par des GPU, on n’est même pas sûr d’avoir assez d’électricité. On pourrait imaginer qu’à l’intérieur d’un datacenter on doive plus espacer les choses, non seulement parce que ça chauffe plus mais parce que, de toute façon, on n’a pas assez d’électricité. Ou alors comme on a vu un cas aux États-Unis : Facebook a commencé à construire un datacenter, en 2022 je crois. Il l’a détruit peut-être à 1/4 de l’avancement et en a reconstruit un pour qu’il soit bien « désigné » pour l’IA. Quand ce n’est pas pour l’IA, la forme idéale c’est une sorte de H et quand c’est pour l’IA, il faut que ce soit un L. C’est aussi une question de techniques de refroidissement. Tout est tellement optimisé, que les techniques de refroidissement ne sont pas les mêmes pour l’IA que pour le traditionnel, on va dire, c’est ce qu’on appelle Direct Liquid Cooling. Ce sont des serpentins d’eau qui passent directement derrière les armoires de serveurs, du coup, techniquement ça implique d’autres architectures, à la fois informatiques et techniques, qui font que les bâtiments ne sont pas forcément organisés de la même façon. Ça change à la fois l’intensité énergétique du bâtiment et ça change aussi, potentiellement, sa forme s’il est neuf. Imaginer dire maintenant à un opérateur IA « allez faire de l’IA dans ce bâtiment en plein cœur de Paris », pour lui ça devient complètement impossible.
Mathilde Saliou : Dans les acteurs, on parle principalement des fournisseurs de cloud et des grandes entreprises US.
Cécile Diguet : Oui. Il y en a plein d’autres, ils sont d’accord, ils savent faire, ils pourraient faire. C’est juste que l’IA devient tellement spécifique, tellement niche et tellement standardisé pour réussir aussi à respecter des modèles économiques qui ne sont même pas stabilisés. La question de l’énergie, de l’électricité, est quand même très stratégique pour eux.
Mathilde Saliou : Si on essaye de regarder le monde du datacenter qui a quand même évolué. Avant la vague IA, on pouvait considérer qu’il évoluait vers un certain mieux environnemental, même si, potentiellement, c’est sujet à débat. Une idée beaucoup véhiculée dans le débat public est celle de la réutilisation de la chaleur fatale dégagée par ces édifices. Quels sont les enjeux sur ce type de tentative de faire des datacenters un élément responsable ?
Cécile Diguet : Je dis toujours que l’efficacité énergétique et, du coup, la récupération de chaleur qui va avec, n’implique absolument pas la sobriété, au contraire. C’est bien qu’il y ait de l’efficacité énergétique, au moins c’est optimisé, mais plus on fait des gains, en termes d’efficacité énergétique, plus on consomme ces gains. Quand on dit « maintenant on peut faire plus avec moins », on va faire plus et ça ne sera plus du même moins. C’est le paradoxe de Jevons [7] sur l’effet rebond. C’est une première chose.
La question de l’efficacité énergétique s’est beaucoup améliorée, les opérateurs ont été très forts et, de toute façon, c’est aussi leur bilan économique qui en dépend. C’est une première chose.
Ensuite la chaleur fatale. On se dit puisqu’on en est là, quitte à avoir toute cette chaleur qui s’échappe, autant la réutiliser. Ça fait longtemps que je travaille sur le sujet et je vois très peu de projets sortir. C’est toujours anecdotique ou cosmétique ou à but promotionnel : « Regardez, on récupère de la chaleur », mais en général ça va être 5 % de ce qui est produit comme chaleur, parce que ce n’est pas si simple, ce n’est pas qu’une question de mauvaise volonté des opérateurs. Il faut qu’on ait en face un réseau technique qui soit adapté, un modèle économique qui fonctionne pour que les datacenters investissent et que, pour l’opérateur technique, souvent un gestionnaire de réseau lui-même, ce projet arrive au bon moment dans son développement de réseau.
Ensuite il y a des questions de besoin : est-ce que ce datacenter est localisé à proximité de logements, à proximité d’un réseau de chaleur urbaine, tout simplement, comme le réseau de la CPCU [Compagnie parisienne du chauffage urbain] à Paris, par exemple, du Grand Paris ? Est-ce qu’il y a des équipements publics ? On parle souvent des piscines. Il n’y en a que deux en Île-de-France qui sont concernées et pour la piscine olympique de Saint-Denis, ce sont les locaux et les vestiaires qui sont chauffés, ce n’est pas l’eau. Ce n’est pas mal pour autant, mais c’est bien de le dire. Ce datacenter d’Equinix chauffe aussi plusieurs milliers de logements, c’est quand même intéressant.
Après, il faut voir qu’en été il n’y a pas besoin de chauffage, il y a éventuellement besoin d’eau chaude sanitaire mais c’est tout. C’est donc compliqué, ça veut dire que l’investissement ne sert qu’une partie de l’année et la chaleur fatale sera quand même sortie dehors.
Ça a l’air d’être une solution magique, ça ne l’est pas du tout !
Mathilde Saliou : Est-ce qu’il y a d’autres solutions intéressantes partant du principe qu’il n’y a pas de solution magique ?
Cécile Diguet : La solution magique c’est la sobriété, mais nous ne sommes pas du tout partis dans ce sens-là en termes de projet d’humanité. Je dis ça en rigolant, mais il y a plein d’axes d’amélioration d’ordres très différents.
Plein de chercheurs, en informatique, travaillent depuis des années sur la façon dont on pourrait utiliser des langages de programmation beaucoup plus légers. L’informatique, dans les années 80/90, obligeait les programmes à être ultralégers parce que la puissance n’était pas disponible et pourtant on pouvait faire plein de choses. Il a plein de recherches sur la façon de faire ça.
Comment faire des sites internet beaucoup plus statiques ?
Comment mieux compresser des vidéos ?
Comment avoir du discernement sur les outils qu’on utilise ?
Plus largement, par exemple, des entreprises ou des collectivités locales se posent la question : « Est-ce que je continue à tout numériser ou est-ce que je trouve un équilibre entre guichets humains, solutions low-tech et solutions high-tech, high-tech et numérique que quand vraiment il y a une plus-value. Aujourd’hui, on voit bien que ce n’est pas tout ça la réflexion, parce que c’est un business, ce qui marche c’est ce qui rapporte le plus aux acteurs concernés, donc évidemment le profilage publicitaire, etc., tout cela, c’est ce qui ramène de l’argent mais c’est ce qui détruit la planète.
On sait qu’il y a déjà des solutions techniques.
Ensuite, il y a plutôt une prise de conscience plus globale à avoir : proposer des imaginaires techniques et technologiques différents , se dire qu’il y a aussi des complémentarités. Par exemple je suis urbaniste, à partir du moment où on fait en sorte que les rues soient des endroits où les enfants peuvent jouer, peuvent courir sans danger, ça veut dire que potentiellement ils sont moins chez eux enfermés devant des écrans, parce que la ville devient un terrain de jeu. C’est une façon de faire. Plus on donne d’autres activités potentielles aux gens – de lien social, de fêtes, de jeux, etc. – moins ils vont être bloqués à scroller indéfiniment. C’est juste un exemple. Il faut parfois se dire que ce n’est pas sur Internet qu’il faut toujours agir, c’est aussi sur d’autres choses.
Si on revient en amont, c’est vraiment la question des usages qui détermine tout ça et c’est la question de la régulation : jusqu’où on veut aller sur la régulation des usages.
Il y a beaucoup de réflexion aussi sur les questions d’éthique, sur les questions de frugalité, etc. : pourquoi fait-on de l’IA ? À quoi ça sert vraiment ? Quand on nous dit « mais si, ça va être super pour la santé », OK, c’est hyper puissant pour ça, mais on sait très bien qu’à chaque fois qu’on emmène un nouvel usage, on justifie les utilisations les plus vertueuses pour, derrière, emmener tout un tas d’utilisations super toxiques parce qu’il n’y a aucune régulation dessus. Quand je dis « toxiques » ça va être qui n’apportent aucun bien-être physique, social, mental, environnemental.
Mathilde Saliou : Quand on parle des usages, j’entends beaucoup l’angle de l’individu, j’ai peut-être tort et, en ce moment, je vois pas mal de gens s’agacer de voir par exemple qu’un Meta pousse son petit rond bleu de l’IA dans des applications de tous les jours comme WhatsApp ou Messenger.
Quand on dit qu’il faut travailler sur les usages, est-ce qu’il faut travailler vraiment sur les utilisateurs ou, en fait, est-ce qu’il faudrait se mettre à dire qu’il y a des produits de ces entreprises qu’on ne veut pas ?
Cécile Diguet : Oui. Je pense que vous faites allusion aux travaux très intéressants des limites numériques sur le sujet. On est quand même sur du push d’entreprises pour que nous adoptions des outils contre notre gré, en quelque sorte. Le push sur l’utilisation de l’IA sur WhatsApp et compagnie c’est vraiment, en quelque sorte, une prise d’otage. Il y a bien des pays qui ont interdit TiktTok, même si c’était temporaire, il y a bien des législations sur le tabac, sur la drogue. En tout cas, il faut arrêter, sous couvert de libre marché et de liberté de l’économie, d’être naïfs et de se dire que si c’est du business c’est bien, si ça marche c’est qu’il y a un besoin. Eh bien non, le besoin est créé.
En fait, ces régulations c’est compliqué. C’est compliqué de faire en sorte qu’elles fonctionnent bien et qu’il n’y ait pas, parfois, des effets secondaires complexes et surtout, aujourd’hui, il n’y a pas une volonté politique très forte, mais il y a quand même beaucoup de gens, notamment des chercheurs et chercheuses, qui travaillent sur ces sujets-là, notamment à l’échelle européenne. C’est à la fois tellement technique et complexe que c’est difficile, il faut vraiment être capable de rentrer dedans. Il faut des équipes pluridisciplinaires où on a vraiment des gens qui sont très bons en informatique, qui comprennent comment ça fonctionne, des personnes qui sont beaucoup plus sur des questions de sciences sociales, des personnes qui sont beaucoup plus sur des questions environnementales. Il faut donc monter des équipes à la fois de recherche et de politiques publiques qui sont assez complexes. Aujourd’hui, en France, il n’y a pas tant de gens qui sont capables de manier un peu ces cultures différentes– culture technique, culture sciences sociales, culture environnementale. Ça ne veut pas dire être spécialiste de tout, ça veut dire être capable de coordonner tout ça.
Mathilde Saliou : En mai 2025, à l’Assemblée nationale il y avait des discussions sur un sujet proche autour de la loi dite de simplification de la vie économique. Or l’un de ses articles, l’article 15 [8] , impactait directement la possibilité de créer de nouveaux datacenters. J’ai demandé à Cécile Diguet de nous expliquer les enjeux du débat.
Cécile Diguet : En fait, l’article 15 de cette loi, portée par le gouvernement, propose que les datacenters stratégiques, mais on ne sait pas quelle est la définition de « stratégiques », puissent être traités comme ceux qu’on appelle les projets d’intérêt national majeur, qui peuvent être aussi des projets industriels, donc il y aurait des exigences environnementales et démocratiques moins fortes pour eux. Un datacenter pour l’IA qui s’installerait, par exemple, pourrait voir son permis de construire signé par le préfet et non pas par la commune. On n’a donc plus de souveraineté en quelque sorte communale sur son propre territoire. On aurait des dérogations plus importantes sur la destruction de la biodiversité, on aurait une potentielle accélération des autorisations données par RTE, sachant que RTE est censé traiter les demandes une par une dans l’ordre d’arrivée.
Il y a donc plusieurs éléments, comme cela, qui sont extrêmement contestés. Beaucoup d’amendements ont été amenés sur cet article-là. En fait, alors que la Commission nationale du débat public avait déjà pointé le manque de concertation et de discussions autour de ces grands projets, là on part complètement sur des projets imposés.
En gros, le sujet du débat est là : est-ce qu’on développe à tout crin des datacenters ou est-ce qu’on essaie de les réguler plus, sachant que ce qui est laissé à la main du Conseil d’État par des décrets, dont on ne connaît pas le contenu à l’avance, c’est quelle est la définition de « stratégiques ». OK. Si ce sont des datacenters pour l’armée ou pour les ministères, bien sûr qu’il en faut et bien sûr il faut qu’ils soient extrêmement protégés, etc. Si c’est pour accélérer et détruire notre environnement pour Google ou pour Meta, franchement, ce n’est pas un très beau projet de société !
Mathilde Saliou : Surtout que ça se mêle à des réflexions du moment sur les questions de souveraineté et tout ça.
Cécile Diguet : Exactement.
Mathilde Saliou : Dans un rapport que vous écriviez en 2019 [9] vous suggériez de créer un service public du numérique et des datacenters publics. Est-ce que c’est toujours une possibilité qui vous anime ? Pourriez-vous en dire quelques mots ?
Cécile Diguet : Je pense qu’à l’époque nous avions été assez impressionnés par le projet que la Ville de Paris avait mené à bien avec l’AP-HP [Assistance publique -Hôpitaux de Paris]. En fait, ils ont leur propre datacenter à porte de la Chapelle qui est à la fois très intégré dans le quartier au niveau architectural et urbain, qui est connecté à une boucle locale de chaleur, donc qui chauffe les logements de tout ce nouveau quartier, qui s’appelle Chapelle International. Par ailleurs, évidemment, toutes les prescriptions techniques ont été maîtrisées par les acteurs publics, par exemple à quel degré on refroidit et tout ça, et évidemment, on sait que les données sont vraiment des données utiles, ce sont les données de la ville et les données de la santé. Nous avions trouvé intéressant, avec ma collègue, à l’époque Fanny Lopez, de dire que comme ces acteurs-là, peut-être que d’autres en France, des universités avec des collectivités locales, avec des aménageurs ou d’autres, pourraient se mettre ensemble et construire leurs propres infrastructures, quitte à se dire, puisqu’ils ont aussi une visibilité sur leur stratégie climatique, énergétique, peut-être de production de NR [énergie renouvelable] locale, n’est-ce pas l’occasion d’être un peu des fers de lance et montrer que c’est l’initiative publique qui est à la pointe ? Ils sont assez discrets dessus, mais les datacenters de la Ville de Paris et de l’AP-HP utilisent déjà la chaleur, sont déjà bien intégrés, ils n’en font pas des caisses mais c’est très intéressant.
Mathilde Saliou : J’arrive au bout de mes questions. Est-ce qu’il y a un sujet qu’on aurait manqué ou quelque chose que vous voudriez souligner pour parler de l’impact environnemental des datacenters ?
Cécile Diguet : Peut-être un dernier sujet qu’on n’a pas évoqué, un sujet que la Mission régionale d’autorité environnementale avait mis en avant à plusieurs reprises, c’est la qualité de l’air. Je pense que la coupure qui a eu lieu avant-hier en Espagne [10] montre ce que ça pourrait donner.
Quand on a une coupure électrique dans un datacenter, des générateurs de secours au fioul se mettent en marche, qui peuvent être en marche pendant 12 heures, pendant 24 heures, pendant 48 heures. Évidemment, quand on brûle du fioul, ça pollue. Il y a des filtres, mais on n’est pas sur des solutions forcément toujours extrêmement sophistiquées, il y a donc quand même un épisode de pollution lié à ça qui est possible.
Si vous vous dites un cluster, 15 datacenters, 45 générateurs de secours, une population vulnérable à côté avec des personnes âgées, eh bien c’est cocktail quand même un peu mortel !
On sait qu’on va avoir des événements climatiques extrêmes de plus en plus nombreux, on a aujourd’hui un système électrique, en France, qui est relativement résilient, mais on n’est pas à l’abri non plus de coupures. Vous voyez le schéma, ça veut dire, potentiellement, un impact sur la qualité de l’air à des moments précis. Je pense que c’est quand même intéressant de se poser la question.
Mathilde Saliou : Un exemple de datacenter qui pose de vrais problèmes de qualité de l’air, c’est celui créé par xAI, la société d’Elon Musk à Memphis aux États-Unis. Le bâtiment a été construit en quelques mois seulement, à côté d’un quartier historiquement pauvre. La population qui y vit, qui est majoritairement noire, a une espérance de vie plus faible que dans le reste de la ville à cause de pollutions industrielles. L’édifice de xAI fait grand débat parce qu’il est alimenté par 35 turbines à gaz. D’une part, leur usage n’a pas été forcément autorisé et puis, d’après les associations locales, ces dispositifs rejettent en plus et en permanence des oxydes d’azote nocifs dans l’air.
J’espère que les explications de Cécile Diguet vous auront donné une meilleure compréhension des enjeux sociaux et environnementaux globaux que l’implantation des datacenters peut soulever.
Dans le prochain épisode, nous irons discuter un peu plus en détail de l’approvisionnement électrique des centres de données en rencontrant Boris Dolley qui travaille chez RTE. Étant donné que sa mission principale c’est surtout de gérer l’open source et le numérique responsable en interne, ce sera un épisode qui ira dans deux directions : outre évoquer les questions d’approvisionnement électrique, on se tournera rapidement vers les logiques de gestion de matériels et de logiciels. Ça nous permettra de voir comment une grande entreprise peut œuvrer à les adapter aux enjeux climatiques.
Si cet épisode d’Écosystème vous a plu, comme d’habitude faites-le savoir autour de vous, mettez-nous des étoiles, laissez-nous des commentaires, partagez-le, ça nous est toujours utile.
Pour soutenir notre travail, vous pouvez aussi vous abonner à Next, votre soutien est essentiel pour que nous continuions à décortiquer les enjeux du numérique.
Écosystème est un podcast écrit et tourné par moi, Mathilde Saliou, il a été réalisé par Clarice Horn et produit par Next. Pour nous retrouver, direction Bluesky, Linkedin, Mastodon ou bien Next, évidemment.
À très vite.