Les datacenters de proximité vont-ils conquérir nos villes et nos territoires ?
Souveraineté numérique, IA, explosion des données, attractivité, réchauffement climatique et contexte géopolitique instable… Le numérique en 2026 concentre autant de tensions que d’espoirs. Les datacenters de proximité ou micro‑datacenters sont-ils la réponse structurelle aux défis actuels ? Décryptage avec Xavier Duthillieux, directeur commercial de Conectis by Rexel et expert des infrastructures numériques et énergétiques
Le marché français des datacenters de proximité connaît une dynamique soutenue. Le chiffre d’affaires annuel est aujourd’hui « estimé à 700 millions d’euros selon Xavier Duthillieux, incluant l’achat de matériel, l’intégration et la maintenance. À l’horizon 2033, ce marché pourrait atteindre près de 2 milliards d’euros, porté par les besoins croissants en souveraineté, en sécurité et en maîtrise des coûts. »
Un marché en forte accélération
Pour notre expert, « cette progression n’a rien d’anecdotique ». Il constate sur le terrain « une accélération nette de la demande, avec une croissance de l’ordre de 18 % », signe d’une prise de conscience des entreprises et des collectivités quant aux enjeux de sécurité et de résilience des données. En effet, un accident dans un serveur hyperscale peut générer des pertes évaluées à plusieurs centaines de milliers d’euros comme ce fût le cas lors de l’incendie d’un mégaserveur dans la nuit du 10 mars 2021, à Strasbourg.
De quoi parle‑t‑on exactement ?
Les hyperscales désignent les grands datacenters centralisés opérés par les géants du cloud, offrant une forte puissance de calcul mutualisée. On peut citer l’américain Digital Realty, un des trois leaders mondiaux de datacenters qui opère entre autres à Marseille. Le datacenter edge correspond, lui, aux infrastructures intermédiaires, souvent composées de 10 à 100 baies, installées au plus près des usages. Le micro‑datacenter, enfin, est une infrastructure très localisée, à périmètre restreint, intégrée directement dans l’entreprise ou sur un site public et dédiée aux données critiques.
Xavier Duthilieux plaide « pour une approche qui ne consiste pas à opposer ces modèles, mais à repenser l’architecture globale ».
Hyperscale et proximité, une logique complémentaire
Notre expert souligne que « les hyperscales sont indispensables pour certaines fonctions, notamment les usages applicatifs massifs comme les sites web, les logiciels et les outils métiers ou les traitements liés à l’IA. Mais il constate aussi que les « méga datacenters ne répondent pas à certains besoins ». En effet, les micro‑datacenters correspondent mieux, selon lui, « aux exigences élevées en matière de sécurité. Ces derniers peuvent intégrer des solutions de sécurité du bâtiment avec des caméras et des outils applicatifs qui limitent l’accès aux seules personnes identifiées et autorisées ». Cette approche repose sur des droits hiérarchisés, garantissant que seuls les responsables habilités puissent accéder aux données sensibles.
Quelles sont ces fameuses données critiques ? Xavier Duthillieux explique : « globalement, les données critiques sont toutes les informations que nous ne voulons pas voir circuler sur le web à partir d’une fuite d’un cloud. Ce sont les bases clients, les données RGPD, les données financières et les données propres à l’entreprise. » À l’inverse, « les données applicatives peuvent être hébergées dans un cloud hyperscale, notamment lorsque les entreprises ont des filiales ».
La souveraineté numérique devient un enjeu politique
Cette problématique dépasse désormais le seul cadre technique. Dans un rapport rendu en novembre dernier, la Cour des comptes a appelé l’État à renforcer sa stratégie de souveraineté numérique, s’inquiétant de la dépendance étrangère des systèmes d’information civils de l’Etat. Rien que pour les Etats-Unis, les magistrats recensent « trois textes qui permettent aux autorités de Washington de récupérer l’ensemble des données de n’importe quel citoyen en France ».
En avril dernier, Andy Yen, PDG et cofondateur de la messagerie cryptée suisse Proton, employait le terme de « colonialisme numérique ». Il estimait que « chaque jour, elles extraient à bas prix la ressource la plus précieuse du XXIe siècle : les données (…) nous rendant ainsi dépendants, tout en ignorant nos lois ».
Faire émerger des champions français
Contrairement à une idée reçue, Xavier Duthillieux note que « la France dispose déjà de compétences et d’acteurs sur l’ensemble de la chaîne de valeur. Nous avons des serveurs hyperscale francais chez les fournisseurs de télécommunication. » L’expert reconnaît cependant que « les acteurs américains ont énormément progressé », mais souligne que « cela ne veut pas dire que nous ne pouvons pas développer, structurer et faire émerger des champions français ». La clé réside selon lui dans « la visibilité des offres, la structuration de la filière et une politique industrielle cohérente ».
Un retour sur investissement adapté aux PME
Les principaux demandeurs sont les PME, les ETI industrielles, les collectivités, ainsi que les acteurs de la santé, de l’énergie ou de la logistique. Xavier Duthilieux observe : « Tous recherchent des solutions simples, robustes et locales, nécessitant peu de maintenance, souvent sans disposer de services techniques internes dédiés ».
Dans le monde de l’entreprise, l’argument économique est déterminant. « Le retour sur investissement pour une PME se situe généralement entre 3 et 5 ans, » constate Xavier Duthillieux. L’infrastructure est dimensionnée au plus juste, sans surcapacité inutile, ce qui permet de réduire à la fois les coûts énergétiques et les frais d’exploitation.
Un modèle plus sobre énergétiquement
Dans certains territoires, les méga‑datacenters sont vivement critiqués en raison de leur consommation importante en électricité, de leurs besoins en refroidissement et, dans certaines régions, de leur pression sur la ressource en eau. Pour compenser le coût environnemental, une équipe d’experts du fournisseur français de data centers Data 4, a développé en partenariat avec des chercheurs de l’université Paris Saclay, une innovation originale de circuit de refroidissement accueillant des algues consommatrices en CO2.
Xavier Duthillieux insiste : « le vrai sujet, ce n’est pas la taille du datacenter, c’est son dimensionnement. » Dans les grandes infrastructures, il arrive que plusieurs centaines de mètres carrés soient refroidis alors qu’une seule baie est réellement utilisée. À l’inverse, « un micro‑datacenter est dimensionné pour un besoin précis, confiné à son usage maximal, sans perte d’énergie ». Selon les études de Rexel Énergie, « le dimensionnement permet entre 20 et 40 % d’économies d’énergie. » Concrètement, cela signifie qu’on arrête de refroidir des serveurs vides de données.
L’avenir du cloud en France
Un coût énergétique moindre, des services de sécurité adaptés au contexte géopolitique mondial, et un retour sur investissement non négligeable : les micro-datacenters semblent être la solution efficace aux enjeux à venir. Mais Xavier Duthillieux avertit : « la souveraineté numérique de la France passe surtout sur un maillage efficace sur l’ensemble de notre territoire ». Il rappelle ainsi que « micro datacenters et hyperscales jouent un rôle complémentaire, avec chacun ses spécificités et ses applications. (…) Nous avons besoin d’infrastructures adaptées pour préserver la compétitivité et l’attractivité de la France, tout en conservant la maîtrise de nos données ».