Partager

cover art for Un datacenter qui chauffera 6 000 logements pendant 20 ans ?

Choses à Savoir TECH VERTE

Un datacenter qui chauffera 6 000 logements pendant 20 ans ?

Le fournisseur cloud suisse Infomaniak marque un tournant dans l’industrie des centres de données avec son tout nouveau data center, le D4. Inauguré le 27 janvier 2025, ce centre de 1 800 m², construit sous un écoquartier de Genève, affiche des performances énergétiques inédites. Son ambition ? Transformer l’un des secteurs les plus énergivores du numérique en un modèle d’efficacité et de durabilité.

Depuis le 11 novembre 2024, le D4 ne se contente pas de consommer de l’électricité, il revalorise 100 % de l’énergie qu’il utilise. Sa chaleur résiduelle est injectée dans le réseau de chauffage urbain, permettant d’alimenter 6 000 ménages pendant au moins vingt ans ou encore de fournir l’eau chaude nécessaire à 20 000 douches quotidiennes.


Son efficacité énergétique repose sur un ingénieux système de refroidissement :

-l’air à 28°C, issu des pompes à chaleur, refroidit les serveurs via des allées froides.

-l’air chaud, capté à 45°C, est ensuite acheminé vers un échangeur air/eau sophistiqué.

-deux pompes à chaleur françaises (Trane) de 1,7 MW chacune élèvent la température de l’eau à 85°C en hiver pour le chauffage urbain.

Résultat : 3 600 tonnes de CO₂ évitées par an, soit l’équivalent des émissions générées par le gaz naturel nécessaire au chauffage de ces logements.


Avec un PUE (Power Usage Effectiveness) exceptionnel de 1,09, bien en dessous de la moyenne européenne (1,6), le D4 se classe parmi les centres de données les plus efficients au monde.

L’alimentation électrique repose sur une infrastructure robuste :

-trois transformateurs convertissent le courant de 18 000 volts en 230 volts.

-deux blocs de six onduleurs à 99 % de rendement assurent une alimentation stable.

-des batteries de secours prennent le relais en cas d’incident.

-un système de ventilation brushless optimise la gestion thermique.

Même en pleine canicule, le free-cooling maintient le refroidissement des serveurs jusqu’à 36°C, garantissant une performance constante.

Infomaniak ne s’arrête pas là. Son data center est équipé d’une centrale solaire de 130 kWc, composée de 364 panneaux photovoltaïques, renforçant ainsi son autonomie énergétique.


La connectivité est elle aussi optimisée :

-deux paires de fibre optique garantissent la liaison des 10 000 serveurs avec le reste du monde.

Récompensé en 2023 par le Prix Suisse de l’Éthique et le Prix du Développement Durable du canton de Genève, le D4 est un modèle ouvert. Toute sa documentation technique est disponible gratuitement sur d4project.org, incitant d’autres acteurs à adopter cette approche écologique.

Face à la demande croissante du cloud (+20 % par an), Infomaniak voit plus grand. L’entreprise prévoit déjà un nouveau centre d’au moins 3,3 MW d’ici 2028, ainsi qu’un projet d’1,1 MW supplémentaire pour un autre réseau de chaleur. Avec le D4, Infomaniak prouve qu’un data center peut être bien plus qu’un gouffre énergétique. Il devient un acteur clé de la transition énergétique, en conciliant innovation technologique et impact environnemental positif.

More episodes

View all episodes

  • Une puce alimentée par la lumière ?

    03:02|
    L’essor de l’intelligence artificielle pose un défi de plus en plus visible : son appétit énergétique. Les modèles d’IA nécessitent d’énormes quantités de calculs informatiques, et ces calculs demandent à la fois de l’électricité pour alimenter les serveurs… et encore plus d’énergie pour refroidir les centres de données où ces machines fonctionnent en continu.Pour tenter de réduire cette consommation, des chercheurs de l’université de Sydney explorent une piste radicalement différente : remplacer l’électricité par la lumière pour effectuer certains calculs. Dans une étude publiée dans la revue Nature Communications, ils présentent un prototype de puce photonique, spécialement conçue pour l’intelligence artificielle. Le principe repose sur une idée simple mais ambitieuse. Dans les processeurs traditionnels, les calculs sont réalisés grâce au déplacement d’électrons dans des circuits électriques. La puce développée par les chercheurs, elle, utilise des photons, les particules de lumière, pour traiter l’information.Cette approche présente plusieurs avantages. D’abord la vitesse : la lumière se déplace extrêmement rapidement, ce qui permet d’effectuer certains calculs en quelques picosecondes, c’est-à-dire en un millième de milliardième de seconde. Ensuite l’efficacité énergétique : contrairement aux électrons, les photons ne rencontrent quasiment pas de résistance lorsqu’ils circulent. Résultat, beaucoup moins d’énergie est dissipée sous forme de chaleur, ce qui réduit fortement les besoins en refroidissement.Pour construire cette puce, les chercheurs ont gravé de minuscules structures optiques appelées nanostructures photoniques. Chacune mesure seulement quelques dizaines de micromètres, soit une fraction de millimètre. Lorsque la lumière traverse ces structures, sa trajectoire et ses propriétés sont modifiées de manière très précise. En combinant des milliers de ces nanostructures, les scientifiques ont créé un système capable de reproduire le fonctionnement d’un réseau neuronal, c’est-à-dire l’architecture mathématique utilisée par de nombreux modèles d’intelligence artificielle. La densité de calcul obtenue est impressionnante : environ 400 millions de paramètres par millimètre carré. Pour tester leur prototype, les chercheurs l’ont entraîné à analyser plus de 10 000 images médicales, notamment des IRM. Les résultats sont prometteurs : selon les expériences, la précision de classification se situe entre 90 et 99 %.Si cette technologie devait un jour être industrialisée, elle pourrait transformer l’infrastructure de l’IA. En intégrant directement des réseaux neuronaux dans des circuits optiques, il serait possible de réduire considérablement la consommation énergétique des centres de données. Dans un contexte où la demande en puissance de calcul explose, certains experts évoquent même le risque d’une pénurie d’énergie liée à l’IA. Les puces photoniques pourraient donc représenter l’une des clés pour continuer à développer ces technologies… sans faire exploser la facture énergétique mondiale.
  • Un data center avec 4 jours d’autonomie sans énergie fossile ?

    02:47|
    L’essor de l’intelligence artificielle pose un défi énergétique majeur. Selon l’Agence internationale de l’énergie, les centres de données devraient consommer entre 2 et 3 % de l’électricité mondiale dès 2026, soit environ 500 térawattheures par an. Pour donner un ordre de grandeur, c’est l’équivalent de la consommation électrique d’un pays comme la France. Et avec la généralisation de l’IA générative, cette demande pourrait doubler d’ici 2030. Face à cette explosion des besoins, les géants du numérique cherchent des solutions capables d’assurer une alimentation électrique stable, tout en réduisant les émissions de CO₂. L’une des pistes les plus prometteuses consiste à associer énergies renouvelables et stockage massif d’électricité grâce à de gigantesques batteries.C’est précisément la stratégie adoptée par Google, qui prépare un projet spectaculaire aux États-Unis, sur un site de 200 hectares à Pine Island. L’installation sera alimentée par un portefeuille d’électricité renouvelable, essentiellement éolien et solaire, capable de fournir 1 600 mégawatts de puissance. Mais la pièce maîtresse du projet réside dans son système de stockage. Google prévoit d’y installer une batterie géante de 300 mégawatts, capable de fournir de l’énergie pendant près de 100 heures consécutives, soit environ quatre jours d’autonomie. Une performance inédite pour ce type d’infrastructure.L’objectif est clair : garantir une alimentation continue du centre de données sans dépendre des centrales fossiles ou des générateurs diesel, encore utilisés par près de 80 % des centres de données dans le monde pour assurer les secours en cas de panne. La technologie retenue est développée par la start-up américaine Form Energy. Elle repose sur un système dit « fer-air », basé sur un principe chimique simple : l’oxydation et la réduction du fer. En stockant l’électricité sous forme de réaction chimique, ces batteries peuvent accumuler de grandes quantités d’énergie et la restituer pendant de longues périodes, tout en supportant des milliers de cycles.Par sa capacité énergétique, ce dispositif pourrait devenir la plus grande batterie du monde. À titre de comparaison, il serait capable d’alimenter plus de 100 000 foyers américains pendant une journée. Pour Google, ce projet constitue un véritable laboratoire. L’entreprise veut démontrer qu’il est possible d’alimenter ses centres de données 24 heures sur 24 et 7 jours sur 7 avec de l’énergie décarbonée, sans recourir à des compensations carbone. Un enjeu stratégique pour le groupe, dont les émissions de CO₂ ont augmenté d’environ 50 % depuis 2019, notamment en raison du développement massif de l’intelligence artificielle. L’équation énergétique du numérique devient donc l’un des grands défis technologiques de la décennie.
  • Bientôt des satellites réutilisables qui reviennent sur Terre ?

    02:34|
    Dans l’industrie spatiale, un nouveau pari technologique pourrait bien changer les règles du jeu. La start-up américaine Lux Aeterna, fondée en 2024, veut rendre les satellites… réutilisables. À sa tête, on trouve Brian Taylor, un ingénieur chevronné passé par SpaceX et Amazon, où il a participé au développement des mégaconstellations Starlink et Project Kuiper.Aujourd’hui, la plupart des satellites ont une durée de vie relativement courte. En orbite basse, ils fonctionnent généralement entre cinq et dix ans, avant d’être désorbités, c’est-à-dire volontairement détruits dans l’atmosphère, ou envoyés vers une orbite cimetière, une zone éloignée où l’on place les satellites hors service. Ce modèle implique de fabriquer régulièrement de nouveaux engins, ce qui représente un coût très élevé.L’ambition de Lux Aeterna est de rompre avec cette logique. L’entreprise veut créer des satellites capables de revenir sur Terre, d’être remis à niveau, puis relancés. L’idée ressemble à ce que SpaceX a déjà réussi avec les fusées réutilisables, mais appliquée cette fois aux satellites eux-mêmes. Le principal obstacle est thermique. Lorsqu’un objet rentre dans l’atmosphère, il subit des températures extrêmes, parfois plusieurs milliers de degrés, à cause du frottement avec l’air. Pour survivre à cette phase critique, Lux Aeterna prévoit d’intégrer un bouclier thermique directement dans la structure du satellite.Ce système permettrait au satellite de revenir intact sur Terre, avec sa charge utile, c’est-à-dire les instruments embarqués, comme des caméras, des capteurs scientifiques ou des systèmes de communication. L’intérêt est évident : au lieu de construire un nouveau satellite pour chaque évolution technologique, les opérateurs pourraient mettre à jour les équipements puis relancer l’appareil. Le premier prototype de la start-up s’appelle Delphi. Il mesure environ 1,1 mètre de large pour une masse d’environ 200 kilogrammes. Son lancement est prévu pour le premier trimestre 2027, à bord d’une fusée Falcon 9 de SpaceX. Après sa mission, l’engin doit effectuer un retour contrôlé et être récupéré en Australie.Lux Aeterna travaille déjà sur une génération suivante de satellites plus grands, qui pourraient à terme être lancés par Starship, la future fusée géante de SpaceX. Mais le défi reste immense. La technologie doit non seulement fonctionner, mais aussi être économiquement rentable. Les économies réalisées grâce à la réutilisation devront compenser les coûts liés au retour, à la récupération et à la remise en état des satellites.
  • La géothermie "profonde" va-t-elle tout changer ?

    02:47|
    Parmi les sources d’énergie renouvelable encore peu exploitées, la géothermie occupe une place particulière. Son principe est simple : utiliser la chaleur naturellement présente dans le sous-sol pour produire de l’énergie. Cette chaleur provient notamment des nappes d’eau souterraines et de la désintégration naturelle d’éléments radioactifs présents dans les roches, comme l’uranium, le thorium ou encore le potassium.Contrairement au vent ou au soleil, cette ressource présente un avantage majeur : elle est disponible en permanence. La chaleur de la Terre ne dépend ni de la météo ni de l’alternance jour-nuit. Les installations géothermiques peuvent donc produire de l’énergie 24 heures sur 24, avec des émissions de CO₂ très faibles pendant leur exploitation.À faible profondeur — généralement moins de 200 mètres — la géothermie est déjà utilisée dans de nombreux systèmes de chauffage ou de production d’énergie. Elle est considérée comme une technologie fiable et stable, capable d’assurer un approvisionnement continu. Mais de nouvelles perspectives apparaissent avec l’exploitation de la chaleur plus profonde. Les progrès réalisés dans les techniques de forage, souvent héritées de l’industrie pétrolière et gazière, permettent désormais d’atteindre des couches du sous-sol situées beaucoup plus bas.Dans une étude publiée dans la revue Cell Reports, des chercheurs de l’université Stanford s’intéressent notamment à une technologie appelée EGS, pour Enhanced Geothermal System, ou « système géothermique amélioré ». L’idée consiste à exploiter la chaleur présente entre 600 et 3 000 mètres sous terre, où les températures peuvent atteindre 90 à 300 degrés Celsius. Contrairement à la géothermie traditionnelle, qui dépend de réservoirs naturels d’eau chaude, ces systèmes permettent de créer artificiellement les conditions nécessaires pour récupérer la chaleur du sous-sol. Cela ouvre la possibilité d’exploiter cette énergie dans beaucoup plus de régions du monde.Les chercheurs soulignent aussi un autre avantage : la géothermie profonde pourrait réduire les besoins en infrastructures liées aux énergies intermittentes. Selon leurs calculs, si les systèmes EGS fournissaient 10 % de l’électricité, il serait possible de diminuer les nouvelles capacités nécessaires de 15 % pour l’éolien terrestre, 12 % pour le solaire et 28 % pour le stockage par batteries. La surface mobilisée pour produire de l’électricité bas carbone passerait alors d’environ 0,57 % à 0,48 % du territoire, une différence qui pourrait devenir importante à mesure que la demande énergétique augmente, notamment avec la multiplication des centres de données. Selon cette étude, le développement de la géothermie profonde, combiné aux autres énergies renouvelables, pourrait même permettre à terme de remplacer certaines sources d’électricité continues, comme le charbon ou le nucléaire, au cours de la prochaine décennie.
  • L'or permettrait un vrai gain pour les panneaux solaire ?

    02:43|
    On l’ignore souvent, mais les panneaux solaires n’exploitent qu’une fraction de l’énergie lumineuse qui atteint la Terre. Les cellules photovoltaïques actuelles convertissent surtout la lumière visible, celle que l’œil humain perçoit, ainsi qu’une petite partie du proche infrarouge. Une grande portion du rayonnement solaire reste donc inutilisée, alors même que notre planète reçoit chaque seconde environ 174 000 térawatts d’énergie solaire. Des chercheurs de l’Institut coréen des sciences et de la technologie, le KAIST, pensent avoir trouvé une piste pour améliorer cette efficacité. Leur solution repose sur un concept issu de la nanotechnologie : les suprasphères plasmoniques.Ces structures microscopiques sont constituées de milliers de nanoparticules d’or qui s’assemblent spontanément pour former de minuscules sphères. À cette échelle, l’or possède des propriétés optiques particulières : il peut interagir avec la lumière de manière collective, un phénomène que les physiciens appellent résonance plasmonique. Concrètement, cela permet de capter et de piéger les photons — les particules de lumière — avec une efficacité bien supérieure à celle des matériaux classiques. Les chercheurs ont déposé ces suprasphères goutte à goutte sur une surface plane, où elles forment un film dense et texturé. Ce revêtement est capable d’absorber non seulement la lumière visible, mais aussi les rayonnements ultraviolets et une large gamme d’infrarouges, proches et lointains.La différence avec les films de nanoparticules déjà étudiés est importante. Les suprasphères combinent plusieurs types de résonances lumineuses, ce qui permet de capturer davantage de longueurs d’onde. Résultat : selon les simulations et les expériences menées par l’équipe coréenne, ce matériau pourrait absorber jusqu’à 90 % du spectre solaire, un niveau inédit. La puissance générée serait environ 2,4 fois supérieure à celle obtenue avec des revêtements de nanoparticules traditionnels. Pour tester leur approche, les chercheurs ont appliqué ce film sur la surface en céramique d’un générateur thermoélectrique, un dispositif capable de transformer la chaleur en électricité. Les mesures ont montré une absorption deux fois plus élevée que celle d’un film classique.Au-delà de la performance, cette technologie présente aussi un avantage pratique : elle peut être produite par dépôt en solution, une méthode relativement simple et peu coûteuse. À terme, ces suprasphères pourraient améliorer l’efficacité des systèmes solaires thermiques et photothermiques, qui utilisent la chaleur du soleil. Elles pourraient aussi renforcer les systèmes hybrides photovoltaïques-thermiques, capables de produire à la fois électricité et chaleur.
  • Des data centers bientôt sous des éoliennes en mer ?

    02:22|
    La révolution de l’intelligence artificielle pose un problème très concret : où installer les serveurs capables de faire tourner ces modèles toujours plus gourmands en énergie ? Aux États-Unis, les centres de données ont consommé environ 183 térawattheures d’électricité en 2024, soit près de 4 % de toute la consommation du pays. Et selon plusieurs projections, cette demande pourrait plus que doubler d’ici 2030.Depuis quelques années, l’industrie explore donc des solutions inédites. Microsoft avait déjà expérimenté l’immersion de centres de données sous la mer avec son Projet Natick, au large de l’Écosse. L’idée : profiter de l’eau froide pour refroidir naturellement les serveurs. Mais une start-up californienne, Aikido Technologies, propose aujourd’hui d’aller encore plus loin.Son concept, présenté début mars 2026 et relayé par IEEE Spectrum, consiste à combiner éoliennes flottantes et centres de calcul pour l’IA dans la même infrastructure. Concrètement, les serveurs seraient installés directement dans les ballasts, ces grands réservoirs qui stabilisent les plateformes en mer. La structure imaginée repose sur une turbine éolienne posée sur une plateforme flottante. Trois bras descendent vers l’eau et se terminent par des ballasts situés à environ 20 mètres de profondeur. Dans la partie supérieure de ces réservoirs remplis d’eau douce, Aikido prévoit d’aménager des salles informatiques capables de fournir 3 à 4 mégawatts de puissance chacune. L’ensemble pourrait atteindre 10 à 12 mégawatts de calcul dédiés à l’intelligence artificielle.La turbine elle-même produirait 15 à 18 mégawatts d’électricité, complétés par des batteries intégrées. L’un des avantages majeurs serait la suppression des pertes liées au transport de l’électricité, puisque l’énergie serait produite et consommée au même endroit. Le refroidissement reposerait sur un mécanisme passif : la chaleur dégagée par les serveurs traverserait les parois métalliques des ballasts pour se dissiper dans l’eau de mer. Selon l’entreprise, l’impact thermique resterait limité à quelques mètres autour de la structure.Un prototype de 100 kilowatts est prévu au large de la Norvège d’ici la fin de l’année, avec l’ambition à terme de créer des fermes offshore dépassant un gigawatt de puissance de calcul. Mais le projet reste risqué. L’éolien flottant traverse actuellement une période difficile, avec des coûts élevés et des projets retardés. D’autres défis subsistent aussi : la corrosion due au sel, les débris marins ou encore les contraintes environnementales liées au rejet de chaleur dans l’océan.
  • Pourquoi l'hydrogène se fait si discret en voiture ?

    02:38|
    Entre la voiture électrique, désormais bien installée, et les moteurs thermiques que l’on tente progressivement de remplacer, il existe une autre technologie encore discrète : la voiture à hydrogène. En France, ce marché reste très confidentiel. Aujourd’hui, seuls deux modèles sont réellement disponibles à la vente : la berline Toyota Mirai, proposée autour de 71 500 euros, et le SUV Hyundai Nexo, affiché à plus de 80 000 euros.Ces véhicules fonctionnent grâce à une pile à combustible. Le principe est assez simple : l’hydrogène stocké dans le réservoir réagit avec l’oxygène de l’air pour produire de l’électricité. Cette électricité alimente ensuite un moteur électrique qui entraîne les roues. L’avantage majeur est environnemental : à l’échappement, la seule émission est… de la vapeur d’eau. Sur le papier, l’hydrogène combine deux atouts que les voitures électriques et thermiques ont du mal à réunir. D’abord l’autonomie : la Toyota Mirai annonce environ 650 kilomètres, tandis que le Hyundai Nexo peut atteindre 666 kilomètres. Ensuite, le temps de recharge : faire le plein d’hydrogène prend seulement quelques minutes, comme pour une voiture essence.Il existe aussi une variante intermédiaire : les utilitaires hybrides hydrogène-électrique. Ces véhicules embarquent à la fois une batterie et une pile à combustible. On les retrouve par exemple sur certains modèles professionnels comme le Renault Kangoo ZE Hydrogen, le Renault Master Hydrogen ou encore les Peugeot e-Expert et Citroën ë-Jumpy Hydrogen. Leur autonomie tourne autour de 400 kilomètres selon le cycle WLTP, la norme européenne qui mesure l’autonomie des véhicules. Si ces voitures restent aussi coûteuses, c’est principalement une question d’échelle industrielle. Les piles à combustible sont encore fabriquées en petites quantités, ce qui maintient les prix élevés. Le phénomène est comparable aux débuts de la voiture électrique : lorsque la production des batteries lithium-ion s’est industrialisée, leurs coûts ont fortement baissé.Autre obstacle majeur : les infrastructures. En France, on compte seulement quelques dizaines de stations hydrogène. En dehors des grands axes, trouver une station peut donc s’avérer compliqué. Côté carburant, le prix reste relativement stable. Le kilo d’hydrogène coûte entre 10 et 15 euros, ce qui place le coût d’un plein dans une fourchette comparable à celle d’une voiture essence ou diesel. L’avenir de cette technologie dépendra largement des investissements des constructeurs et du développement de nouvelles méthodes de production, notamment l’électrolyse de l’eau, qui permet de produire de l’hydrogène à partir d’électricité renouvelable.
  • Smartphones : lequel pollue le plus au cours sa vie ?

    02:47|
    À l’occasion de la sortie officielle du Galaxy S26 en France, la société Greenly, spécialisée dans la mesure de l’empreinte carbone des entreprises, publie une comparaison des principaux smartphones du marché. Apple, Samsung, Xiaomi et Google passent au crible, et les résultats révèlent une réalité souvent méconnue : l’essentiel de l’impact environnemental d’un smartphone ne vient pas de son utilisation… mais de sa fabrication.Selon l’analyse, entre 80 et 85 % des émissions de gaz à effet de serre liées à un téléphone sont générées avant même qu’il soit allumé. Cette phase comprend l’extraction des matières premières, la production des composants, l’assemblage, le transport et même la gestion en fin de vie. Sur ce critère, Samsung apparaît comme le constructeur le plus performant parmi les modèles étudiés. Le Galaxy S25 affiche une empreinte de 42,7 kg de CO₂ équivalent, une unité qui permet de regrouper tous les gaz à effet de serre sous une seule mesure comparable. Derrière lui, on trouve le Xiaomi 14 avec 47,2 kg, puis l’iPhone 17 Pro avec 51,2 kg pour la version 256 Go. Le Pixel 10 de Google se distingue nettement, avec 73,8 kg de CO₂ équivalent, soit presque le double du modèle de Samsung.Un détail intéressant concerne Apple : le constructeur est le seul à publier son empreinte carbone selon la capacité de stockage. Logique, car plus la mémoire interne augmente, plus les composants électroniques nécessaires sont nombreux, et plus les émissions associées à leur fabrication sont élevées. Apple a toutefois tenté de réduire cet impact sur certains modèles récents. L’iPhone Air lancé en 2025 affiche ainsi 55 kg de CO₂ équivalent sur l’ensemble de son cycle de vie, soit environ 15 % de moins que l’iPhone 17 Pro. Le smartphone utilise un cadre en aluminium entièrement recyclé et sa fabrication repose désormais à 45 % sur de l’électricité renouvelable, contre 20 % seulement deux ans plus tôt.Côté utilisateur, l’impact est bien plus faible. La recharge électrique représente 15 à 20 % des émissions totales. Sur trois ans d’utilisation, un Galaxy S25 génère environ 3 kg de CO₂, contre près de 8 kg pour le Pixel 10. Mais ces chiffres varient selon le pays. En France, où l’électricité est largement décarbonée grâce au nucléaire, l’empreinte liée à la recharge est beaucoup plus faible qu’aux États-Unis. Reste enfin la question des volumes. Apple et Samsung vendent chacun plus de 200 millions d’appareils par an. Même si Google vend beaucoup moins de smartphones, l’usage de ses Pixel représenterait tout de même, selon Greenly, l’équivalent des émissions annuelles de 24 000 voitures.
  • 300 ans de vie pour une batterie de saumure de tofu ?

    02:48|
    Les batteries sont devenues indispensables à notre quotidien. Smartphones, voitures électriques, stockage d’énergie… Mais elles posent aussi un problème majeur : la plupart reposent sur des produits chimiques potentiellement toxiques et parfois inflammables, comme ceux utilisés dans les batteries lithium-ion actuelles. Des chercheurs de l’université municipale de Hong Kong et de l’université des sciences et technologies du Sud, en Chine, proposent une piste radicalement différente. Dans une étude publiée dans la revue Nature Communications, ils présentent une batterie aqueuse, c’est-à-dire fonctionnant avec un électrolyte à base d’eau, conçue pour être plus sûre et potentiellement plus respectueuse de l’environnement.L’élément central d’une batterie est l’électrolyte, le liquide qui permet aux ions — des particules chargées électriquement — de circuler entre les électrodes et de produire de l’électricité. Dans les batteries classiques, cet électrolyte est souvent acide ou alcalin. Ici, les chercheurs ont choisi une approche inattendue : utiliser des minéraux présents dans la saumure de tofu. Cet électrolyte contient notamment des sels de magnésium et de calcium, avec un pH neutre de 7, comparable à celui de l’eau pure. Les électrodes, elles aussi, s’éloignent des matériaux traditionnels. L’anode — l’une des deux bornes de la batterie — est fabriquée à partir d’un polymère organique particulier, appelé COP. La cathode utilise un matériau dérivé du « bleu de Prusse », un pigment bien connu en peinture.Selon les chercheurs, cette batterie pourrait supporter plus de 120 000 cycles de charge, c’est-à-dire des recharges complètes. À titre de comparaison, les batteries lithium-ion actuelles atteignent généralement entre 500 et 2 000 cycles. À raison d’une recharge par jour, la durée de vie théorique dépasserait donc… trois siècles.Autre avantage : cette technologie ne présenterait pas de risque d’incendie, contrairement aux batteries lithium-ion qui peuvent parfois surchauffer. Les chercheurs affirment également que les composants seraient non toxiques et potentiellement moins polluants. Mais cette innovation a aussi ses limites. Sa densité énergétique — la quantité d’énergie stockée pour un poids donné — reste encore faible. Avec environ 48 watt-heures par kilogramme, elle représente seulement un quart de celle des batteries actuelles. Autrement dit, pour stocker la même énergie, il faudrait une batterie quatre fois plus volumineuse.Pour cette raison, cette technologie n’est pas destinée aux smartphones ou aux ordinateurs portables. En revanche, elle pourrait trouver sa place dans le stockage stationnaire, par exemple pour conserver l’électricité produite par les panneaux solaires ou les éoliennes sur les réseaux électriques.La prochaine étape sera donc industrielle : vérifier si ces batteries peuvent être produites à grande échelle, et à un coût compétitif.