Partager

Choses à Savoir TECH VERTE
Un datacenter qui chauffera 6 000 logements pendant 20 ans ?
Le fournisseur cloud suisse Infomaniak marque un tournant dans l’industrie des centres de données avec son tout nouveau data center, le D4. Inauguré le 27 janvier 2025, ce centre de 1 800 m², construit sous un écoquartier de Genève, affiche des performances énergétiques inédites. Son ambition ? Transformer l’un des secteurs les plus énergivores du numérique en un modèle d’efficacité et de durabilité.
Depuis le 11 novembre 2024, le D4 ne se contente pas de consommer de l’électricité, il revalorise 100 % de l’énergie qu’il utilise. Sa chaleur résiduelle est injectée dans le réseau de chauffage urbain, permettant d’alimenter 6 000 ménages pendant au moins vingt ans ou encore de fournir l’eau chaude nécessaire à 20 000 douches quotidiennes.
Son efficacité énergétique repose sur un ingénieux système de refroidissement :
-l’air à 28°C, issu des pompes à chaleur, refroidit les serveurs via des allées froides.
-l’air chaud, capté à 45°C, est ensuite acheminé vers un échangeur air/eau sophistiqué.
-deux pompes à chaleur françaises (Trane) de 1,7 MW chacune élèvent la température de l’eau à 85°C en hiver pour le chauffage urbain.
Résultat : 3 600 tonnes de CO₂ évitées par an, soit l’équivalent des émissions générées par le gaz naturel nécessaire au chauffage de ces logements.
Avec un PUE (Power Usage Effectiveness) exceptionnel de 1,09, bien en dessous de la moyenne européenne (1,6), le D4 se classe parmi les centres de données les plus efficients au monde.
L’alimentation électrique repose sur une infrastructure robuste :
-trois transformateurs convertissent le courant de 18 000 volts en 230 volts.
-deux blocs de six onduleurs à 99 % de rendement assurent une alimentation stable.
-des batteries de secours prennent le relais en cas d’incident.
-un système de ventilation brushless optimise la gestion thermique.
Même en pleine canicule, le free-cooling maintient le refroidissement des serveurs jusqu’à 36°C, garantissant une performance constante.
Infomaniak ne s’arrête pas là. Son data center est équipé d’une centrale solaire de 130 kWc, composée de 364 panneaux photovoltaïques, renforçant ainsi son autonomie énergétique.
La connectivité est elle aussi optimisée :
-deux paires de fibre optique garantissent la liaison des 10 000 serveurs avec le reste du monde.
Récompensé en 2023 par le Prix Suisse de l’Éthique et le Prix du Développement Durable du canton de Genève, le D4 est un modèle ouvert. Toute sa documentation technique est disponible gratuitement sur d4project.org, incitant d’autres acteurs à adopter cette approche écologique.
Face à la demande croissante du cloud (+20 % par an), Infomaniak voit plus grand. L’entreprise prévoit déjà un nouveau centre d’au moins 3,3 MW d’ici 2028, ainsi qu’un projet d’1,1 MW supplémentaire pour un autre réseau de chaleur. Avec le D4, Infomaniak prouve qu’un data center peut être bien plus qu’un gouffre énergétique. Il devient un acteur clé de la transition énergétique, en conciliant innovation technologique et impact environnemental positif.
More episodes
View all episodes
Une batterie viable 10 ans, écolo et résistante au froid ?
03:17|Sécurisez votre vie privée avec Surfshark. Vous pouvez profiter de 4 mois supplémentaires en utilisant le lien https://surfshark.com/savoir4Et si nos batteries duraient plus de 10 ans sans perdre en performance ? C’est la promesse de la technologie sodium-ion, qui se présente aujourd’hui comme une alternative crédible aux batteries lithium-ion omniprésentes dans nos appareils électroniques et nos véhicules électriques.Le lithium, indispensable aux batteries actuelles, pose plusieurs problèmes : son extraction, concentrée dans quelques régions du monde, génère des tensions géopolitiques et des dégâts environnementaux considérables. En parallèle, les batteries lithium-ion souffrent d’une durée de vie limitée, poussant à un renouvellement fréquent et accentuant le gaspillage électronique. Le sodium-ion pourrait bien changer la donne. La société japonaise Elecom vient de lancer un power bank utilisant une batterie sodium-ion, mettant en avant une durée de vie de plus de 10 ans, même en cas d’utilisation quotidienne. Une avancée majeure dans un marché où les batteries lithium-ion commencent à décliner après quelques centaines de cycles de charge. Les tests en laboratoire sont prometteurs : certaines batteries sodium-ion conservent encore 80 % de leur capacité après 1000 cycles, faisant d’elles une solution plus durable et écologique.Autre avantage : le sodium est abondant et facilement accessible, notamment dans l’eau de mer. Contrairement au lithium, son extraction est moins coûteuse et bien moins polluante. Une aubaine pour la transition énergétique et la réduction de notre empreinte écologique. Bien sûr, la technologie sodium-ion n’est pas parfaite. Sa densité énergétique reste inférieure à celle du lithium, ce qui signifie qu’elle ne remplacera pas encore nos batteries de smartphones ou d’ordinateurs. Mais elle trouve déjà des applications idéales dans le stockage d’énergie stationnaire, notamment pour les panneaux solaires et les éoliennes. Des entreprises comme CATL travaillent activement à son amélioration, et certaines voitures électriques pourraient bientôt en être équipées. Alors, le sodium-ion remplacera-t-il un jour le lithium ? Peut-être pas totalement, mais il ouvre la voie à des batteries plus durables, moins chères et plus respectueuses de l’environnement.Les voitures électriques rechargée à 100% en 5 minutes seulement ?
02:08|Et si recharger une voiture électrique devenait aussi rapide qu’un plein d’essence ? C’est en tout cas l’ambition du constructeur chinois BYD, qui dévoile une nouvelle technologie de recharge ultra-rapide basée sur une architecture 1000V. Résultat annoncé : 300 km d’autonomie en seulement 5 minutes. Une avancée qui pourrait bien révolutionner le marché des véhicules électriques.Les premiers modèles à bénéficier de cette prouesse seront les Han L et Tang L, avant un déploiement plus large. Grâce à cette innovation, la puissance de charge est démultipliée, bien au-delà des systèmes 400V et 800V actuels. Concrètement, une batterie compatible peut supporter un taux de charge de 5C à 6C, soit un temps de recharge cinq à six fois plus rapide qu’avec les solutions standard. Mais l’enjeu ne s’arrête pas au simple gain de temps. Une tension plus élevée permet une meilleure efficacité énergétique en réduisant les pertes sous forme de chaleur. Elle limite également l’usure prématurée des batteries et améliore les performances des moteurs, sans pour autant augmenter leur taille. Un vrai défi technique que BYD entend relever avec son propre réseau de bornes de recharge ultra-rapides, capables de délivrer des puissances allant jusqu’à 1000 kW.L’impact écologique est aussi au cœur des préoccupations. En optimisant la gestion de l’énergie, cette technologie promet une consommation d’électricité plus maîtrisée, et donc une empreinte carbone réduite. En parallèle, l’allègement des composants électriques embarqués, notamment des câbles plus fins et des moteurs plus compacts, contribue à rendre les véhicules moins énergivores et plus autonomes. Avec cette avancée, BYD affiche clairement ses ambitions : se positionner sur un segment premium et rivaliser avec les géants du secteur comme Tesla. D’autres constructeurs, à l’image de Nio ou XPeng, se tournent déjà vers des architectures haute tension, mais BYD pousse l’innovation encore plus loin. Les premiers véhicules équipés de cette technologie sont attendus dans les prochains mois. Reste à voir si cette recharge express sera le véritable déclencheur pour convaincre de nouveaux conducteurs de passer à l’électrique. Une chose est sûre : la bataille de l’autonomie et du temps de charge est plus que jamais lancée.La géothermie va fournir l’énergie nécessaire aux data centers ?
01:51|L’intelligence artificielle ne révolutionne pas seulement la technologie, elle fait exploser les besoins en énergie. À tel point que cette croissance a ravivé l’intérêt mondial pour le nucléaire, aussi bien en France qu’aux États-Unis. Mais face à la multiplication des data centers, une autre source d’énergie pourrait jouer un rôle crucial : la géothermie.Avec les mégaprojets de centres de données qui se multiplient à travers le monde, une question se pose : où trouver l’énergie nécessaire ? Aux États-Unis, ces infrastructures pèsent déjà lourdement sur les réseaux électriques. Selon une récente étude du Rhodium Group, la géothermie avancée pourrait fournir environ les deux tiers de l’électricité nécessaire aux futurs data centers d’ici 2030. Un avantage clé de cette technologie : ses faibles coûts d’exploitation. D’après les projections du Rhodium Group, les États-Unis pourraient quadrupler leur production géothermique d’ici la fin de la décennie, passant de 4 à 16 gigawatts. L’ouest du pays apparaît comme un terrain idéal pour cette expansion, en raison de ses vastes ressources souterraines.Jusqu’à présent, l’exploitation de la géothermie était limitée aux zones où la chaleur terrestre affleure naturellement. Mais grâce aux avancées technologiques, il est désormais possible de forer plus profondément, atteignant des couches encore plus chaudes et produisant ainsi davantage d’énergie. Alors que l’intelligence artificielle s’impose comme une révolution incontournable, la géothermie pourrait bien en devenir l’alliée énergétique, offrant une solution durable pour répondre à la demande croissante d’électricité tout en limitant l’empreinte carbone du numérique.Éolien et solaire dépassent le charbon aux USA ?
01:40|La transition énergétique avance, parfois même là où on l’attend le moins. En 2023, les énergies renouvelables ont atteint 30 % de la production mondiale d’électricité, et les États-Unis viennent de franchir un cap symbolique : pour la première fois, l’éolien et le solaire ont généré plus d’électricité que le charbon. D’après les chiffres du think tank Ember, le charbon a représenté 15 % de l’électricité produite aux États-Unis l’an dernier, contre 17 % pour le solaire et l’éolien. Une inversion de tendance qui semble aller à contre-courant du discours politique de Donald Trump, fervent défenseur des hydrocarbures et critique des énergies vertes. Pourtant, même dans une Amérique attachée aux énergies fossiles, le vent du changement souffle.Cette progression est largement portée par le solaire, qui a représenté 81 % des nouvelles capacités de production énergétique installées en 2023, selon l’Administration américaine pour l’information énergétique. Un développement qui tombe à point nommé : après quinze ans de stagnation, la demande en électricité a augmenté de 3 % l’an dernier, notamment sous l’effet de l’essor des véhicules électriques et des data centers. Si ce basculement marque un tournant, il reste à voir s’il s’inscrit dans une dynamique durable. Avec un mix énergétique en pleine mutation, les États-Unis semblent, malgré eux, avoir enclenché une transition qui s’accélère.La baisse de la pollution augmente le réchauffement climatique ?
02:04|On l’oublie souvent, mais la Terre agit comme un immense miroir, renvoyant vers l’espace une partie du rayonnement solaire qu’elle reçoit. Cet équilibre naturel a permis de maintenir une température propice à la vie… jusqu’à aujourd’hui. On sait déjà que nos émissions de gaz à effet de serre fragilisent cet équilibre, en retenant la chaleur dans l’atmosphère. Mais selon une étude de l’université de Reading (Royaume-Uni), publiée dans Environmental Research Letters, un autre phénomène inquiète les scientifiques : la Terre devient moins réfléchissante, notamment au-dessus des océans.En cause : l’évolution des nuages. Richard Allan, auteur principal de l’étude, explique :« Avec le temps, le miroir Terre se salit. Les nuages renvoient moins bien la lumière solaire, ce qui signifie que davantage d’énergie est absorbée et que le réchauffement s’accélère. »Mais pourquoi les nuages perdent-ils leur brillance ? Les chercheurs avancent plusieurs hypothèses. La hausse des températures pourrait embuer ce miroir naturel, le rendant moins efficace. Autre possibilité : la pollution atmosphérique, qui jusque-là jouait un rôle de "spray nettoyant".Un exemple frappant vient de l’est de la Chine. Dans cette région, la lumière solaire est moins réfléchie que prévu. Et ce, paradoxalement, à cause d’une réduction efficace de la pollution de l’air. Un constat préoccupant : diminuer la pollution atmosphérique améliore la santé publique, mais favorise aussi l’absorption du rayonnement solaire… et donc le réchauffement. Cette découverte illustre la complexité du climat et des interactions entre l’air, les nuages et l’énergie solaire. Si lutter contre la pollution reste essentiel, les scientifiques insistent sur l’urgence de réduire massivement les émissions de gaz à effet de serre, seule solution durable pour limiter le dérèglement climatique.L’espace désormais touché par le réchauffement climatique ?
03:13|Sécurisez votre vie privée avec Surfshark. Vous pouvez profiter de 4 mois supplémentaires en utilisant le lien https://surfshark.com/savoir4Le changement climatique ne se limite pas à la hausse des températures à la surface de la Terre. Il a aussi des répercussions inattendues… jusque dans l’espace ! Des chercheurs de l’université de Birmingham (Royaume-Uni) alertent sur un phénomène méconnu : le réchauffement de la basse atmosphère entraîne un refroidissement et une contraction de la thermosphère, cette couche située entre 300 et 1 000 kilomètres d’altitude, où évoluent plus de 8 000 satellites en orbite basse.Ce phénomène est dû aux gaz à effet de serre qui retiennent le rayonnement infrarouge près de la surface terrestre. Résultat : la chaleur absorbée par conduction dans la haute atmosphère diminue, ce qui réduit sa densité. Et moins de densité, c'est moins de traînée pour les satellites, qui restent plus longtemps en orbite. Si cela peut sembler avantageux, en réalité, les risques de collision augmentent considérablement, avec à la clé une prolifération de débris spatiaux. De plus, la contraction de la thermosphère réduit l’espace disponible pour de nouveaux satellites. D’ici 2100, les scientifiques estiment que la capacité d’accueil de l’orbite basse pourrait diminuer de 50 à 66 % !« Le nombre de satellites en orbite basse croît rapidement et nous en dépendons de plus en plus pour les communications, la météo ou encore la navigation », rappelle Matthew Brown, auteur principal de l’étude publiée dans Nature Sustainability. Sans une gestion rigoureuse, nous risquons un scénario catastrophe : une réaction en chaîne de collisions qui rendrait l’espace inutilisable. Face à cette menace, des solutions existent. Il est urgent de réguler le trafic spatial, de mieux anticiper les trajectoires des satellites et surtout de limiter nos émissions de gaz à effet de serre, pour préserver non seulement notre planète… mais aussi l’accès à l’espace !La France produit-elle trop d’électricité ?
02:27|Le solaire en France ralentira-t-il avant même d’avoir atteint sa vitesse de croisière ? La nouvelle Programmation pluriannuelle de l’énergie (PPE), mise en consultation le 7 mars 2025, revoit à la baisse les ambitions du pays en matière de photovoltaïque. Les objectifs de capacités installées pour 2030 sont désormais plafonnés à 54 gigawatts (GW), contre une fourchette initiale de 54 à 60 GW. À horizon 2035, la cible haute passe de 100 GW à 90 GW, tandis que le rythme de développement annuel, prévu à 4 GW, sera ajusté à partir de 2028 en fonction des besoins en électricité, avec un plafond de 7 GW par an.Ces annonces tombent alors que la filière connaît une progression record en 2024. Pourtant, le gouvernement réduit son soutien, notamment en abaissant le tarif d’achat de l’électricité produite par les petites et moyennes installations sur toiture. Une décision qui suscite l’incompréhension des acteurs du secteur. Selon le président du Syndicat des énergies renouvelables, le solaire pâtit d’un système où l’offre dépasse la demande. Ce déséquilibre s’illustre notamment par la multiplication des prix négatifs sur le marché de l’électricité, qui ont représenté 235 heures au premier semestre 2024, soit 5,4 % du temps, d’après la Commission de régulation de l’énergie.Ce ralentissement du solaire coïncide avec les réserves exprimées par certains acteurs du nucléaire. EDF estime que les ambitions photovoltaïques sont trop élevées, car elles limiteraient les débouchés du parc nucléaire. L’entreprise pointe également du doigt les contraintes techniques liées aux variations de production. Même son de cloche du côté de Vincent Berger, haut-commissaire à l’énergie atomique, qui met en garde contre une surproduction pénalisante pour les consommateurs et les finances publiques.Pour les professionnels du solaire, cette révision est un coup dur. Daniel Bour, président du syndicat Enerplan, regrette que le photovoltaïque soit la seule variable d’ajustement dans la gestion de l’offre et de la demande d’électricité. L’inquiétude porte aussi sur l’effet rétroactif de la baisse des tarifs d’achat, qui pourrait geler les nouveaux projets en attendant un cadre plus stable. Face à cette fronde, le Conseil supérieur de l’énergie a adopté, le 6 mars, un avis demandant au gouvernement de revoir sa position. Une alternative pourrait résider dans l’électrification des usages, alors que l’exécutif a parallèlement diminué son soutien à la mobilité électrique et à la rénovation énergétique des bâtiments. La PPE prévoit d’ailleurs un tableau de bord de l’électrification, censé piloter ces évolutions.Un outil Google pour réduire l'impact environnemental des pubs ?
02:07|Les annonceurs vont désormais pouvoir mesurer l’impact carbone de leurs campagnes publicitaires sur Google. Mi-mars 2025, la firme de Mountain View a dévoilé "Empreinte Carbone pour Google Ads", un nouvel outil permettant aux marques d’évaluer précisément les émissions générées par leurs activités marketing en ligne. Basée sur des données propriétaires, cette technologie analyse divers paramètres comme le ciblage, le mix média et la dynamique des enchères pour fournir des estimations adaptées à chaque compte. L’objectif : permettre aux entreprises de mieux comprendre et réduire leur empreinte carbone publicitaire, un enjeu devenu incontournable avec le durcissement des régulations environnementales dans l’Union européenne, l’Australie, le Brésil et le Mexique.L’outil de Google repose sur des méthodologies reconnues, comme le Greenhouse Gas Protocol et le Global Media Sustainability Framework. Il distingue les émissions en trois catégories :-Scope 1 et Scope 2, qui concernent la consommation énergétique directe des infrastructures publicitaires.-Scope 3, qui inclut les émissions indirectes, notamment celles générées par l'affichage des annonces sur différents appareils.Contrairement aux estimations traditionnelles basées sur les dépenses publicitaires, cette solution s’appuie sur l’utilisation réelle des serveurs et l’énergie consommée par l’infrastructure Google, offrant ainsi une précision inédite. Pour l’instant, l’outil est accessible sur demande à certains annonceurs de grande envergure, avant un déploiement plus large. Des entreprises comme L’Oréal, LVMH ou encore Carwow figurent parmi les premières à tester ce dispositif. Ben Carter, directeur marketing chez Carwow, se réjouit des premiers résultats : "Nos anciennes méthodes surestimaient largement nos émissions publicitaires. Grâce aux données d’activité fournies par Google, nous constatons que notre impact est bien inférieur à nos prévisions initiales."Avec cette initiative, Google renforce son engagement environnemental, en phase avec son ambition d’atteindre une énergie 100 % décarbonée d’ici 2030. Marion Setiey, de LVMH, souligne l’importance de cette avancée : "C’est un signal fort pour l’industrie. Cette transparence est essentielle pour réduire collectivement l’impact environnemental du marketing digital."NEOM, noyée par des surcoûts futuristes ?
02:12|Présentée comme la ville du futur, vitrine de l’Arabie saoudite dans un monde post-pétrole, Neom devait révolutionner l’urbanisme avec une cité intelligente et écologique capable d’accueillir des millions d’habitants. Mais huit ans après le début du chantier, le projet titanesque semble englué dans des difficultés financières et techniques qui remettent en question sa viabilité. Selon une enquête du Wall Street Journal, 50 milliards de dollars ont déjà été injectés dans Neom, mais ce n’est que la partie émergée de l’iceberg. Un audit interne estime que la construction prendra 55 ans et que le budget total pourrait atteindre 8 800 milliards de dollars. Une somme vertigineuse, 25 fois le budget annuel du royaume, qui fragilise la position financière de l’Arabie saoudite. Déjà confronté à un déficit budgétaire de 27 milliards de dollars prévu pour 2025, le pays peine à trouver une solution viable pour poursuivre son projet phare.Les obstacles ne sont pas seulement financiers. Le chantier souffre d’une pénurie de main-d’œuvre qualifiée, de problèmes d’infrastructure et d’un approvisionnement énergétique insuffisant, ralentissant la progression des travaux. Résultat : les projections démographiques sont drastiquement revues à la baisse. Alors que le plan initial prévoyait 1,5 million d’habitants d’ici 2030, les estimations actuelles parlent de seulement 200 000 résidents. Ces difficultés ont également conduit à un changement de direction. En novembre 2024, Nadhmi al-Nasr, PDG historique du projet, a quitté ses fonctions, remplacé par Ayman al-Mudaifer. Officiellement, ce départ n’est pas lié aux défis financiers, mais il intervient à un moment critique pour Neom.Face aux doutes grandissants, le ministre des Finances saoudien, Mohammed Al Aljaadan, adopte un discours apaisant. Il insiste sur le fait que Neom est un projet à long terme : « Si quelqu’un pense que Neom va être construit, opérationnel et rentable en cinq ans, c’est insensé. Nous ne sommes pas insensés. Nous sommes des gens sages. » Mais cette incertitude pourrait compromettre d’autres projets majeurs, notamment la centrale hydroélectrique "Nestor" qu’EDF doit construire au cœur de Neom. Prévue pour une mise en service en 2029, son calendrier pourrait être impacté par les turbulences actuelles.