Partager

Choses à Savoir TECH VERTE
Stockage d'énergie sur batteries : la plus grande usine au monde détruite ?
Un incendie s’est déclaré jeudi 16 janvier 2025, dans l’usine Vistra de Moss Landing, en Californie, le plus grand site mondial de stockage d’énergie par batteries au lithium. Cette installation, capable de stocker 750 mégawatts d’électricité grâce à ses 110 000 modules, redistribue l’énergie renouvelable produite dans la région, notamment la nuit.
Le sinistre, signalé à 15 h, a rapidement pris de l’ampleur, mettant en évidence la complexité des feux de batteries au lithium. Ceux-ci brûlent à très haute température, émettent des gaz toxiques et nécessitent des protocoles d’intervention spécifiques. Les pompiers ont dû laisser le feu s’éteindre de lui-même, tout en surveillant la qualité de l’air. Face à l’urgence, les autorités ont évacué 1 200 résidents, notamment au sud d’Elkhorn Slough et à l’ouest de Castroville Boulevard. L’autoroute 1 a été fermée dans les deux sens. Un centre d’évacuation a été installé à Castroville pour accueillir les habitants déplacés.
L’usine de Moss Landing, déjà touchée par quatre incendies depuis 2019, suscite de vives inquiétudes. Glenn Church, superviseur du comté de Monterey, demande une enquête indépendante : « Ce sera sans doute le dernier incident. » Les précédents incendies, en 2021 et 2022, avaient été causés par des dysfonctionnements des systèmes de sécurité. Ces incidents relancent le débat sur la sécurité des installations de stockage d’énergie. En 2022, une loi californienne imposait de nouvelles normes suite à des accidents similaires, comme celui de Grand-Couronne en France. Pour le sénateur John Laird, « atteindre nos objectifs d’énergie propre passe par des systèmes de sécurité qui protègent les communautés environnantes. » Avec une capacité totale de batteries multipliée par sept en cinq ans, la Californie continue de miser sur cette technologie. Mais à quel prix pour la sécurité locale ?
More episodes
View all episodes
Solicaz restaure sur-mesure les terres dégradées ?
02:06|40 % des terres de la planète sont dégradées. C’est le constat alarmant dressé par la Convention des Nations Unies pour la lutte contre la désertification. Pollution, déforestation, épuisement des sols : ces dégradations menacent la moitié de l’humanité et près de 50 % du PIB mondial. Mais une entreprise guyanaise, Solicaz, œuvre pour inverser la tendance. À sa tête, Élodie Brunstein, spécialiste en agro-environnement, installée en Guyane depuis les années 2000. Confrontée aux ravages de l’exploitation minière sur l’écosystème amazonien, elle s’est rapprochée des scientifiques de l’UMR EcoFoG pour développer une solution unique.Solicaz intervient auprès des exploitants qui souhaitent restaurer leurs terrains. L’objectif ? Recréer un cycle écologique en imitant le fonctionnement naturel des écosystèmes. Comment ? En associant des plantes adaptées :-des fixatrices d’azote, pour enrichir les sols,-des espèces fruitières et à graines, pour attirer la faune et favoriser la biodiversité.Deuxième volet de l’activité : la mise au point de biostimulants. Ces produits, conçus en laboratoire à partir d’échantillons prélevés sur le terrain, permettent d’améliorer la croissance des plantes tout en réduisant l’usage des intrants chimiques.Les résultats sont spectaculaires :50 % d’économie d’eau sur les cultures de salade à la Réunion // 65 % d’augmentation de croissance dans des bananeraies // et jusqu’à 70 % de gain de productivité sur certaines exploitations.Solicaz ne se limite pas à l’Amazonie. Son expertise s’étend désormais au Brésil, où l’entreprise collabore avec les autorités et universités locales sur la restauration des pâturages, l’une des priorités du gouvernement Lula. L’innovation dépasse même les frontières tropicales. À Djibouti, Solicaz teste ses méthodes en milieu désertique, tandis qu’au Pérou, un biostimulant réduit la présence de cadmium dans le cacao. Face à ces succès, Solicaz franchit une étape clé : la création d’une unité de production industrielle en Guyane et l’implantation d’équipes au Brésil, en Océanie et en Afrique d’ici cinq ans.Les Vosges créent les forêts du futur ?
02:28|À 600 mètres d’altitude, dans un bois rocailleux de la vallée de Munster (Haut-Rhin), une petite révolution est en marche. Sur une parcelle de 6,5 hectares, un employé de la coopérative "Forêt d'ici" sème les dernières graines d’un projet inédit : tester de nouvelles essences d’arbres capables de résister au changement climatique. Sous le regard attentif de Claude Michel, du Parc régional des Ballons des Vosges, cette forêt devient un laboratoire à ciel ouvert. Propriétaire du terrain depuis 2018, Bernard Naegel a voulu anticiper l’impact du réchauffement sur les forêts vosgiennes. "Le changement climatique est une grande interrogation. Pourquoi ne pas expérimenter pour mieux s’y préparer ?", explique-t-il. L’enjeu est crucial : selon Météo France, la température en 2100 pourrait dépasser de 4 °C celle de l’ère préindustrielle, mettant en péril une large partie des 17 millions d’hectares de forêt française.La parcelle est divisée en plusieurs zones d’expérimentation. Première approche : la régénération naturelle. Les arbres adultes déjà présents – hêtres, sapins et épicéas – vont produire des graines qui se disperseront librement, permettant d’observer leur capacité d’adaptation. Deuxième axe : l’introduction de nouvelles essences. Dans de petits enclos en bois, des espèces venues de climats plus chauds prennent racine. Châtaigniers, érables, pins laricios de Corse grandissent aux côtés des essences locales pour former une "forêt mosaïque". Un écosystème plus diversifié, où les arbres se protègent mutuellement et limitent la propagation des maladies.Les forêts françaises souffrent déjà des effets du changement climatique. L’épicéa, par exemple, est ravagé par le scolyte, un parasite dont la prolifération est exacerbée par la hausse des températures. "Il y a une augmentation importante des récoltes d'arbres morts", observe Hubert Schmuck, expert à l'ONF dans le Grand Est. Selon l’Office national des forêts (ONF), seule la moitié des forêts françaises pourra s’adapter aux conditions climatiques de 2100. Contrairement aux forêts publiques, où l’ONF pilote des plans d’adaptation, les forêts privées, qui couvrent 75 % du territoire métropolitain, sont gérées librement par leurs propriétaires. L’objectif de cette expérimentation est donc clair : inciter les propriétaires privés à prendre les devants. Le projet, d’un coût total de 665 000 euros, est financé en partie par des partenaires locaux. Le producteur d’eau minérale Wattwiller apporte 30 000 euros, la Collectivité européenne d’Alsace 20 000 euros, le reste étant à la charge du propriétaire.Les scientifiques inquiets de la cohabitation éoliennes / volcans ?
02:50|Et si les éruptions volcaniques avaient un impact direct sur notre production d’énergie éolienne ? Une étude récente, publiée en janvier dans la revue The Innovation, met en lumière un phénomène méconnu : l’influence des aérosols volcaniques sur le vent de surface, ce vent qui circule entre zéro et dix mètres au-dessus du sol et dont dépendent les éoliennes. Ce vent de surface, dont la vitesse est scrutée de près par les chercheurs et les énergéticiens, est essentiel au fonctionnement des éoliennes. Lorsque ce vent faiblit, les pales cessent de tourner et la production d’électricité chute. Or, parmi les nombreux facteurs influençant cette vitesse, la présence d’aérosols dans l’atmosphère joue un rôle majeur. Ces fines particules dispersent le rayonnement solaire, modifiant ainsi le bilan radiatif de la Terre et, par extension, le climat et la circulation des vents. C’est là qu’interviennent les éruptions volcaniques. Ces événements spectaculaires projettent dans la stratosphère d’énormes quantités de dioxyde de soufre, qui se transforment en aérosols sulfatés capables de perturber le climat pendant plusieurs années.Pour mieux comprendre cet impact, une équipe de chercheurs suédois et chinois a utilisé des modèles informatiques pour simuler l’effet des plus grandes éruptions volcaniques tropicales des derniers siècles. Résultat : l’éruption du volcan Tambora en 1815 aurait réduit de 9,2 % la densité de puissance éolienne mondiale dans les deux années qui ont suivi. Les implications sont loin d’être anecdotiques. Comme le souligne l’étude, une baisse prolongée de la vitesse du vent pourrait entraîner des crises énergétiques, notamment pour les pays misant massivement sur l’éolien.Au-delà des volcans, cette étude soulève aussi des questions sur une technologie controversée : la géoingénierie solaire. Cette technique, qui consiste à pulvériser du dioxyde de soufre dans la stratosphère pour refroidir la planète, imiterait artificiellement l’effet des éruptions volcaniques. Son objectif : lutter contre le réchauffement climatique en augmentant la réflexion des rayons solaires vers l’espace. Mais cette solution pourrait affaiblir les vents et réduire la production d’électricité éolienne. Un risque d’autant plus préoccupant que l’éolien représentait 8 % de la production électrique mondiale en 2023, selon l’Agence internationale de l’énergie.Au-delà des impacts climatiques et énergétiques, la géoingénierie solaire pose aussi une question politique. Marine de Guglielmo Weber, ancienne chercheuse à l’Institut de relations internationales et stratégiques (IRIS), rappelait en 2023 que le déploiement unilatéral de cette technologie par un pays ou une entreprise pourrait engendrer des tensions internationales. L’atmosphère, bien commun de l’humanité, pourrait-elle devenir un nouvel enjeu de conflit entre États ? Face à ces enjeux, la communauté scientifique appelle à un débat mondial sur les risques et bénéfices de la géoingénierie, alors que le changement climatique continue de bouleverser nos équilibres énergétiques.Les Chinois ne veulent pas des voitures électriques européennes ?
02:07|Pendant des décennies, la Chine a été un marché clé pour l’industrie automobile allemande. BMW, Audi, Volkswagen, Mercedes et Porsche y écoulaient leurs voitures thermiques avec des marges confortables, s’imposant comme des références sur les routes chinoises. Mais l’essor fulgurant du véhicule électrique est en train de rebattre les cartes, et les marques allemandes en font les frais.La Chine domine aujourd’hui le secteur du véhicule électrique, et l’engouement du marché local s’accélère. En 2023, 37 % des voitures vendues dans le pays étaient électriques ou hybrides. En 2024, cette part a bondi à 47 %, et les projections pour 2025 indiquent une barre symbolique des 50 %. Un virage brutal pour les constructeurs allemands, qui représentaient encore 25 % du marché chinois avant la pandémie. En 2024, leur part dans le segment électrique n’est plus que de 3 % (5 % en comptant les importations). Une véritable dégringolade, face à des marques chinoises ultra-compétitives.Face à cette concurrence redoutable, l’Europe accuse la Chine de fausser le jeu avec des prix subventionnés et envisage d’imposer des droits de douane élevés sur les véhicules chinois. Mais le temps presse : les constructeurs asiatiques grignotent déjà des parts de marché en Europe, séduisant les consommateurs avec des modèles plus abordables et technologiquement avancés. L’industrie automobile est-elle en train de basculer ? Jusqu’ici, l’Allemagne exportait massivement ses voitures vers la Chine. Mais demain, verrons-nous davantage de véhicules chinois sur nos routes que de modèles européens sur le sol chinois ? Une hypothèse qui, il y a encore dix ans, aurait semblé improbable… et qui est aujourd’hui plus crédible que jamais.Un matériau OLED "100 fois moins couteux" pour les écrans ?
02:34|La technologie OLED est plébiscitée pour sa qualité d’image exceptionnelle et ses noirs profonds, mais elle souffre d’un point faible persistant : la fragilité du pixel bleu. À cause de sa longueur d’onde plus courte, ce dernier se dégrade plus rapidement que ses homologues rouge et vert, provoquant une perte progressive de luminosité et un déséquilibre des couleurs. Un phénomène qui, à terme, contribue au burn-in, un vieillissement irrémédiable de l’écran.Pour remédier à ce problème, les chercheurs explorent depuis plusieurs années diverses solutions technologiques : émetteurs phosphorescents (PhOLED), fluorescence activée thermiquement (TADF), ou encore techniques de fabrication innovantes comme le Max OLED et l’Inkjet OLED. Mais une nouvelle percée pourrait changer la donne. D’après une étude publiée dans la revue Nature, une équipe des universités de Cambridge et Manchester a mis au point un nouveau matériau révolutionnaire : le NON, basé sur une molécule de 1,3,5-oxadiazine. Son principal atout ? Une synthèse bien moins complexe que celle des matériaux actuellement utilisés, le rendant plus stable, plus efficace et nettement moins coûteux à produire. On parle d’une réduction de coût de 100 fois par rapport aux solutions existantes ! Les premiers tests menés par le Groupe d’Optoélectronique de l’Université de Cambridge affichent des résultats impressionnants : l’émetteur NON atteint jusqu’à 21 % d’efficacité quantique externe (EQE), une avancée significative pour un émetteur fluorescent. Pour rappel, l’EQE mesure le rapport entre les photons émis et les électrons injectés, tandis que l’IQE (efficacité quantique interne) analyse ce rendement avant les pertes optiques.L’intégration du NON avec des émetteurs TADF (qui optimisent l’émission lumineuse en convertissant certains excitons en énergie exploitable) pourrait renforcer la durée de vie du pixel bleu, et donc, des écrans OLED dans leur ensemble. Si cette innovation tient ses promesses, elle pourrait conduire à une nouvelle génération d’écrans OLED plus résistants, plus lumineux et plus économes en énergie. De quoi démocratiser encore davantage cette technologie, en la rendant plus accessible au grand public. Toutefois, il reste encore des tests à grande échelle à réaliser avant de valider définitivement l’impact du matériau NON sur la durabilité des écrans et sa capacité à freiner le burn-in.Vers des baisses massives des factures d’électricité ?
02:34|C’est une petite révolution qui s’annonce pour 40 % des ménages français. La Commission de régulation de l’énergie (CRE) a annoncé une refonte majeure des heures creuses, un dispositif qui permet de bénéficier de l’électricité à prix réduit à certaines heures de la journée.L’objectif ? Adapter la consommation à la production d’énergie renouvelable, notamment solaire, tout en répondant aux nouveaux modes de vie comme le télétravail. Dès novembre 2025, les horaires actuels vont peu à peu disparaître. Exit les créneaux matinaux entre 7h et 10h en été (11h en hiver) et les heures creuses du soir entre 17h et 21h en hiver (18h-23h en été). À la place, un nouveau schéma verra le jour :-des heures creuses nocturnes, de 23h à 7h-des heures creuses en journée, de 11h à 17hUne grande nouveauté de cette réforme : une flexibilité saisonnière. Les périodes d’heures creuses seront modulées différemment entre l’été (1er avril - 31 octobre) et l’hiver (1er novembre - 31 mars). Certains foyers auront uniquement des heures creuses la nuit en hiver, tandis qu’en été, l’offre pourra être répartie entre jour et nuit. Pour faciliter l’adaptation, les compteurs Linky joueront un rôle clé. Par exemple, les ballons d’eau chaude seront automatiquement reprogrammés pour fonctionner pendant les nouvelles heures creuses, garantissant aux consommateurs leurs huit heures quotidiennes à tarif réduit.Cette réforme vise à mieux absorber la montée en puissance de l’énergie solaire en France. La production électrique, historiquement nucléaire et nocturne, devient de plus en plus diurne et renouvelable. Résultat : des tarifs avantageux en journée pour inciter les consommateurs à adapter leurs usages. La CRE assure que ceux qui joueront le jeu en programmant leurs appareils électroménagers ou la recharge de leur voiture électrique pendant ces nouvelles plages horaires bénéficieront de réductions significatives. Les fournisseurs d’énergie s’engagent à prévenir chaque client au moins un mois avant tout changement d’horaires. Une transition qui, en théorie, devrait se faire en douceur, mais qui marque un tournant dans la gestion énergétique française.Le TGV M de la SNCF ne roulera toujours pas cette année ?
02:23|Si vous comptiez embarquer à bord du TGV M, la cinquième génération de trains à grande vitesse, dès 2025 pour relier Paris à Marseille, il faudra patienter encore un peu. La SNCF visait une mise en service dans le courant de l’année, mais selon le syndicat SUD-Rail, les premiers voyages commerciaux n’auront finalement lieu qu’au début de 2026, soit près de neuf ans après la commande initiale auprès d’Alstom.Pourquoi un tel retard ? D’après Les Échos, les essais techniques du TGV M ont rencontré plusieurs obstacles. L’un des principaux défis concerne le "greffon", un module à batterie innovant censé garantir l’autonomie électrique du train en cas de panne. Problème : le système a présenté des dysfonctionnements imprévus. D’autres ajustements techniques ont également été nécessaires. Les ingénieurs ont dû composer avec des vibrations excessives à haute vitesse et une usure prématurée des roues. Autant de problèmes que la SNCF ne souhaite pas prendre à la légère, préférant prolonger la phase de test pour garantir une fiabilité optimale.La compagnie ferroviaire a ainsi décidé de repousser le calendrier afin de tester les rames dans leur configuration définitive sur un million de kilomètres en pré-exploitation. Une phase cruciale, qui débutera au printemps 2025, avant une entrée en service annoncée au plus tard début 2026. Les premiers trajets commerciaux concerneront l’axe Paris-Lyon-Marseille, avec 12 rames mises en circulation la première année, puis 15 rames supplémentaires en 2027 et 2028. Malgré ce retard, le TGV M promet une expérience totalement repensée. Son atout majeur ? Une capacité modulable : le train pourra s’adapter à l’affluence en passant de sept à neuf voitures, avec une capacité de 600 à 1 200 passagers en version INOUI, et de 740 à 1 080 places en version OUIGO.Côté confort, les voyageurs profiteront d’un bar sur deux niveaux, d’un Wi-Fi ultra-performant et de portes électriques silencieuses. Autre avancée majeure : la maintenance prédictive, optimisée grâce à des capteurs intelligents et un traitement des données en temps réel, permettant une augmentation significative du kilométrage annuel des rames. Avec un investissement total de 3,5 milliards d’euros pour 115 rames, la SNCF mise gros sur ce train du futur. Malgré le retard, ce projet reste une avancée majeure pour le transport ferroviaire français.IA : Un Observatoire mondial pour analyser la menace environnementale ?
02:10|L’intelligence artificielle générative est en pleine explosion, et avec elle, son impact écologique. Face à cette réalité préoccupante, l’École Normale Supérieure (ENS-PSL) et Capgemini lancent un Observatoire mondial dédié à l’empreinte environnementale de l’IA. Objectif : mesurer, analyser et réduire la consommation énergétique des modèles d’IA, dont certains peuvent utiliser jusqu’à 4 600 fois plus d’énergie que les modèles traditionnels. Les chiffres sont alarmants : selon les dernières études de Capgemini, la consommation énergétique des grands modèles d’IA pourrait augmenter de 2 440 % d’ici 2030 dans les scénarios les plus pessimistes. L’essor de l’IA générative soulève ainsi une question cruciale : comment concilier avancées technologiques et responsabilité environnementale ?C’est précisément la mission de ce nouvel Observatoire, qui ambitionne de développer une méthodologie standardisée pour évaluer l’impact écologique de l’IA, de son entraînement jusqu’à sa fin de vie. Une approche inédite qui permettra d’établir une base de données mondiale en accès libre, rassemblant des informations essentielles pour les chercheurs, les développeurs et les décideurs.L’Observatoire réunit des experts venus d’horizons variés : universitaires, industriels et membres de la société civile. Leur travail consistera à identifier les meilleures pratiques et à favoriser la transparence et le partage de données pour guider les choix des acteurs publics et privés. Capgemini, de son côté, met à profit son expertise en IA durable. Ses enquêtes, menées auprès de 2 000 cadres dirigeants dans une quinzaine de pays, confirment l’urgence d’adopter des pratiques plus responsables. Cette initiative s’inscrit dans une dynamique plus large de développement responsable de l’IA, portée par l’ENS-PSL et l’Institut IA & Société. Mais suffira-t-elle à faire bouger les lignes ?Un datacenter qui chauffera 6 000 logements pendant 20 ans ?
03:14|Le fournisseur cloud suisse Infomaniak marque un tournant dans l’industrie des centres de données avec son tout nouveau data center, le D4. Inauguré le 27 janvier 2025, ce centre de 1 800 m², construit sous un écoquartier de Genève, affiche des performances énergétiques inédites. Son ambition ? Transformer l’un des secteurs les plus énergivores du numérique en un modèle d’efficacité et de durabilité.Depuis le 11 novembre 2024, le D4 ne se contente pas de consommer de l’électricité, il revalorise 100 % de l’énergie qu’il utilise. Sa chaleur résiduelle est injectée dans le réseau de chauffage urbain, permettant d’alimenter 6 000 ménages pendant au moins vingt ans ou encore de fournir l’eau chaude nécessaire à 20 000 douches quotidiennes.Son efficacité énergétique repose sur un ingénieux système de refroidissement :-l’air à 28°C, issu des pompes à chaleur, refroidit les serveurs via des allées froides.-l’air chaud, capté à 45°C, est ensuite acheminé vers un échangeur air/eau sophistiqué.-deux pompes à chaleur françaises (Trane) de 1,7 MW chacune élèvent la température de l’eau à 85°C en hiver pour le chauffage urbain.Résultat : 3 600 tonnes de CO₂ évitées par an, soit l’équivalent des émissions générées par le gaz naturel nécessaire au chauffage de ces logements.Avec un PUE (Power Usage Effectiveness) exceptionnel de 1,09, bien en dessous de la moyenne européenne (1,6), le D4 se classe parmi les centres de données les plus efficients au monde.L’alimentation électrique repose sur une infrastructure robuste :-trois transformateurs convertissent le courant de 18 000 volts en 230 volts.-deux blocs de six onduleurs à 99 % de rendement assurent une alimentation stable.-des batteries de secours prennent le relais en cas d’incident.-un système de ventilation brushless optimise la gestion thermique.Même en pleine canicule, le free-cooling maintient le refroidissement des serveurs jusqu’à 36°C, garantissant une performance constante.Infomaniak ne s’arrête pas là. Son data center est équipé d’une centrale solaire de 130 kWc, composée de 364 panneaux photovoltaïques, renforçant ainsi son autonomie énergétique.La connectivité est elle aussi optimisée :-deux paires de fibre optique garantissent la liaison des 10 000 serveurs avec le reste du monde.Récompensé en 2023 par le Prix Suisse de l’Éthique et le Prix du Développement Durable du canton de Genève, le D4 est un modèle ouvert. Toute sa documentation technique est disponible gratuitement sur d4project.org, incitant d’autres acteurs à adopter cette approche écologique.Face à la demande croissante du cloud (+20 % par an), Infomaniak voit plus grand. L’entreprise prévoit déjà un nouveau centre d’au moins 3,3 MW d’ici 2028, ainsi qu’un projet d’1,1 MW supplémentaire pour un autre réseau de chaleur. Avec le D4, Infomaniak prouve qu’un data center peut être bien plus qu’un gouffre énergétique. Il devient un acteur clé de la transition énergétique, en conciliant innovation technologique et impact environnemental positif.