Partager

Choses à Savoir TECH VERTE
Antarctique : un « point de bascule » bientôt franchi ?
Les scientifiques alertent sur un nouveau "point de bascule" imminent : l'Antarctique pourrait entrer dans une phase de "fonte incontrôlée" de ses calottes glaciaires. Cette mise en garde provient d'une étude publiée mardi 25 juin dans la revue Nature Geoscience. Les vastes calottes de l'Antarctique, reposant sur un socle rocheux et s'étendant au-delà des côtes pour flotter sur l'océan, sont de plus en plus vulnérables à l'infiltration de l'eau de mer réchauffée par le changement climatique.
Des recherches antérieures avaient déjà montré que l'eau de mer, chauffée par les activités humaines, pouvait s'infiltrer à la jonction terre-mer, progressant sous la glace et provoquant une fonte accélérée. L'étude récente confirme cette hypothèse et la quantifie à travers des modèles. L'eau de mer réchauffée pénètre sous la glace, accélérant la fonte sur des distances allant de 100 mètres à plusieurs dizaines de kilomètres. "Cela pourrait déclencher un point de bascule, au-delà duquel l'infiltration de l'eau océanique sous la calotte glaciaire deviendrait illimitée, entraînant une fonte incontrôlée", explique Alexander Bradley, auteur principal de l'étude. Une telle situation pourrait provoquer une élévation significative du niveau de la mer, surpassant la formation de nouvelle glace, et menaçant les populations côtières mondiales.
Les modèles actuels du Groupe d'experts intergouvernemental sur l'évolution du climat (GIEC) n'ont pas intégré ce phénomène crucial, sous-estimant systématiquement la perte de glace observée jusqu'à présent. L'étude insiste sur la nécessité de mettre à jour ces modèles. En mai, la température moyenne des océans a atteint un record de 20,93°C pour le 14e mois consécutif, selon le réseau européen Copernicus. "Chaque dixième de degré supplémentaire rapproche ces points de bascule, les rendant de plus en plus probables", prévient Bradley.
More episodes
View all episodes
ChatGPT n’est pas plus énergivore qu’une recherche Google ?
02:00|Les intelligences artificielles comme ChatGPT sont souvent pointées du doigt pour leur consommation électrique supposée excessive. Une étude largement relayée affirmait qu’une requête sur ChatGPT nécessitait dix fois plus d’énergie qu’une recherche Google. Mais la réalité semble moins alarmante que ce que l’on croyait. Selon un rapport de l’institut Epoch AI, cité par TechCrunch, ces estimations seraient surestimées. L’étude s’appuie sur le modèle GPT-4o, dernière version déployée par OpenAI, et conclut que chaque requête consomme environ 0,3 wattheure, bien loin des 3 wattheures précédemment avancés.Joshua You, analyste de données chez Epoch AI, explique que ces chiffres erronés provenaient d’anciennes études basées sur des puces moins efficaces et des modèles d’IA plus énergivores. Depuis, la technologie a évolué, avec des algorithmes optimisés et une meilleure gestion des ressources. Alors, faut-il vraiment s’inquiéter de l’impact énergétique de l’IA ? Pas selon You, qui relativise : « La consommation d’énergie de ChatGPT reste bien inférieure à celle d’un appareil électroménager classique, du chauffage ou de la conduite d’une voiture. »Cependant, il met en garde contre l’évolution rapide du secteur. Plus l’IA deviendra performante, plus ses usages se multiplieront et demanderont des ressources accrues. L’entraînement des futurs modèles nécessitera sans doute davantage d’énergie, et l’adoption massive de ces technologies pourrait renverser la tendance actuelle. En somme, si ChatGPT n’est pas encore un gouffre énergétique, l’essor de l’IA soulève un enjeu majeur pour l’avenir : trouver un équilibre entre innovation et sobriété énergétique.Étude d'Epoch AI (anglais ) : https://epoch.ai/gradient-updates/how-much-energy-does-chatgpt-useEDF prêt à accueillir tous les nouveaux data centers IA ?
03:11|Alors que Donald Trump moquait la France en la qualifiant de pays sans gaz ni pétrole, Emmanuel Macron lui a répondu avec une pointe d’humour. « Plug, baby, plug », a-t-il lancé lors du sommet sur l’intelligence artificielle. Une manière de rappeler que l’électricité décarbonée française, issue du nucléaire et des renouvelables, représente un atout stratégique pour l’IA et l’industrie. Car l’intelligence artificielle est très énergivore, et les géants du secteur cherchent à implanter leurs data centers dans des pays capables de répondre à cette demande croissante. EDF entend bien tirer parti de cette opportunité et a dévoilé une stratégie ambitieuse pour accueillir ces infrastructures en France. Avec des terrains disponibles, une électricité bas carbone et des infrastructures existantes, l’énergéticien français a de solides arguments pour séduire les acteurs du numérique.La France dispose aujourd’hui d’un avantage majeur : son mix électrique faiblement carboné et sa stabilité énergétique. EDF, troisième propriétaire foncier du pays après l’État et la SNCF, possède 45 000 hectares de terrain disponibles, de quoi attirer les investisseurs en quête d’espaces pour leurs infrastructures. À titre de comparaison, d’autres pays européens, comme l’Irlande, peinent à satisfaire la demande énergétique des centres de données. Aux États-Unis, la solution envisagée est encore la construction de nouvelles centrales à gaz. La France, elle, bénéficie d’une production électrique décarbonée à 95%, avec une hausse annuelle de 2% en moyenne.EDF a d’ailleurs déjà identifié six sites clés pour accueillir ces futurs centres de données. Parmi eux, des friches industrielles en Île-de-France, Grand Est et Rhône-Alpes, totalisant 150 hectares. Un atout considérable, ces terrains étant déjà raccordés au réseau électrique et équipés des transformateurs nécessaires. Une offre presque "clé en main", selon Le Figaro. Pour EDF, l’implantation de ces data centers représente bien plus qu’une simple opportunité. L’entreprise prévoit de diversifier ses revenus, non seulement grâce à la vente d’électricité, mais aussi par la location des terrains. Un appel à manifestation d’intérêt va être lancé auprès des opérateurs, avec des premiers chantiers prévus dès 2026. Les ambitions sont élevées : sur les seuls sites d’EDF, les capacités installées pourraient dépasser 2 GW, soit 17 TWh de consommation annuelle. Un chiffre supérieur aux prévisions initiales de 20 TWh pour l’ensemble des sites retenus par l’État. Un point mérite cependant d’être souligné : les data centers fonctionnent 24h/24, ce qui s’adapte parfaitement à la production continue des centrales nucléaires. Mais leur manque de flexibilité en cas de pics de consommation pourrait poser problème. EDF se veut rassurant et affirme pouvoir gérer cette contrainte sans compromettre l’approvisionnement des autres clients industriels. La France pourrait donc bien devenir un nouveau hub énergétique pour l’IA en Europe, avec EDF en premier fournisseur des géants du numérique.La réputation du Cybertruck de Tesla en péril ?
02:34|Déjà pointé du doigt pour plusieurs défaillances techniques, le Cybertruck de Tesla fait à nouveau parler de lui pour des raisons bien plus inquiétantes. Selon FuelArc, site spécialisé dans les voitures électriques, le pick-up électrique d’Elon Musk présenterait un risque d’incendie mortel 17 fois supérieur à celui de la Ford Pinto, tristement célèbre pour ses explosions dans les années 1970. Depuis son lancement, le Cybertruck a déjà fait l'objet de plusieurs rappels, concernant notamment les essuie-glaces, les pédales d’accélération et la batterie. De nombreux propriétaires rapportent avoir vu leur véhicule remplacé sans explication par Tesla. Mais c’est surtout la sécurité incendie qui suscite les plus vives inquiétudes. D’après FuelArc, cinq décès liés à des incendies impliquant le Cybertruck ont été recensés sur la dernière année.« Nous disposons désormais d'une année complète de données et d'une étrange prépondérance de Cybertrucks prenant feu, entraînant plusieurs décès. C’est plus qu’il n’en faut pour établir une comparaison avec la Ford Pinto », affirme un analyste du site.Pour parvenir à cette estimation, FuelArc a croisé deux indicateurs :-le nombre de véhicules vendus, estimé à 34 438 Cybertrucks, contre 3 173 491 Ford Pinto commercialisées jusqu’à l’arrêt du modèle en 1980.-le nombre d’incendies mortels signalés pour chaque modèle.Résultat : FuelArc calcule un taux de décès par incendie de 14,52 pour 100 000 Cybertrucks, contre 0,85 pour la Pinto, un chiffre alarmant.Des chiffres à relativiser cependant. Tesla ne communique pas officiellement sur les volumes exacts de production et de ventes du Cybertruck. FuelArc s’appuie donc sur les estimations d’un expert indépendant.Autre sujet de préoccupation : le Cybertruck n’a jamais été soumis aux crash-tests indépendants de la National Highway Traffic Safety Administration (NHTSA), l’agence américaine de sécurité routière. Tesla n’a d’ailleurs pas publié les résultats de ses propres tests internes, laissant planer le doute sur la sécurité réelle de son imposant véhicule de plus de trois tonnes. Bien qu’il ait été présenté en France, le Cybertruck n’est toujours pas autorisé sur les routes hexagonales. Plusieurs obstacles réglementaires et techniques empêchent pour l’instant sa commercialisation, tandis que les interrogations autour de sa sécurité et de sa fiabilité persistent.Solicaz restaure sur-mesure les terres dégradées ?
02:06|40 % des terres de la planète sont dégradées. C’est le constat alarmant dressé par la Convention des Nations Unies pour la lutte contre la désertification. Pollution, déforestation, épuisement des sols : ces dégradations menacent la moitié de l’humanité et près de 50 % du PIB mondial. Mais une entreprise guyanaise, Solicaz, œuvre pour inverser la tendance. À sa tête, Élodie Brunstein, spécialiste en agro-environnement, installée en Guyane depuis les années 2000. Confrontée aux ravages de l’exploitation minière sur l’écosystème amazonien, elle s’est rapprochée des scientifiques de l’UMR EcoFoG pour développer une solution unique.Solicaz intervient auprès des exploitants qui souhaitent restaurer leurs terrains. L’objectif ? Recréer un cycle écologique en imitant le fonctionnement naturel des écosystèmes. Comment ? En associant des plantes adaptées :-des fixatrices d’azote, pour enrichir les sols,-des espèces fruitières et à graines, pour attirer la faune et favoriser la biodiversité.Deuxième volet de l’activité : la mise au point de biostimulants. Ces produits, conçus en laboratoire à partir d’échantillons prélevés sur le terrain, permettent d’améliorer la croissance des plantes tout en réduisant l’usage des intrants chimiques.Les résultats sont spectaculaires :50 % d’économie d’eau sur les cultures de salade à la Réunion // 65 % d’augmentation de croissance dans des bananeraies // et jusqu’à 70 % de gain de productivité sur certaines exploitations.Solicaz ne se limite pas à l’Amazonie. Son expertise s’étend désormais au Brésil, où l’entreprise collabore avec les autorités et universités locales sur la restauration des pâturages, l’une des priorités du gouvernement Lula. L’innovation dépasse même les frontières tropicales. À Djibouti, Solicaz teste ses méthodes en milieu désertique, tandis qu’au Pérou, un biostimulant réduit la présence de cadmium dans le cacao. Face à ces succès, Solicaz franchit une étape clé : la création d’une unité de production industrielle en Guyane et l’implantation d’équipes au Brésil, en Océanie et en Afrique d’ici cinq ans.Les Vosges créent les forêts du futur ?
02:28|À 600 mètres d’altitude, dans un bois rocailleux de la vallée de Munster (Haut-Rhin), une petite révolution est en marche. Sur une parcelle de 6,5 hectares, un employé de la coopérative "Forêt d'ici" sème les dernières graines d’un projet inédit : tester de nouvelles essences d’arbres capables de résister au changement climatique. Sous le regard attentif de Claude Michel, du Parc régional des Ballons des Vosges, cette forêt devient un laboratoire à ciel ouvert. Propriétaire du terrain depuis 2018, Bernard Naegel a voulu anticiper l’impact du réchauffement sur les forêts vosgiennes. "Le changement climatique est une grande interrogation. Pourquoi ne pas expérimenter pour mieux s’y préparer ?", explique-t-il. L’enjeu est crucial : selon Météo France, la température en 2100 pourrait dépasser de 4 °C celle de l’ère préindustrielle, mettant en péril une large partie des 17 millions d’hectares de forêt française.La parcelle est divisée en plusieurs zones d’expérimentation. Première approche : la régénération naturelle. Les arbres adultes déjà présents – hêtres, sapins et épicéas – vont produire des graines qui se disperseront librement, permettant d’observer leur capacité d’adaptation. Deuxième axe : l’introduction de nouvelles essences. Dans de petits enclos en bois, des espèces venues de climats plus chauds prennent racine. Châtaigniers, érables, pins laricios de Corse grandissent aux côtés des essences locales pour former une "forêt mosaïque". Un écosystème plus diversifié, où les arbres se protègent mutuellement et limitent la propagation des maladies.Les forêts françaises souffrent déjà des effets du changement climatique. L’épicéa, par exemple, est ravagé par le scolyte, un parasite dont la prolifération est exacerbée par la hausse des températures. "Il y a une augmentation importante des récoltes d'arbres morts", observe Hubert Schmuck, expert à l'ONF dans le Grand Est. Selon l’Office national des forêts (ONF), seule la moitié des forêts françaises pourra s’adapter aux conditions climatiques de 2100. Contrairement aux forêts publiques, où l’ONF pilote des plans d’adaptation, les forêts privées, qui couvrent 75 % du territoire métropolitain, sont gérées librement par leurs propriétaires. L’objectif de cette expérimentation est donc clair : inciter les propriétaires privés à prendre les devants. Le projet, d’un coût total de 665 000 euros, est financé en partie par des partenaires locaux. Le producteur d’eau minérale Wattwiller apporte 30 000 euros, la Collectivité européenne d’Alsace 20 000 euros, le reste étant à la charge du propriétaire.Les scientifiques inquiets de la cohabitation éoliennes / volcans ?
02:50|Et si les éruptions volcaniques avaient un impact direct sur notre production d’énergie éolienne ? Une étude récente, publiée en janvier dans la revue The Innovation, met en lumière un phénomène méconnu : l’influence des aérosols volcaniques sur le vent de surface, ce vent qui circule entre zéro et dix mètres au-dessus du sol et dont dépendent les éoliennes. Ce vent de surface, dont la vitesse est scrutée de près par les chercheurs et les énergéticiens, est essentiel au fonctionnement des éoliennes. Lorsque ce vent faiblit, les pales cessent de tourner et la production d’électricité chute. Or, parmi les nombreux facteurs influençant cette vitesse, la présence d’aérosols dans l’atmosphère joue un rôle majeur. Ces fines particules dispersent le rayonnement solaire, modifiant ainsi le bilan radiatif de la Terre et, par extension, le climat et la circulation des vents. C’est là qu’interviennent les éruptions volcaniques. Ces événements spectaculaires projettent dans la stratosphère d’énormes quantités de dioxyde de soufre, qui se transforment en aérosols sulfatés capables de perturber le climat pendant plusieurs années.Pour mieux comprendre cet impact, une équipe de chercheurs suédois et chinois a utilisé des modèles informatiques pour simuler l’effet des plus grandes éruptions volcaniques tropicales des derniers siècles. Résultat : l’éruption du volcan Tambora en 1815 aurait réduit de 9,2 % la densité de puissance éolienne mondiale dans les deux années qui ont suivi. Les implications sont loin d’être anecdotiques. Comme le souligne l’étude, une baisse prolongée de la vitesse du vent pourrait entraîner des crises énergétiques, notamment pour les pays misant massivement sur l’éolien.Au-delà des volcans, cette étude soulève aussi des questions sur une technologie controversée : la géoingénierie solaire. Cette technique, qui consiste à pulvériser du dioxyde de soufre dans la stratosphère pour refroidir la planète, imiterait artificiellement l’effet des éruptions volcaniques. Son objectif : lutter contre le réchauffement climatique en augmentant la réflexion des rayons solaires vers l’espace. Mais cette solution pourrait affaiblir les vents et réduire la production d’électricité éolienne. Un risque d’autant plus préoccupant que l’éolien représentait 8 % de la production électrique mondiale en 2023, selon l’Agence internationale de l’énergie.Au-delà des impacts climatiques et énergétiques, la géoingénierie solaire pose aussi une question politique. Marine de Guglielmo Weber, ancienne chercheuse à l’Institut de relations internationales et stratégiques (IRIS), rappelait en 2023 que le déploiement unilatéral de cette technologie par un pays ou une entreprise pourrait engendrer des tensions internationales. L’atmosphère, bien commun de l’humanité, pourrait-elle devenir un nouvel enjeu de conflit entre États ? Face à ces enjeux, la communauté scientifique appelle à un débat mondial sur les risques et bénéfices de la géoingénierie, alors que le changement climatique continue de bouleverser nos équilibres énergétiques.Les Chinois ne veulent pas des voitures électriques européennes ?
02:07|Pendant des décennies, la Chine a été un marché clé pour l’industrie automobile allemande. BMW, Audi, Volkswagen, Mercedes et Porsche y écoulaient leurs voitures thermiques avec des marges confortables, s’imposant comme des références sur les routes chinoises. Mais l’essor fulgurant du véhicule électrique est en train de rebattre les cartes, et les marques allemandes en font les frais.La Chine domine aujourd’hui le secteur du véhicule électrique, et l’engouement du marché local s’accélère. En 2023, 37 % des voitures vendues dans le pays étaient électriques ou hybrides. En 2024, cette part a bondi à 47 %, et les projections pour 2025 indiquent une barre symbolique des 50 %. Un virage brutal pour les constructeurs allemands, qui représentaient encore 25 % du marché chinois avant la pandémie. En 2024, leur part dans le segment électrique n’est plus que de 3 % (5 % en comptant les importations). Une véritable dégringolade, face à des marques chinoises ultra-compétitives.Face à cette concurrence redoutable, l’Europe accuse la Chine de fausser le jeu avec des prix subventionnés et envisage d’imposer des droits de douane élevés sur les véhicules chinois. Mais le temps presse : les constructeurs asiatiques grignotent déjà des parts de marché en Europe, séduisant les consommateurs avec des modèles plus abordables et technologiquement avancés. L’industrie automobile est-elle en train de basculer ? Jusqu’ici, l’Allemagne exportait massivement ses voitures vers la Chine. Mais demain, verrons-nous davantage de véhicules chinois sur nos routes que de modèles européens sur le sol chinois ? Une hypothèse qui, il y a encore dix ans, aurait semblé improbable… et qui est aujourd’hui plus crédible que jamais.Un matériau OLED "100 fois moins couteux" pour les écrans ?
02:34|La technologie OLED est plébiscitée pour sa qualité d’image exceptionnelle et ses noirs profonds, mais elle souffre d’un point faible persistant : la fragilité du pixel bleu. À cause de sa longueur d’onde plus courte, ce dernier se dégrade plus rapidement que ses homologues rouge et vert, provoquant une perte progressive de luminosité et un déséquilibre des couleurs. Un phénomène qui, à terme, contribue au burn-in, un vieillissement irrémédiable de l’écran.Pour remédier à ce problème, les chercheurs explorent depuis plusieurs années diverses solutions technologiques : émetteurs phosphorescents (PhOLED), fluorescence activée thermiquement (TADF), ou encore techniques de fabrication innovantes comme le Max OLED et l’Inkjet OLED. Mais une nouvelle percée pourrait changer la donne. D’après une étude publiée dans la revue Nature, une équipe des universités de Cambridge et Manchester a mis au point un nouveau matériau révolutionnaire : le NON, basé sur une molécule de 1,3,5-oxadiazine. Son principal atout ? Une synthèse bien moins complexe que celle des matériaux actuellement utilisés, le rendant plus stable, plus efficace et nettement moins coûteux à produire. On parle d’une réduction de coût de 100 fois par rapport aux solutions existantes ! Les premiers tests menés par le Groupe d’Optoélectronique de l’Université de Cambridge affichent des résultats impressionnants : l’émetteur NON atteint jusqu’à 21 % d’efficacité quantique externe (EQE), une avancée significative pour un émetteur fluorescent. Pour rappel, l’EQE mesure le rapport entre les photons émis et les électrons injectés, tandis que l’IQE (efficacité quantique interne) analyse ce rendement avant les pertes optiques.L’intégration du NON avec des émetteurs TADF (qui optimisent l’émission lumineuse en convertissant certains excitons en énergie exploitable) pourrait renforcer la durée de vie du pixel bleu, et donc, des écrans OLED dans leur ensemble. Si cette innovation tient ses promesses, elle pourrait conduire à une nouvelle génération d’écrans OLED plus résistants, plus lumineux et plus économes en énergie. De quoi démocratiser encore davantage cette technologie, en la rendant plus accessible au grand public. Toutefois, il reste encore des tests à grande échelle à réaliser avant de valider définitivement l’impact du matériau NON sur la durabilité des écrans et sa capacité à freiner le burn-in.Vers des baisses massives des factures d’électricité ?
02:34|C’est une petite révolution qui s’annonce pour 40 % des ménages français. La Commission de régulation de l’énergie (CRE) a annoncé une refonte majeure des heures creuses, un dispositif qui permet de bénéficier de l’électricité à prix réduit à certaines heures de la journée.L’objectif ? Adapter la consommation à la production d’énergie renouvelable, notamment solaire, tout en répondant aux nouveaux modes de vie comme le télétravail. Dès novembre 2025, les horaires actuels vont peu à peu disparaître. Exit les créneaux matinaux entre 7h et 10h en été (11h en hiver) et les heures creuses du soir entre 17h et 21h en hiver (18h-23h en été). À la place, un nouveau schéma verra le jour :-des heures creuses nocturnes, de 23h à 7h-des heures creuses en journée, de 11h à 17hUne grande nouveauté de cette réforme : une flexibilité saisonnière. Les périodes d’heures creuses seront modulées différemment entre l’été (1er avril - 31 octobre) et l’hiver (1er novembre - 31 mars). Certains foyers auront uniquement des heures creuses la nuit en hiver, tandis qu’en été, l’offre pourra être répartie entre jour et nuit. Pour faciliter l’adaptation, les compteurs Linky joueront un rôle clé. Par exemple, les ballons d’eau chaude seront automatiquement reprogrammés pour fonctionner pendant les nouvelles heures creuses, garantissant aux consommateurs leurs huit heures quotidiennes à tarif réduit.Cette réforme vise à mieux absorber la montée en puissance de l’énergie solaire en France. La production électrique, historiquement nucléaire et nocturne, devient de plus en plus diurne et renouvelable. Résultat : des tarifs avantageux en journée pour inciter les consommateurs à adapter leurs usages. La CRE assure que ceux qui joueront le jeu en programmant leurs appareils électroménagers ou la recharge de leur voiture électrique pendant ces nouvelles plages horaires bénéficieront de réductions significatives. Les fournisseurs d’énergie s’engagent à prévenir chaque client au moins un mois avant tout changement d’horaires. Une transition qui, en théorie, devrait se faire en douceur, mais qui marque un tournant dans la gestion énergétique française.