Partager

cover art for L’IA fait exploser la consommation en eau ?

Choses à Savoir TECH VERTE

L’IA fait exploser la consommation en eau ?

Avec le boom de l'IA générative, la consommation d'eau des entreprises de la tech ne cesse de grimper. En 2022, Microsoft a augmenté sa consommation d'eau de 34 %, Google de 22 % et Meta de 3 %. Selon Shaolei Ren, professeur à l'université de Californie, réaliser entre 10 et 50 réponses à ChatGPT, alimenté par GPT-3.5, équivaudrait à « boire » une bouteille d'eau de 500 ml.

Pour être clair, la demande croissante en IA risque d'entraîner une augmentation de l'extraction de l'eau de 4,2 à 6,6 milliards de mètres cubes d'ici 2027 d’après les estimations des chercheurs, ce qui équivaut à la moitié de la quantité consommée par la population du Royaume-Uni chaque année. Je cite Kate Crawford, spécialiste de l'IA et professeur à l'université de Californie du Sud, « d'ici quelques années, les grands systèmes d'intelligence artificielle auront probablement besoin d'autant d'énergie que des pays entiers » fin de citation. Le problème est d'autant plus grave dans un contexte de pénurie d'eau douce de plus en plus récurrentes, d'aggravation des sécheresses et du vieillissement rapide des infrastructures publiques d'approvisionnement en eau.

D’ailleurs, les entreprises concernées reconnaissent la situation. Je cite OpenAI, « nous reconnaissons que l'entraînement de grands modèles peut être gourmand en eau, et c'est l'une des raisons pour lesquelles nous travaillons constamment à améliorer l'efficacité » fin de citation. À noter que leurs modèles fonctionnent grâce aux serveurs de Microsoft. Si les opérateurs de centres de données ont d’ailleurs pour objectif de réinjecter plus d'eau que leurs installations n'en consomment d'ici 2030, les autorités sont également au courant du problème. Début février, des élus démocrates américains ont présenté une loi sur les impacts environnementaux de l'intelligence artificielle, qui inclut, notamment, la création de normes pour évaluer les effets de la technologie sur l'environnement.

Cependant, ce n'est pas assez selon les experts. Pour Kate Crawford que je cite à nouveau, « si l’on veut s'attaquer véritablement aux incidences de l'IA sur l'environnement, il est nécessaire d'adopter une approche à multiples facettes incluant l'industrie de l'IA, les chercheurs et les législateurs » fin de citation. Elle appelle également les fournisseurs d'IA à collaborer avec des spécialistes des sciences sociales et environnementales pour orienter les conceptions techniques vers une plus grande durabilité écologique. Car outre l'eau, les centres de données nécessitent aussi de grandes capacités d'énergie. D'ici 2026, la consommation d'électricité des datacenters en Europe devrait augmenter de 50 %, d’après l'Agence internationale de l'énergie.

More episodes

View all episodes

  • La charge rapide ne détruit pas les batteries finalement ?

    03:00|
    Faut-il redouter la recharge rapide quand on roule en électrique ? La question revient sans cesse, à mesure que les bornes ultrapuissantes se multiplient sur les routes. Pour y voir clair, Geotab, spécialiste de la gestion de flottes connectées, a publié une étude d’ampleur fondée sur les données de 22 700 véhicules électriques. Verdict : les batteries tiennent plutôt bien le choc, même si les recharges express ne sont pas totalement neutres.Premier enseignement : la perte moyenne de capacité atteint aujourd’hui 2,3 % par an. C’est un peu plus qu’en 2024, où Geotab mesurait 1,8 %. Cette hausse s’explique par des usages plus intensifs : davantage de kilomètres parcourus, plus de bornes rapides utilisées, et des véhicules désormais pleinement intégrés à la vie quotidienne. Concrètement, une batterie de 60 kWh qui descend à 80 % de santé équivaut encore à 48 kWh disponibles. L’autonomie baisse progressivement, mais reste largement suffisante pour les trajets courants. Rien d’alarmant, donc. Pour Charlotte Argue, responsable de la mobilité durable chez Geotab, « les batteries conservent des performances solides bien au-delà des horizons de remplacement souvent anticipés par les flottes ». L’analyse couvre 21 marques et modèles suivis sur plusieurs années grâce à la télématique embarquée.Le point sensible reste la recharge rapide. Les véhicules qui s’y appuient majoritairement, à plus de 100 kW, peuvent voir la dégradation grimper jusqu’à 3 % par an. À l’inverse, ceux qui privilégient la recharge lente à domicile tournent autour de 1,5 %. Faut-il alors bannir les bornes rapides ? Pas vraiment. Pour les professionnels et les gros rouleurs, le gain de temps et la meilleure disponibilité des véhicules compensent largement l’usure légèrement supérieure, au point de réduire le coût total par kilomètre sur la durée de vie.D’autres facteurs jouent, mais restent secondaires : le climat chaud ajoute environ 0,4 % de dégradation annuelle, l’usage intensif 0,8 %. La puissance de recharge demeure donc le levier principal. Bonne nouvelle : quelques ajustements suffisent. L’étude démonte au passage plusieurs idées reçues. Charger de presque vide à presque plein n’est pas un problème en soi. Ce qui fatigue vraiment la batterie, c’est de la laisser longtemps, et souvent, au-delà de 80 % ou en-dessous de 20 %. En clair, inutile de s’angoisser : rechargez doucement quand c’est possible, rapidement quand c’est nécessaire. Comme le résume Charlotte Argue, « tout est question d’équilibre entre contraintes opérationnelles et santé de la batterie ». Les données embarquées font le reste, pour ajuster ses habitudes sans se compliquer la vie.
  • L’entraînement des IA bientôt ultra-économe grâce aux « impulsions » ?

    02:42|
    L’intelligence artificielle générative repose aujourd’hui sur l’apprentissage profond, une technique qui imite, de loin, le fonctionnement du cerveau humain à l’aide de réseaux neuronaux artificiels. Mais là où notre cerveau se montre d’une sobriété remarquable, ces réseaux numériques se révèlent particulièrement gourmands en énergie, surtout lors de la phase d’entraînement, quand les modèles apprennent à reconnaître des images, du texte ou des sons. Un talon d’Achille bien connu, à l’heure où l’empreinte énergétique de l’IA inquiète de plus en plus.C’est précisément sur ce point que se sont penchés des chercheurs de l’Université de Bonn. Leur travail, publié dans la revue scientifique Physical Review Letters, explore une piste alternative : les réseaux de neurones à impulsions artificiels, appelés SNN pour Spiking Neural Networks. Une approche inspirée beaucoup plus directement du vivant. Dans le cerveau biologique, les neurones ne transmettent pas de signaux continus. Ils communiquent par de brèves impulsions électriques, envoyées uniquement lorsque cela est nécessaire. À l’inverse, les réseaux neuronaux classiques utilisés en IA fonctionnent en flux permanent, ce qui explique en grande partie leur appétit énergétique. Les SNN, eux, ne déclenchent une activité que lorsqu’un seuil est franchi. Résultat : une consommation potentiellement bien plus faible.Jusqu’à présent, un obstacle majeur freinait leur adoption. Dans les réseaux classiques, l’apprentissage repose sur l’ajustement progressif de l’intensité des connexions entre neurones : on passe par exemple de 0,9 à 0,8. Or, dans un réseau à impulsions, pas de demi-mesure : soit le neurone émet une impulsion, soit il reste silencieux. Impossible, pensait-on, d’y appliquer les méthodes d’entraînement traditionnelles. C’est là que l’équipe de Bonn a fait une découverte clé. Si l’intensité d’une impulsion ne peut pas varier, son timing, lui, le peut. Plus la connexion entre deux neurones est forte, plus l’impulsion est émise rapidement. En jouant sur cette temporisation, les chercheurs ont montré qu’il est possible d’ajuster l’influence d’un neurone sur un autre, et donc d’entraîner le réseau. « Nous pouvons utiliser les mêmes méthodes d’apprentissage conventionnelles, très efficaces, sur les réseaux à impulsions que nous avons étudiés », explique Christian Klos, l’un des auteurs.Les premiers résultats sont prometteurs : le réseau a déjà appris à reconnaître des chiffres manuscrits. Prochaine étape annoncée : la reconnaissance vocale. Si ces travaux se confirment à grande échelle, ils pourraient ouvrir la voie à des intelligences artificielles bien plus sobres, capables d’apprendre en consommant nettement moins d’énergie. Un changement discret, mais potentiellement décisif.
  • Meta signe le plus gros accord énergétique de la tech ?

    02:41|
    L’intelligence artificielle a un appétit vorace, et Meta a décidé d’y répondre avec une énergie qui ne connaît ni intermittence ni demi-mesure : le nucléaire. Pour alimenter ses data centers et ses supercalculateurs, le groupe de Meta vient de conclure trois accords majeurs aux États-Unis, mêlant prolongation de centrales existantes et financement de réacteurs de nouvelle génération. Objectif : sécuriser, sur plusieurs décennies, l’électricité nécessaire à ses ambitions dans l’IA.Premier pilier de cette stratégie, un partenariat avec TerraPower, la société fondée par Bill Gates. Meta va soutenir le développement de huit réacteurs Natrium, capables de monter jusqu’à 2,8 gigawatts de puissance, assortis de 1,2 gigawatt de stockage intégré. Les deux premières unités pourraient fournir 690 mégawatts dès 2032, les six suivantes devant entrer en service d’ici 2035. Ces réacteurs se distinguent par une conception pensée pour la flexibilité : plus sûrs, plus réactifs face aux variations de demande, et plus faciles à intégrer au réseau existant.Deuxième axe, l’alliance avec Oklo, spécialiste des petits réacteurs modulaires. L’entreprise prévoit de bâtir un véritable campus nucléaire dans le comté de Pike, dans l’Ohio. À terme, jusqu’à 1,2 gigawatt pourraient être injectés dans le réseau PJM dès 2030. Mais l’accord le plus spectaculaire concerne trois centrales nucléaires vieillissantes exploitées par Vistra : Perry et Davis-Besse, dans l’Ohio, et Beaver Valley, en Pennsylvanie. Menacées de fermeture, elles bénéficieront d’un contrat d’achat d’électricité sur vingt ans, garantissant 2,1 gigawatts stables, assortis d’extensions de capacité totalisant 433 mégawatts. Une puissance supplémentaire qui profitera à l’ensemble du réseau régional.Toute cette énergie converge vers une cible bien précise : Prometheus, le méga-centre de calcul IA de Meta à New Albany, appelé à fonctionner en continu. Contrairement aux renouvelables, le nucléaire offre un courant constant, indispensable pour entraîner des modèles d’IA à grande échelle. Meta insiste sur un point : l’entreprise finance intégralement ces accords, sans faire peser la charge sur les consommateurs locaux. Mieux, les nouvelles capacités ajoutées pourraient contribuer à stabiliser les prix de l’électricité et créer des milliers d’emplois. Avec cet investissement hors norme, complété par un précédent accord avec Constellation Energy pour prolonger la centrale de Clinton dans l’Illinois, Meta s’impose désormais comme l’un des moteurs privés du renouveau nucléaire américain.
  • La France promet de détruire les polluants éternels (PFAS) ?

    02:39|
    Assainir un terrain pollué sans le retourner à coups de pelleteuse ni faire défiler des centaines de camions : c’est la promesse affichée par MP Geotex, présente cette semaine au CES Las Vegas. La PME française y dévoile MP Cocoon, une technologie de dépollution in situ qui entend changer la logique classique du secteur, y compris face aux PFAS, ces fameux « polluants éternels » devenus un casse-tête sanitaire et réglementaire.Traditionnellement, dépolluer un sol revient à l’extraire, le transporter, puis le traiter ailleurs. Une méthode lourde, coûteuse et très émettrice de carbone. MP Geotex prend le problème à l’envers. Son dispositif encapsule les terres contaminées directement sur place et déclenche une série de traitements ciblés pour neutraliser les polluants, sans déplacer la moindre pelletée. Le cœur du système repose sur un géosynthétique issu de cinq années de recherche : il isole le sol, empêche toute migration des contaminants et crée ce que l’entreprise appelle une « cellule intelligente ».À l’intérieur, plusieurs leviers agissent simultanément. Les polluants biodégradables sont traités par des mécanismes biologiques et fongiques. Les substances les plus persistantes, comme les métaux lourds ou les PFAS, sont capturées grâce à des biocharbons et des médias techniques capables de les fixer durablement. Un réseau d’oxygénation maintient l’activité biologique dans la durée, garantissant un traitement en profondeur. Pour Patrice Cheval, dirigeant du groupe Sapiens, maison mère de MP Geotex, l’enjeu est clair : « Il est désormais possible de dépolluer efficacement sans déplacer des milliers de tonnes de terre. L’innovation environnementale doit être pragmatique et immédiatement utile aux territoires. »L’intérêt économique est évident. En supprimant les opérations d’excavation et de transport, les coûts fondent, tout comme les délais. Un terrain traité avec MP Cocoon peut redevenir exploitable bien plus rapidement, un argument de poids pour les aménageurs et les collectivités. Sur le plan environnemental, le gain est tout aussi net : moins de camions, moins d’énergie consommée, et une empreinte carbone fortement réduite. Avec cinq millions d’euros de chiffre d’affaires en 2024, MP Geotex voit plus loin que l’Hexagone. En venant à Las Vegas, l’entreprise affiche clairement ses ambitions internationales. Elle espère convaincre les grands acteurs de l’ingénierie environnementale et imposer MP Cocoon comme une référence mondiale, à l’heure où la réglementation sur les PFAS se durcit partout dans le monde.
  • Pourquoi la Chine déverse du sable dans l’océan depuis 12 ans ?

    02:42|
    Tout commence à la fin de l’année 2013. Dans une relative discrétion, la Chine lance alors l’un des plus vastes chantiers maritimes de l’histoire contemporaine : le remblaiement massif de récifs coralliens dans les archipels de îles Spratleys et des îles Paracels. En moins de vingt mois, entre décembre 2013 et juin 2015, Pékin transforme sept récifs en terres émergées. Le bilan est spectaculaire : plus de 12 kilomètres carrés de surfaces artificielles créées, soit dix-sept fois plus que l’ensemble des revendications territoriales cumulées de ses voisins sur quarante ans, selon les autorités américaines.Depuis, la dynamique ne s’est jamais vraiment interrompue. Les nouvelles îles sont progressivement durcies : pistes d’atterrissage, ports en eau profonde, hangars, radars et infrastructures militaires s’y succèdent. Les images satellites accessibles via Google Earth offrent un témoignage saisissant : on y voit littéralement la mer reculer, remplacée par du béton et de l’asphalte. La technique, elle, est simple mais redoutablement efficace : dragage du fond marin, pompage des sédiments, confinement par digues, compactage industriel, puis aménagements lourds. Une démonstration de puissance logistique assumée.Officiellement, Pékin plaide un usage civil : secours en mer, recherche scientifique, pêche, sécurité de la navigation, observation météorologique. Et, en filigrane, une capacité de défense « si nécessaire ». Un discours qui peine à convaincre. Les Philippines, le Vietnam, Taïwan ou encore le Japon y voient une stratégie d’appropriation unilatérale d’eaux disputées. Tokyo parle même d’une projection militaire permanente capable de contrôler l’ensemble de la mer de Chine méridionale. Les analyses du Center for Strategic and International Studies vont dans le même sens : sans ces îles artificielles, la présence chinoise durable dans la région serait beaucoup plus fragile.Mais derrière les enjeux militaires, un autre bilan s’impose : l’impact environnemental. Entre 12 et 18 kilomètres carrés de récifs coralliens, parmi les plus riches de la zone, ont été détruits. Les panaches de sédiments étouffent la vie marine bien au-delà des chantiers. Même certaines études chinoises reconnaissent un effondrement local des écosystèmes. Pékin, de son côté, relativise et renvoie la responsabilité vers le changement climatique global. Résultat : une mer artificiellement remodelée, devenue à la fois front stratégique et cimetière écologique.
  • Un avion électrique pour trajet court arrive en France ?

    02:55|
    À mesure que la pression climatique s’intensifie, l’aviation se retrouve face à une équation redoutable : continuer à relier les territoires sans aggraver son empreinte carbone. Hydrogène, électrification totale, nouvelles architectures… les pistes se multiplient pour tenter de réinventer le transport aérien. Contrairement à une idée reçue, le développement du rail et des transports publics ne suffit pas à couvrir tous les besoins. Dans de nombreuses régions enclavées, peu denses ou montagneuses, l’avion reste parfois la seule option viable. Encore faut-il qu’il devienne plus propre, plus silencieux et économiquement accessible, sans exiger d’infrastructures lourdes.C’est précisément sur ce créneau que se positionne Eenuee, une start-up fondée en 2019 en région stéphanoise. Son ambition : électrifier l’aviation régionale avec un appareil certifiable, efficace et discret. Il y a quelques jours, l’entreprise a annoncé un partenariat stratégique avec Duqueine Group, spécialiste reconnu des matériaux composites. Objectif : accélérer le développement du Gen-e, un avion régional 100 % électrique, dont le premier vol est attendu à l’horizon 2029.Le cahier des charges est clair. L’appareil doit embarquer 19 passagers, afficher une autonomie d’environ 500 kilomètres en mode tout électrique et desservir des liaisons aujourd’hui délaissées par les compagnies traditionnelles faute de rentabilité. Autre atout : il pourra opérer depuis des infrastructures existantes, sans nécessiter la construction de nouveaux aéroports ou d’équipements coûteux. Pour des territoires comme l’Auvergne-Rhône-Alpes, où la topographie complique les déplacements, cette promesse de désenclavement à faible impact carbone est loin d’être anecdotique.Mais l’innovation ne s’arrête pas à la propulsion. Eenuee et Duqueine parient sur une architecture dite de « fuselage porteur ». Plus complexe à concevoir qu’un fuselage tubulaire classique, cette structure permet d’améliorer les performances aérodynamiques et l’efficacité énergétique globale. À cela s’ajoute un concept encore plus audacieux : une version capable de décoller et d’atterrir sur l’eau. Grâce à des hydrofoils — des ailes immergées générant de la portance — l’appareil réduit drastiquement les frottements au décollage, à la manière des bateaux de course.Cette polyvalence ouvre des perspectives commerciales inédites. L’avion pourrait opérer indifféremment depuis une piste ou un plan d’eau, sans démontage, ce qui le rend particulièrement attractif pour des régions comme l’Asie du Sud-Est, la Scandinavie ou le Canada. Contrairement aux hydravions classiques, coûteux à entretenir et limités à l’eau, le Gen-e promet des coûts d’exploitation réduits et une grande flexibilité. Une tentative sérieuse de prouver que l’aviation régionale peut encore avoir un avenir… à condition de le repenser en profondeur.
  • Xiaomi affole les compteurs avec ses voitures électriques ?

    03:09|
    Xiaomi poursuit son ascension éclair dans l’automobile électrique. Le groupe chinois a publié ses chiffres pour l’exercice 2025 et le cap symbolique est franchi : plus de 400 000 véhicules électriques ont été livrés en un an. Rien que sur le mois de décembre 2025, 50 000 unités ont quitté les chaînes, venant s’ajouter aux 361 625 véhicules écoulés entre janvier et novembre. Une performance qui confirme que Xiaomi n’est plus un simple outsider, mais un acteur industriel désormais installé.Derrière ce total flatteur se cache toutefois un déséquilibre marqué entre les modèles. La berline SU7, premier véhicule de la marque lancé en mars 2024, montre des signes d’essoufflement. En novembre 2025, elle s’est écoulée à 12 520 exemplaires. À l’inverse, le SUV YU7, arrivé sur le marché en juin 2025 pour aller chasser sur les terres du Tesla Model Y, affiche une dynamique spectaculaire : 33 729 livraisons sur le même mois. En six mois à peine, le YU7 a dépassé les 150 000 véhicules livrés, illustrant un basculement clair de la demande vers les SUV. À volumes comparables, la berline accuse désormais un retard de près de 63 % face à son grand frère utilitaire.Pour 2026, Xiaomi prépare un tournant stratégique. Le constructeur annonce l’arrivée de deux nouveaux modèles hybrides reposant sur une architecture EREV, pour « Extended Range Electric Vehicles ». Au programme : un grand SUV sept places et un SUV compact cinq places. Le principe diffère du tout électrique : un moteur thermique embarqué ne sert pas à entraîner les roues, mais agit comme générateur afin de recharger la batterie en roulant. Cette solution permet d’étendre fortement l’autonomie, au prix d’une mécanique plus complexe que celle des plateformes 100 % électriques SU7 et YU7. La berline SU7 n’est pas abandonnée pour autant. Un restylage est prévu en 2026, accompagné d’une déclinaison dite « executive », dont les caractéristiques techniques restent encore confidentielles.Côté distribution, Xiaomi reste pour l’instant concentré sur son marché domestique. Au 31 décembre 2025, le groupe comptait 477 points de vente dans 138 villes chinoises, ainsi que 264 centres de service après-vente. L’international est toutefois dans le viseur. Une arrivée en Europe est annoncée pour 2027, avec des essais déjà en cours en Allemagne afin de valider les normes de sécurité et d’homologation. Une étape indispensable avant de transformer ce succès chinois en ambition mondiale.
  • Un soleil artificiel construit aux Émirats arabes unis ?

    02:25|
    C’est une annonce qui pourrait marquer un tournant dans l’histoire de l’énergie solaire à grande échelle. Dans le désert d’Abou Dhabi, un projet inédit ambitionne de produire de l’électricité solaire en continu, jour et nuit, toute l’année. Baptisée Khazna Solar PV, cette méga-centrale est développée conjointement par Masdar, Engie et Emirates Water and Electricity Company. Sa mise en service est prévue pour 2027.Le pari est audacieux : fournir 1,5 gigawatt d’électricité décarbonée 24 heures sur 24, sans intermittence. À ce jour, aucun site solaire au monde n’a atteint un tel niveau de production continue à cette échelle. Pour y parvenir, Khazna Solar PV repose sur une combinaison massive de production et de stockage. Le site accueillera environ trois millions de panneaux photovoltaïques, capables de générer jusqu’à 5,2 GW en pointe, couplés à un système de batteries de 19 gigawattheures. Il s’agira, lors de sa mise en service, du plus vaste dispositif de stockage par batteries jamais déployé pour une centrale solaire.Cette capacité de stockage est la clé du projet. L’énergie produite le jour sera emmagasinée, puis restituée la nuit ou lors des périodes de moindre ensoleillement. Une architecture pensée pour lever l’un des principaux freins historiques du solaire : son caractère intermittent. Selon les promoteurs du projet, l’installation pourra alimenter environ 160 000 foyers aux Émirats arabes unis et éviter chaque année l’émission de plus de 2,4 millions de tonnes de CO₂, l’équivalent du retrait de près de 470 000 véhicules thermiques de la circulation.Khazna Solar PV s’appuie également sur une forte couche numérique. Les panneaux seront équipés de systèmes de suivi solaire, ajustant automatiquement leur orientation. Des capteurs connectés et des outils d’analyse de données surveilleront en temps réel les performances, la météo et l’état des équipements. Des robots assureront le nettoyage des panneaux, un enjeu crucial dans un environnement désertique. Au-delà du projet lui-même, les partenaires veulent démontrer qu’un modèle solaire pilotable, fiable et reproductible est désormais possible. À l’heure où la demande mondiale d’électricité explose, notamment sous l’effet des centres de données et de l’intelligence artificielle, Khazna Solar PV pourrait bien servir de vitrine à une nouvelle génération d’infrastructures solaires capables de rivaliser avec les sources d’énergie pilotables traditionnelles.
  • 200 000 milliards $ pour « vaincre » le réchauffement climatique ?

    02:27|
    Depuis quelques années, une idée jusque-là cantonnée à la science-fiction gagne du terrain dans certains cercles scientifiques et industriels : tenter de freiner le réchauffement climatique non pas en réduisant les émissions de gaz à effet de serre, mais en agissant directement sur le climat lui-même. Cette approche porte un nom : la géo-ingénierie. Et l’une de ses pistes les plus controversées consiste à injecter des particules dans l’atmosphère pour réfléchir une partie du rayonnement solaire.Le principe n’est pas totalement théorique. Lors de grandes éruptions volcaniques, le dioxyde de soufre projeté dans la stratosphère forme un voile d’aérosols qui refroidit temporairement la planète. Certains chercheurs envisagent donc de reproduire artificiellement ce phénomène. Problème : le dioxyde de soufre est loin d’être anodin. Il peut fragiliser la couche d’ozone, modifier les régimes de précipitations et provoquer des pluies acides. Autant de risques qui font hésiter une partie de la communauté scientifique.C’est dans ce contexte qu’une équipe de chercheurs s’est demandé s’il existait de meilleures alternatives. Dans une étude publiée dans Geophysical Research Letters, ils ont testé, à l’aide d’un modèle climatique en trois dimensions, plusieurs types de particules susceptibles d’être injectées dans l’atmosphère. Parmi elles : la calcite, l’aluminium, le carbure de silicium… et même la poussière de diamant. Sur le papier, le diamant coche beaucoup de cases. Il réfléchit efficacement la lumière et la chaleur, se disperse sans s’agglomérer, reste suffisamment longtemps dans l’atmosphère et, surtout, il est chimiquement inerte, ce qui limiterait les risques de réactions indésirables comme les pluies acides. Selon les simulations, injecter chaque année cinq millions de tonnes de poussière de diamant pendant quarante-cinq ans permettrait de faire baisser la température moyenne mondiale d’environ 1,6 °C.Mais le rêve s’arrête net au moment de sortir la calculatrice. Une telle opération coûterait près de 200 000 milliards de dollars. À titre de comparaison, la transition vers une économie bas carbone est estimée à moins de 10 000 milliards de dollars à l’échelle mondiale. La conclusion est sans appel : si la géo-ingénierie fascine par son audace, elle apparaît aujourd’hui comme une solution démesurément coûteuse et risquée. De quoi rappeler que, face au dérèglement climatique, réduire les émissions reste, de loin, l’option la plus réaliste.