Partager

cover art for À Tokyo, les panneaux solaires sont obligatoires sur les maisons ?

Choses à Savoir TECH VERTE

À Tokyo, les panneaux solaires sont obligatoires sur les maisons ?

C’est une petite révolution silencieuse qui vient d’entrer en vigueur à Tokyo : depuis le 1er avril, toutes les nouvelles maisons individuelles de la capitale japonaise doivent être équipées de panneaux solaires. Une mesure ambitieuse, pensée depuis 2022, et qui s’inscrit dans le grand virage écologique voulu par les autorités locales. Mais attention, ce ne sont pas les particuliers qui doivent se charger de l’installation. La responsabilité incombe aux constructeurs. Ce sont eux qui doivent intégrer les panneaux dès la construction… et ce sont aussi eux qui peuvent bénéficier de subventions publiques couvrant jusqu’à la moitié du coût d’installation, estimé à environ 6 000 euros par maison. L’objectif ? Ne pas faire exploser le prix final des logements pour les familles, tout en accélérant la transition énergétique.


Tokyo ne part pas de zéro : cela fait près de trois ans que la municipalité prépare ce changement, en travaillant main dans la main avec les 50 plus grandes entreprises de construction. Et si la règle est désormais officielle, elle s’accompagne aussi de quelques exceptions : les plus petits constructeurs sont épargnés, tout comme les maisons mal exposées, encastrées entre des immeubles ou orientées plein nord. Malgré ces exceptions, la ville espère voir plus de 25 000 nouvelles maisons équipées chaque année. Car derrière cette initiative se cache une ambition bien plus large : faire de Tokyo l’une des premières mégapoles au monde à neutralité carbone, comme le martèle la gouverneure Yuriko Koike. Dans une ville densément peuplée, où l’espace libre est rare, les toits deviennent un terrain stratégique pour produire de l’énergie décarbonée, qu’elle soit solaire… ou même nucléaire.


Et Tokyo n’est pas seule. Cette semaine, Kawasaki, sa voisine, a adopté une mesure similaire. À Kyoto, Sendai, et dans d'autres grandes villes japonaises, le mouvement est lancé. L’installation débute souvent sur les bâtiments publics ou commerciaux, avant de s’étendre aux logements neufs. À l’échelle nationale, le gouvernement soutient cette dynamique et vise un objectif clair : que 60 % des nouvelles maisons soient solaires d’ici 2030. Le Japon mise donc sur ses toitures pour éclairer son avenir énergétique.

More episodes

View all episodes

  • Alerte sur les émissions de CO2 des JO 2026 ?

    02:37|
    Les Jeux olympiques d’hiver de 2026, prévus à Milan et Cortina d’Ampezzo, pourraient laisser une empreinte bien plus durable que les souvenirs sportifs. Selon un rapport publié par les organisations Scientists for Global Responsibility et New Weather Institute, cet événement mondial devrait générer environ 930 000 tonnes d’équivalent dioxyde de carbone, une unité utilisée pour mesurer l’impact climatique global des émissions de gaz à effet de serre.La principale source de pollution identifiée n’est ni la construction ni l’organisation elle-même, mais les déplacements des spectateurs. À eux seuls, ces voyages pourraient représenter environ 410 000 tonnes d’émissions. À titre de comparaison, cela correspond aux émissions annuelles de plusieurs dizaines de milliers de personnes. Les chercheurs estiment que cet impact climatique pourrait, dans les années suivantes, contribuer indirectement à la disparition d’environ 2,3 km² de couverture neigeuse et à la perte de plus de 14 millions de tonnes de glace glaciaire. Des conséquences particulièrement préoccupantes pour des sports qui dépendent précisément de la neige et des glaciers.Ce constat intervient dans un contexte déjà fragile pour les stations de montagne. En cinq ans, l’Italie a perdu 265 stations de ski, tandis que la France, qui accueillera les Jeux en 2030, en a vu disparaître plus de 180. La cause principale : le réchauffement climatique, qui réduit progressivement l’enneigement. Le rapport pointe également le rôle des sponsors. Trois partenaires majeurs — le groupe pétrolier Eni, le constructeur automobile Stellantis et la compagnie aérienne ITA Airways — pourraient générer à eux seuls environ 1,3 million de tonnes supplémentaires d’émissions. Ces émissions indirectes, souvent exclues des bilans officiels, correspondent notamment aux activités économiques encouragées par ces partenariats. Leur impact global pourrait entraîner la disparition supplémentaire de 3,2 km² de neige et la perte de plus de 20 millions de tonnes de glace glaciaire. Au total, l’ensemble de l’événement et de ses sponsors pourrait contribuer à la disparition de 5,5 km² de couverture neigeuse.Des progrès ont toutefois été réalisés ces dernières années. L’absence de nouvelles infrastructures majeures, l’utilisation d’énergies renouvelables et le recours à des matériaux à faible empreinte carbone ont permis d’éviter plusieurs centaines de milliers de tonnes d’émissions. Les auteurs du rapport appellent désormais à des mesures plus radicales, notamment la fin des partenariats avec les industries fortement émettrices. Selon eux, l’avenir même des Jeux olympiques d’hiver pourrait dépendre de la capacité du mouvement olympique à réduire son propre impact sur le climat.
  • Chine : objectifs anti-pollution atteints… tout en réchauffant la Terre ?

    02:30|
    En 2013, la Chine a décidé d’en finir avec cette pollution atmosphérique devenue insoutenable, tant pour la santé publique que pour son image internationale. En quelques années, le pays a engagé une transformation massive : installation d’épurateurs dans les centrales à charbon, normes industrielles renforcées et nouvelles règles environnementales. Résultat : la pollution de l’air a été réduite de moitié. Mais cette victoire sanitaire a produit un effet inattendu. En réduisant la pollution, la Chine a aussi fait disparaître une grande partie du dioxyde de soufre présent dans l’atmosphère. Ce gaz, bien connu pour provoquer les pluies acides et contribuer aux brouillards toxiques, joue aussi un rôle climatique paradoxal.Pour comprendre ce phénomène, il faut évoquer les aérosols. Ce sont de minuscules particules en suspension dans l’air, souvent issues de la combustion du charbon. Lorsqu’elles se forment à partir du dioxyde de soufre, elles agissent comme un miroir microscopique : elles réfléchissent une partie des rayons du soleil vers l’espace. Ce mécanisme limite temporairement le réchauffement de la surface terrestre. Selon une étude publiée en février 2026 dans la revue scientifique Geophysical Research Letters, la réduction de ces aérosols en Chine aurait contribué à une hausse mesurable des températures mondiales. Les chercheurs estiment que cette baisse du dioxyde de soufre a entraîné une augmentation de la température globale comprise entre 0,06 et 0,07 degré Celsius entre 2007 et 2025. Ce chiffre peut sembler faible, mais il représente environ 12 % du réchauffement total observé sur cette période. Autrement dit, la disparition de ces particules a révélé une partie du réchauffement jusqu’alors masquée. Les scientifiques ont utilisé des modèles climatiques pour analyser l’évolution des émissions en Asie. Pendant que la Chine réduisait sa pollution atmosphérique, d’autres pays comme l’Inde ont continué d’augmenter leurs émissions, illustrant le caractère global et interconnecté du climat.Il ne s’agit évidemment pas de regretter la pollution. Les aérosols ne font que masquer temporairement les effets du réchauffement, sans en traiter la cause principale : les gaz à effet de serre. Cette étude rappelle surtout une réalité essentielle : le climat est un système complexe, où certaines améliorations environnementales peuvent révéler des déséquilibres déjà présents. Nettoyer l’air reste indispensable, mais cela rend aussi plus visible l’ampleur réelle du défi climatique.
  • L’IA créé des batteries sans la phase de laboratoire ?

    02:15|
    Vous pensiez que concevoir une batterie relevait d’un simple jeu de briques technologiques, quelques matériaux bien empilés et le tour est joué ? En réalité, le plus long commence après. Une fois le prototype prêt, il faut le malmener : charge, décharge, recharge… encore et encore, jusqu’à l’épuisement complet. Un marathon qui peut durer des mois, parfois des années. Et qui consomme énormément d’électricité. Certaines estimations évoquent 130 000 gigawattheures nécessaires d’ici 2040 pour ces seuls tests, soit près de la moitié de la production annuelle de la Californie.À Université du Michigan, l’équipe du chercheur Jiawei Zhang propose de court-circuiter ce rituel. Dans la revue Nature, ils détaillent une approche baptisée « Discovery Learning ». L’idée est simple sur le papier : observer les premiers cycles de vie d’une batterie pour prédire son avenir, sans attendre qu’elle rende l’âme. Le système repose sur trois briques. D’abord, sélectionner intelligemment quels prototypes méritent d’être testés physiquement. Ensuite, comparer leurs premiers comportements à une base de données de batteries déjà connues. Enfin, estimer leur durée de vie totale… puis réinjecter ces prédictions dans le modèle pour affiner les choix suivants. Autrement dit, l’algorithme apprend aussi de ses propres estimations. Les chercheurs annoncent des gains spectaculaires : 98 % de temps économisé, 95 % de coûts en moins.De quoi faire rêver une industrie où chaque semaine gagnée vaut de l’or. Mais prudence. Le professeur Chao Hu, de Université du Connecticut, rappelle que ces prédictions dépendent fortement des données d’entraînement. Si une nouvelle batterie sort trop des sentiers battus, le modèle pourrait se tromper. Et surtout, la vraie vie ne ressemble pas au laboratoire : chaleur, froid, charges imprévisibles… rien n’a encore été validé sur le terrain. Avec un marché estimé à 120 milliards de dollars aujourd’hui, et 500 milliards attendus en 2030, la tentation est forte. 
  • TrackCarbon : l’app open source sur l’empreinte carbone de l’IA ?

    02:21|
    On parle beaucoup d’intelligence artificielle comme d’un miracle numérique. Plus rapide, plus créative, plus efficace. Mais on oublie souvent une question toute simple : combien ça consomme, au juste, une conversation avec une IA ? Car derrière Gemini, Mistral, ChatGPT ou Claude, il y a des centres de données géants, des serveurs qui tournent jour et nuit, et une facture énergétique loin d’être virtuelle.Pour mettre des chiffres sur cette réalité, la Fondation Sahar et l’association Trackarbon lancent TrackCarbon, une application disponible dès aujourd’hui sur macOS. Son idée est simple : mesurer, en temps réel, l’empreinte énergétique et carbone de nos échanges avec les IA génératives. Une fois installée, l’application observe la longueur de vos requêtes, celle des réponses, puis estime l’électricité consommée et le CO₂ émis à partir de données scientifiques. Pas d’espionnage pour autant : tout reste stocké en local, sur l’ordinateur. Rien ne quitte la machine.L’interface affiche trois indicateurs très parlants : le nombre de requêtes envoyées, l’énergie utilisée, et l’empreinte carbone correspondante. Et pour rendre ces données concrètes, TrackCarbon traduit tout ça en équivalences du quotidien : nombre de recharges de smartphone, kilomètres parcourus en voiture. De quoi réaliser que chaque prompt a, lui aussi, un coût.Les calculs s’appuient sur des travaux académiques et évoluent en continu, avec des contributions de chercheurs et de la communauté. L’outil est d’ailleurs entièrement open source : le code est publié sur GitHub, consultable et modifiable par tous. Pas question de culpabiliser, assure Gauthier Schweitzer, président de la fondation. L’objectif est d’éclairer, pas de juger. À terme, l’application devrait aussi proposer des analyses par modèle, des outils pour les entreprises, et même recommander l’IA la moins gourmande selon la tâche. Windows et Linux sont déjà prévus. Reste à savoir si cette boussole carbone changera vraiment nos habitudes numériques.
  • Le nucléaire n’est pas le vrai carburant de l’IA ?

    02:14|
    Le réveil est brutal pour les grandes promesses vertes de la Silicon Valley. Fin janvier, une enquête du The Guardian met les pieds dans le plat : derrière les discours sur la neutralité carbone, les géants du numérique se tournent massivement… vers le gaz naturel. Sur le papier, tout semblait pourtant réglé. Partenariats nucléaires spectaculaires, investissements dans les renouvelables, déclarations d’intention. Meta Platforms multiplie les annonces, Bill Gates promet des réacteurs nouvelle génération. Mais la réalité est plus terre à terre : le réseau électrique actuel n’arrive plus à suivre.Le problème est simple, presque mathématique. Les modèles d’intelligence artificielle générative consomment une énergie colossale, en continu. Les serveurs ne dorment jamais. Or le solaire et l’éolien produisent par à-coups, et le nucléaire demande des années, parfois des décennies, pour sortir de terre. Trop lent pour une industrie qui avance à la vitesse du logiciel. Conséquence : les exploitants de data centers frappent à la porte des centrales thermiques. Aux États-Unis, les opérateurs de gazoducs signalent une explosion des demandes de raccordement direct pour alimenter ces fermes de serveurs, parfois en contournant un réseau public déjà saturé. Même Amazon a récemment alerté : la course à l’IA coûte une fortune en infrastructures, et l’énergie propre n’arrive pas assez vite.La transition énergétique se heurte ainsi à la physique. On ne construit pas une centrale comme on déploie une mise à jour. Les courbes exponentielles de l’IA cognent contre les limites très concrètes du béton, des câbles et des turbines. Derrière ce virage, une forme d’aveu. Les objectifs de neutralité carbone pour 2030 restent affichés, mais la priorité est ailleurs : maintenir les puces NVIDIA à plein régime. Google a même racheté un spécialiste des data centers pour sécuriser son approvisionnement énergétique.
  • Elon Musk veut 1M de data centers dans l’espace ?

    02:28|
    Imaginez un instant : au lieu de construire d’immenses hangars bourrés de serveurs dans le désert, on enverrait les centres de données… dans l’espace. Ce qui ressemblait encore hier à un délire de science-fiction est désormais couché noir sur blanc dans des documents officiels. Depuis plusieurs mois, Elon Musk martèle la même idée : placer des data centers en orbite pour profiter d’une énergie solaire quasi illimitée et libérer de la place au sol, alors que la soif de calcul liée à l’intelligence artificielle explose. Aujourd’hui, SpaceX passe à l’action.Dans un dossier transmis à la Federal Communications Commission, l’entreprise détaille un projet de satellites opérant entre 500 et 2 000 kilomètres d’altitude. Les précisions techniques restent rares, mais l’objectif est clair : occuper des orbites encore peu utilisées. Les appareils placés sur des trajectoires héliosynchrones, baignés de soleil plus de 99 % du temps, assureraient une puissance de calcul continue. D’autres, sur des orbites moins inclinées, absorberaient les pics de demande pour répartir la charge. Pour bâtir cette infrastructure, SpaceX compte capitaliser sur son expérience avec Starlink. Et le discours va plus loin que la simple logistique informatique. L’entreprise présente cette constellation comme une étape vers une « civilisation de type II » sur l’échelle de Kardashev, capable d’exploiter pleinement l’énergie du Soleil et de faire tourner des services d’IA pour des milliards d’utilisateurs, tout en préparant l’humanité à devenir multiplanétaire.Reste une inquiétude : l’orbite terrestre se remplit déjà à grande vitesse. De plus en plus d’experts alertent sur la congestion et les risques de collisions. Musk, lui, se veut rassurant : selon lui, les satellites seraient si espacés qu’ils se croiseraient à peine. « L’espace est immense, au-delà de ce qu’on imagine », écrit-il sur X. Le calendrier dépend désormais du feu vert de la FCC. En toile de fond, une possible fusion avec xAI se profile. De quoi donner naissance à un conglomérat spatial et numérique hors norme.
  • 2026, année de résistance à Shein en France ?

    02:15|
    C’est un nouveau round judiciaire qui s’ouvre entre Shein et l’État français. Début février, la bataille reprend devant la justice. Après une première décision favorable à la plateforme chinoise, le gouvernement a décidé de contre-attaquer. Direction la cour d'appel de Paris, avec un objectif clair : obtenir la suspension du site. Même si la première manche a été perdue, Paris ne lâche pas l’affaire.Invité sur TF1 le jour même de l’audience, le ministre des PME et du Commerce, Serge Papin, a détaillé la stratégie de l’État. Son argument central : un « trouble à l’ordre public ». Selon lui, la plateforme met des produits sur le marché sans en assumer réellement la responsabilité. Il parle de non-conformités « systématiques » et estime que Shein échappe trop facilement aux obligations qui pèsent sur les commerçants classiques. En clair : vendre, oui. Répondre de la conformité des produits, beaucoup moins.Mais le gouvernement a déjà prévu un plan B. Si Shein remportait à nouveau cette bataille judiciaire, l’exécutif passerait par la loi. Une proposition doit être déposée pour inscrire noir sur blanc la responsabilité juridique de la plateforme sur l’ensemble des articles vendus. Avec ce nouveau cadre, la Répression des fraudes pourrait constater elle-même les manquements et suspendre l’activité, sans passer par un juge. Autrement dit, changer les règles du jeu.Et la pression ne s’arrête pas là. Côté fiscalité aussi, l’étau se resserre. Dès le 1er mars, une taxe de deux euros par colis s’appliquera en France, selon la catégorie d’articles. Puis, à partir du 1er juillet, un droit de douane forfaitaire de trois euros sera instauré au niveau européen. Serge Papin l’a annoncé sans détour : « 2026 sera l’année de résistance à Shein ». Derrière cette formule, un message politique limpide : réguler la fast fashion importée, rééquilibrer la concurrence… et montrer que, face aux géants du e-commerce, l’État compte bien garder la main.
  • L’IA permet de stabiliser la fusion nucléaire ?

    02:04|
    La fusion nucléaire, sur le papier, ressemble à un rêve d’ingénieur : reproduire sur Terre la réaction qui alimente les étoiles pour produire une énergie propre, quasi inépuisable. Dans la réalité, c’est un casse-tête scientifique que les chercheurs tentent de résoudre depuis des décennies. Pour forcer deux isotopes d’hydrogène à fusionner, les équipes travaillent dans des machines appelées tokamaks, de vastes chambres magnétiques capables de confiner un plasma chauffé à des températures supérieures à celles du cœur du Soleil. Problème : ce plasma est aussi capricieux qu’explosif. À la moindre instabilité, il peut heurter les parois internes, endommager l’installation… et stopper net la réaction.« Maintenir la stabilité de la couche limite du plasma est un défi majeur pour l’avenir de la fusion », rappellent les chercheurs du Princeton Plasma Physics Laboratory, le PPPL. Jusqu’ici, les scientifiques géraient surtout les dégâts après coup. Autrement dit, on corrigeait une fois l’instabilité apparue.Mais trois chercheurs du laboratoire, récemment récompensés par le prix d’excellence de la fondation Kaul, proposent une stratégie plus offensive. Leur idée : anticiper les turbulences et ajuster les paramètres du tokamak en temps réel, avant que la situation ne dégénère. Pour cela, ils ont abandonné l’approche classique en deux dimensions. Les champs magnétiques des tokamaks sont traditionnellement modélisés en 2D. Eux misent sur une optimisation en trois dimensions, en combinant physique, intelligence artificielle et contrôle instantané. « Nous explorons une optimisation 3D en mêlant la physique, l’IA et le pilotage en temps réel », explique Sang Kyeun Kim, l’un des membres de l’équipe.Concrètement, des algorithmes de machine learning simulent des dizaines de scénarios possibles et déterminent comment ajuster les champs magnétiques pour garder le plasma stable tout en maintenant un haut niveau d’énergie. Pendant l’expérience, l’IA corrige en continu le tir, presque comme un pilote automatique. La prochaine étape : automatiser entièrement ce contrôle magnétique. Car sans ces outils intelligents, les chercheurs le reconnaissent, il faudrait sans doute encore des décennies pour dompter la fusion.
  • Un matériau capable d’absorber le CO2 dès sa conception ?

    02:17|
    Le béton est partout. Dans nos immeubles, nos routes, nos ponts. C’est le matériau roi du bâtiment… et aussi l’un des plus polluants. À lui seul, il représente près de 8 % des émissions mondiales de CO₂. Un chiffre massif, rappelé par Nima Rahbar, directeur du département de génie civil, environnemental et architectural du Worcester Polytechnic Institute, aux États-Unis. Autrement dit : construire le monde d’aujourd’hui réchauffe celui de demain. Face à ce constat, la filière cherche des alternatives. En décembre, des chercheurs britanniques proposaient déjà d’intégrer des déchets de coquillages pour alléger l’empreinte carbone du béton. Cette fois, une équipe américaine affirme avoir franchi un cap supplémentaire. Elle présente un matériau de construction à la fois solide, peu coûteux… et carrément à bilan carbone négatif.Son nom : enzymatic structural material, ou ESM. L’étude, publiée dans la revue Matter, décrit un procédé original. Les scientifiques utilisent une enzyme capable de transformer le dioxyde de carbone en carbonate de calcium, autrement dit en particules minérales solides. Ces particules sont ensuite agglomérées et durcies dans des conditions douces, à basse température, pour former des éléments de construction en quelques heures. C’est là que se joue la différence. Contrairement au béton classique, qui exige des fours très énergivores et de longs temps de séchage, l’ESM se fabrique rapidement et sans forte chaleur. Résultat : beaucoup moins d’énergie consommée, donc moins d’émissions.Mieux encore, le matériau ne se contente pas de polluer moins : il capte du carbone. Selon Nima Rahbar, produire un mètre cube d’ESM permettrait de stocker plus de 6 kilos de CO₂, quand le béton traditionnel en émet environ 330 kilos pour le même volume. « Nous ne réduisons pas seulement les émissions, nous capturons réellement le carbone », souligne le chercheur. Autre promesse : une meilleure réparabilité, donc moins de déchets et des coûts réduits sur le long terme. Reste maintenant l’épreuve du terrain. Des tests doivent confirmer sa fiabilité avant une utilisation à grande échelle. Si tout se passe bien, l’ESM pourrait bientôt se retrouver dans nos terrasses, nos toitures ou nos panneaux muraux.