Partager

Choses à Savoir TECH VERTE
Une fusion nucléaire française grâce à Thalès et GenF ?
La quête de l’énergie du futur s’intensifie, et la France entend bien jouer les premiers rôles. Jeudi 15 mai, près de Bordeaux, le groupe Thales a officiellement lancé GenF, une nouvelle entité dédiée à la maîtrise de la fusion nucléaire. Un projet ambitieux porté par un consortium d’exception : le CEA, le CNRS et l’École polytechnique sont tous embarqués dans l’aventure.
Mais de quoi parle-t-on ? Contrairement à la fission, qui brise les noyaux d’atomes, la fusion les unit, libérant une énergie colossale – celle qui alimente notre Soleil depuis 4,5 milliards d’années. Pour reproduire ce phénomène sur Terre, Thales mise sur le confinement inertiel : des lasers surpuissants qui compriment une cible minuscule jusqu’à provoquer cette fameuse fusion. Thales n’en est pas à son coup d’essai. Fort de 40 ans d’expertise dans les lasers de haute puissance, le groupe a déjà conçu le système laser le plus puissant au monde, en activité aujourd’hui en Roumanie. Dans ce sillage, il présente le projet TARANIS – du nom du dieu gaulois de la foudre –, retenu dans le cadre du plan France 2030 et doté d’un financement de 18,5 millions d’euros.
GenF ne vise pas un sprint, mais un marathon scientifique. Première étape : modélisation et simulation d’ici 2027. Ensuite, place à l’expérimentation, avec au menu la synchronisation de faisceaux lasers, la fabrication de cibles cryogéniques, et des matériaux révolutionnaires pour supporter les conditions extrêmes d’un réacteur de fusion. Objectif : lancer un prototype d’ici 2035. Les enjeux sont colossaux. La fusion promet une énergie abondante, sûre, sans risque d’emballement, bas carbone, et avec un million de fois moins de déchets radioactifs que la fission. Une réponse idéale à la croissance exponentielle de notre demande énergétique, notamment avec l’explosion des centres de données et de l’intelligence artificielle. Avec une équipe de 10 chercheurs et 40 collaborateurs, GenF ne vise rien de moins que l’avenir énergétique de l’humanité.
More episodes
View all episodes
Découverte d’une roche créée par la pollution humaine ?
01:55|Direction les côtes anglaises, dans la région de Cumbria, où une étonnante découverte vient une nouvelle fois illustrer l’impact de l’homme sur la nature. Là-bas, des chercheurs ont identifié une nouvelle roche… formée à partir de déchets industriels. Un matériau solide, semblable à une pierre naturelle, mais né de l’abandon de résidus de fonderie en bord de mer.L’étude, publiée en avril dans la revue Geology, révèle un fait troublant : cette roche s’est formée en seulement 35 ans. En fouillant un bloc, les scientifiques ont découvert un rivet de canette en aluminium, daté d’après 1989. C’est ce détail qui a permis de dater cette formation géologique ultrarapide – un rythme jamais vu dans la nature, où ce genre de processus prend généralement des milliers d’années. Comment expliquer cette rapidité ? En laboratoire, les chercheurs ont identifié dans ces déchets des éléments hautement réactifs : calcium, fer, magnésium, manganèse. Au contact de l’air marin et de l’eau salée, ces composants créent une sorte de ciment naturel, soudant les particules ensemble et donnant naissance à une roche compacte.Et ce phénomène n’est pas isolé. À Madère, ce n’est pas une roche mais une croûte plastique qui se forme depuis 2016. Le plastique fondu – surtout du polyéthylène – chauffé par le soleil et poli par les vagues, s’incruste directement dans les rochers du littoral. Résultat : 10 % de certaines zones rocheuses sont désormais recouvertes d’une fine couche synthétique… indétachable. Ces formes géologiques artificielles ne sont pas sans conséquence. Elles modifient les écosystèmes côtiers, perturbent les équilibres naturels entre les roches, les algues et la faune, et relâchent des microplastiques en continu dans l’environnement marin. Des marqueurs inquiétants d’un monde où la pollution humaine façonne désormais la géologie.AMD, leader écolo du monde de la tech ?
02:27|Ce n’est plus un simple objectif, c’est une véritable course à l’efficacité énergétique qu’AMD est en train de gagner. Le géant américain des semi-conducteurs, connu pour ses processeurs et cartes graphiques, vient d’annoncer avoir largement dépassé son propre défi environnemental lancé en 2021 : améliorer par 30 l'efficacité énergétique de ses puces pour l’IA et le calcul haute performance (HPC) entre 2020 et 2025.Résultat ? Objectif atteint… et même pulvérisé. Les dernières générations de puces AMD sont 38 fois plus efficaces que celles de 2020. Un bond technologique colossal qui se traduit par 97 % d’énergie consommée en moins. Concrètement, les émissions de CO₂ liées à l’entraînement d’un modèle d’intelligence artificielle passent de 3 000 à 100 tonnes. Et là où il fallait auparavant 275 racks de serveurs, un seul suffit aujourd’hui. Des chiffres qui font tourner la tête. Pour en arriver là, AMD a mis le paquet : innovations architecturales, optimisation des performances par watt, et une ingénierie de précision sur l’ensemble de ses produits, CPU comme GPU. Une stratégie efficace qui confirme sa volonté de concilier performance informatique et responsabilité environnementale.Mais AMD ne s’arrête pas là. La firme annonce déjà son prochain objectif pour 2030 : multiplier par 20 l’efficacité énergétique à l’échelle du rack, par rapport à 2024, pour l’entraînement et l’inférence en intelligence artificielle. Une ambition trois fois plus élevée que les progrès moyens du secteur sur la période 2018-2025. Et ce n’est pas tout : AMD estime que si ses matériels sont déjà très performants, le travail des développeurs pourrait amplifier les gains jusqu’à un facteur 5. Au total, la formation d’un modèle IA pourrait devenir 100 fois plus économe en énergie d’ici 2030. Pour y parvenir, AMD prévoit de repenser l’ensemble de sa chaîne de production : processeurs, mémoire, réseau, stockage, et surtout une co-conception étroite entre matériel et logiciels. L’objectif est clair : faire de l’IA une technologie à la fois plus puissante et plus respectueuse de la planète. Avec cette stratégie audacieuse, AMD espère entraîner tout le secteur dans son sillage. La société mise sur des normes ouvertes et sur la collaboration avec ses partenaires pour continuer à faire avancer une IA plus verte.Une mise à jour (très) utile pour Google Maps cet été ?
02:22|Bonne nouvelle pour les voyageurs écolos : Google Maps se met au vert, et ce n’est pas qu’une figure de style. L’application évolue pour encourager des modes de déplacement plus durables dans les grandes villes européennes, avec des fonctionnalités taillées sur mesure pour limiter notre empreinte carbone.Au cœur de ces nouveautés : des suggestions d’itinéraires alternatifs. Si le trajet à pied, à vélo ou en transports en commun est aussi rapide que la voiture, Maps le proposera en priorité. Une fonction déjà active dans plus de 60 villes, et bientôt étendue à des capitales comme Copenhague, Stockholm ou Varsovie. D’après Yaël Maguire, responsable de Google Maps, ces suggestions ont déjà permis d’éviter des dizaines de millions de trajets en voiture. Un impact mesurable sur la pollution urbaine. Pour les cyclistes, l'application devient un véritable GPS intelligent : pistes cyclables, dénivelés, trafic, tout y est. Ces données, fournies par les collectivités locales, s’affichent désormais dans neuf grandes villes européennes, dont Rome, Milan, Madrid ou encore Bruxelles. Résultat : 125 000 kilomètres de pistes couvertes dans le monde.Les piétons ne sont pas oubliés : quand la marche est aussi rapide que la voiture, l’app propose un itinéraire piéton détaillé, avec les durées et les éventuelles correspondances en transports. Une manière simple d’encourager la mobilité douce. Et pour ceux qui restent en voiture ? Google Maps vous propose l’itinéraire le plus économe en carburant, si ce n’est pas déjà le plus rapide. Cette fonction, disponible mondialement, est déjà utilisée par 500 millions de trajets par mois, permettant d’économiser 2,7 millions de tonnes de CO₂ en 2024. L’équivalent de 630 000 voitures thermiques retirées de la circulation pendant un an. Autre nouveauté : les alertes sur les zones à faibles émissions, comme à Londres ou Berlin. L’app indique si votre véhicule est autorisé à y entrer et propose un trajet alternatif si nécessaire. Cette fonction sera bientôt disponible pour plus de 1 000 zones à travers l’Europe, notamment en Autriche, en Italie ou en Suède. Enfin, Google ne s’arrête pas là. Son projet Green Light, basé sur l’IA, optimise les feux de circulation pour fluidifier le trafic. Testé à Vilnius en Lituanie, il est déjà déployé dans 20 villes sur 4 continents. Une chose est sûre : Google ne se contente plus de vous guider… Il veut aussi réduire votre empreinte carbone, virage après virage.Une voiture électrique pollue autant que trois hybrides ?
02:45|Et si l’électrique n’était pas toujours la meilleure option pour la planète ? C’est le pavé dans la mare lancé par Akio Toyoda, président du conseil d’administration de Toyota, dans une déclaration choc reprise par Automotive News. Selon lui, « neuf millions de voitures électriques ont le même impact carbone que 27 millions d’hybrides ». Un chiffre qui bouscule bien des idées reçues… et qui mérite qu’on s’y arrête.Le raisonnement de Toyota s’appuie sur le contexte énergétique japonais. Là-bas, l’électricité reste largement produite à partir du charbon et du gaz. Résultat : recharger une voiture électrique au Japon revient, en réalité, à consommer une énergie très carbonée, bien plus qu’en France, au Canada ou en Scandinavie. « Si nous avions produit 9 millions de VE au lieu d’hybrides, cela aurait accru les émissions de CO₂ », résume Toyoda. Et ce n’est pas tout. La voiture électrique démarre avec un handicap carbone. Selon une étude parue dans IOP Science, la fabrication d’un véhicule électrique génère entre 11 et 14 tonnes de CO₂, contre 6 à 9 tonnes pour une voiture hybride ou thermique. En clair, avant même de rouler, l’électrique pollue déjà plus.Mais dès que la voiture quitte l’usine, la situation s’inverse progressivement. Zéro émission à l’échappement pour l’électrique, contre un usage régulier de l’essence pour les hybrides. Le Laboratoire national d’Argonne (États-Unis) a calculé qu’une voiture électrique devait parcourir environ 31 000 kilomètres pour compenser ses émissions de fabrication. Une étude publiée dans Nature fixe ce seuil à 45 000 kilomètres. Et tout dépend du mix énergétique. Une Tesla Model Y, conduite en Virginie-Occidentale (où l’électricité est très carbonée), produit 149 grammes de CO₂ par mile. Une Toyota Prius Plug-In en génère… 177. Mais à Los Angeles, où l’électricité est plus propre, la Tesla tombe à 80 grammes par kilomètre, contre 130 pour la Prius. La messe est dite.Conclusion ? L’électrique devient plus vertueux au fil du temps, et même aussi performant que l’hybride dès deux ans de conduite selon IOP Science. Mais tout dépend du pays, de l’usage… et du conducteur. Pour Toyota, la solution n’est pas unique. Le constructeur mise sur une stratégie multi-technologique : thermique propre, hybride, hydrogène et électrique.La SNCF mise sur l’IA pour détecter ses pannes ?
02:26|La SNCF, souvent moquée pour ses retards, cache pourtant un véritable trésor technologique. Et à VivaTech, l’un de ses artisans, Pierre Audier, data scientist depuis 2017, nous ouvre les coulisses d’un chantier discret mais capital : la maintenance prédictive des trains. Un pari sur l’anticipation, où les données deviennent des signaux faibles annonciateurs d’incidents à venir.Chaque jour, 360 trains NAT — ces rames Transiliennes dernier cri — sillonnent l’Île-de-France en bavardant en silence. Des centaines de capteurs surveillent la pression des compresseurs, la température de la clim, la tension électrique, la position des portes… Et toutes ces données sont aspirées, analysées, triées pour traquer les premiers signes de faiblesse. Comme cette simple marche pour personnes à mobilité réduite qui, si elle reste bloquée, peut immobiliser un train entier.Pas de boule de cristal ici, mais une logique prévisionnelle pragmatique : des signaux de défaillance détectés quelques jours ou semaines à l’avance. « Une porte qui met un peu plus longtemps à s’ouvrir… Un comportement qui change. Ce sont des indices », explique Pierre Audier. L’idée n’est pas de tout réinventer, mais d’optimiser les processus existants, sans bousculer les habitudes, ni créer de résistance interne. Les trains NAT incarnent cette mutation : un kilomètre de câbles par mètre de rame, et des données analysées en différé, toutes les deux à huit heures. Ce n’est pas du temps réel, mais c’est suffisant pour organiser une maintenance planifiée et ciblée, évitant les urgences.Et demain ? Les volumes de données explosent. Un train nouvelle génération, comme le TGVM, peut produire plusieurs gigas par jour. D’où l’enjeu de traitements distribués dans le cloud et l’essor d’algorithmes de clustering, capables de grouper les anomalies similaires. Comme un médecin qui diagnostiquerait des milliers de patients en simultané, l’IA détecte la courroie détendue ou la porte un peu lente avant la panne franche. Résultat : des trains immobilisés moins longtemps, des ateliers moins saturés, et un service plus fluide pour les voyageurs. En clair, moins de retards, plus de prévoyance, et une SNCF qui, loin des clichés, trace sa route sur les rails de l’innovation.Les engrais organiques facilitent le stockage du carbone dans le sol ?
02:36|Et si la solution à la crise climatique se trouvait… sous nos pieds ? Une étude scientifique majeure, menée par l’Université d’État du Kansas, remet l’agriculture au cœur du combat climatique – mais pas n’importe laquelle. Ici, pas de chimie de synthèse ni d’approche industrielle : c’est l’agriculture régénératrice, nourrie d’amendements organiques, qui montre sa force.Après 22 ans d’observation sur des parcelles de maïs cultivées sans labour et enrichies uniquement de compost et autres matières organiques, les résultats sont sans appel : ces sols stockent beaucoup plus de carbone que ceux nourris aux engrais chimiques. Et ce stockage est durable. Grâce à une technologie de pointe – la lumière synchrotron –, les chercheurs ont pu observer à l’échelle moléculaire comment le carbone organique s’enchevêtre avec les minéraux du sol pour former des liaisons stables, enfermées dans des micropores. Autrement dit, ce carbone ne bouge plus, ne s’évapore pas, il reste piégé pour longtemps.Les avantages ? Ils dépassent la seule question climatique. Ces terres riches en matière organique retiennent mieux l’eau, abritent une biodiversité souterraine florissante, et voient leur structure s’améliorer, saison après saison. Un vrai cercle vertueux, à l’opposé des sols appauvris par les traitements chimiques. « Les amendements organiques nourrissent le sol, pas seulement la plante », résume sobrement le Dr Ganga Hettiarachchi, responsable de l’étude. Derrière cette phrase, une idée simple mais puissante : changer de paradigme. L’agriculture ne doit plus être une source d’émissions, mais un puits de carbone actif.Pour comprendre ce phénomène, les chercheurs ont collaboré avec les plus grandes infrastructures de microscopie à rayons X, au Canada et aux États-Unis. Leurs observations confirment que le carbone organique s’intègre intimement à la matrice minérale du sol, formant des complexes extrêmement résistants à la dégradation. Ce mécanisme ouvre la voie à une agriculture qui capte le CO₂ au lieu de l’émettre. Cette recherche publiée dans le Soil Science Society of America Journal ne reste pas théorique. Elle appelle à une transformation des pratiques agricoles : moins d’intrants chimiques, plus de rotations de cultures, une meilleure gestion des résidus, et une valorisation du compost. Bref, redonner vie au sol pour restaurer la planète. Dans cette bataille, le fumier et le compost ne sont plus des reliques d’un autre temps. Ils deviennent les outils modernes d’une agriculture plus durable, plus autonome, et surtout, plus résiliente.Une batterie à sable pour chauffer toute une ville ?
01:59|Et si le sable devenait l’une des clés de la transition énergétique ? Ce n’est plus un rêve de laboratoire : en Finlande, c’est désormais une réalité bien concrète. Il y a deux ans, Polar Night Energy testait alors une batterie thermique à base de sable dans une petite ville du pays. L’unité était modeste, un simple démonstrateur de 8 MWh. Mais aujourd’hui, le projet a changé d’échelle. La ville de Pornainen, au nord d’Helsinki, vient de mettre en service une version douze fois plus puissante. Et ce n’est plus un prototype : c’est un outil industriel.La structure, haute d’une dizaine de mètres et large de quatre, contient 100 tonnes de sable chauffées à plus de 600 degrés grâce à des résistances électriques alimentées par du solaire, de l’éolien, ou le réseau. L’énergie ainsi stockée est restituée sous forme de chaleur, injectée dans le réseau de chauffage urbain au moment où la demande grimpe. Pas de combustion, pas de gaz, pas de fioul : que de la chaleur propre et locale.Le système peut fournir jusqu’à 1 MW en puissance de décharge, pour un total de 100 MWh de stockage thermique. Assez pour chauffer tous les bâtiments publics, logements collectifs et infrastructures de Pornainen pendant plusieurs jours en hiver. Le maire, Kimmo Kainulainen, est clair : « La combustion n’est pas une option ». Depuis l’arrêt des importations de gaz russe, la ville cherchait une solution durable et indépendante. Ce système l’est à tous les niveaux : pas de matériaux rares, pas de pièces fragiles, pas de consommables. Le sable ne s’use pas. L’entretien se limite à surveiller l’isolation et les capteurs. Et surtout : la production reste publique, gérée par le fournisseur local LämpöYkkönen. Une fois l’installation amortie, les surplus d’électricité stockés couvrent les pics de consommation sans surcoût pour les habitants. Et Polar Night Energy ne compte pas s’arrêter là. Prochaine étape : améliorer encore l’efficacité du système, mieux piloter la charge, et peut-être un jour… déployer ces batteries de sable dans des villes beaucoup plus grandes.Une requête ChatGPT consomme à peine une cuillère à café d'eau ?
02:00|Depuis l’explosion de l’intelligence artificielle il y a un peu plus de deux ans et demi, un débat monte doucement… mais sûrement : et si l’IA était une ogresse insatiable… en eau ? Entre la puissance de calcul et le refroidissement des serveurs, certains rapports affirment que chaque requête IA consommerait des litres d’eau. Une idée devenue presque virale : générer une image, un texte, une réponse... et, en coulisses, vider un verre – voire une bouteille entière. Mais voilà que Sam Altman, le patron d’OpenAI, vient de publier une note de blog pour défendre sa créature, ChatGPT. Selon lui, les rumeurs seraient très exagérées. Une requête moyenne, écrit-il, consommerait 0,000085 gallon d’eau, soit environ 0,32 millilitre, « à peu près un quinzième de cuillère à café ». Et en énergie ? Environ 0,34 wattheure, « l’équivalent d’un four allumé pendant une seconde », ajoute-t-il.Des chiffres qui se veulent rassurants… mais qui interrogent. Car Sam Altman ne cite aucune source précise, et ses estimations entrent en contradiction avec d’autres études indépendantes. On se souvient, par exemple, des fameux « Starter Packs » générés par IA, qui auraient nécessité entre 2 et 5 litres d’eau par image. Le Washington Post, de son côté, avançait qu’un simple e-mail écrit par GPT-4 mobiliserait l’équivalent d’une bouteille d’eau.Alors, qui croire ? Le patron d’OpenAI, bien décidé à minimiser l’impact environnemental de son outil ? Ou les experts qui tirent la sonnette d’alarme ? Une chose est sûre : derrière chaque requête, il y a une réalité matérielle. L’intelligence artificielle n’est pas une magie éthérée… Elle est bien ancrée dans le monde physique. Et ce monde, lui, a soif.Le satellite Swot, va révolutionner l’océanographie ?
02:44|Depuis son lancement en décembre 2022, le satellite Swot — pour Surface Water and Ocean Topography — n’en finit plus d’étonner les scientifiques. Fruit d’une collaboration entre la NASA et le CNES, ce bijou technologique franco-américain scrute les eaux de notre planète avec une précision inégalée. Océans, lacs, rivières : Swot cartographie tout, et surtout, autrement.Ce qui fait sa force, c’est sa capacité à mesurer les hauteurs d’eau sur une bande de 120 kilomètres de large — 60 kilomètres de chaque côté de son orbite — là où les anciens satellites altimétriques, comme TOPEX/Poseidon lancé en 1992, ne captaient qu’un seul point à la verticale. Résultat : une vision beaucoup plus fine de la dynamique océanique. Et cela change tout. Car non, l’océan n’est pas une surface plane. Il est constellé de creux et de bosses, de quelques dizaines de centimètres, révélateurs de courants, d’échanges de chaleur, et de captation du CO₂. Jusque-là, les scientifiques ne pouvaient observer que les mouvements à grande échelle, d’environ 200 kilomètres. Swot, lui, détecte des tourbillons de seulement quelques kilomètres : la fameuse submésoéchelle. Et c’est précieux. Non seulement pour comprendre le climat, mais aussi pour la biodiversité. « Ce sont justement dans ces petites structures que l’activité biologique est la plus intense », explique Yannice Faugère, ingénieur au CNES. Swot permet ainsi de mieux cibler les missions en mer et de croiser ses données avec d’autres satellites, notamment ceux qui analysent la couleur de l’eau.Autre prouesse : la bathymétrie, ou la cartographie des fonds marins. Swot détecte les infimes déformations de surface provoquées par des montagnes sous-marines. Grâce à cette capacité, il a déjà révélé de nouveaux reliefs au large du Pérou. Une équipe américaine estime même que le nombre de monts sous-marins pourrait passer de 44 000 à 100 000, rien qu’avec les données de Swot. Et ce n’est qu’un début. Swot améliore déjà les modèles océaniques de 15 à 20 %. À l’horizon 2035, l’ESA prévoit de lancer deux satellites de même type pour le programme Copernicus. Objectif : anticiper l’état des océans comme on prévoit aujourd’hui la météo.Enfin, les applications concrètes ne manquent pas. La start-up française Amphitrite, par exemple, développe des outils pour guider les cargos vers des courants favorables, avec à la clé jusqu’à 10 % de carburant en moins. Mieux comprendre l’océan, c’est mieux protéger notre planète. Et Swot s’impose déjà comme un allié indispensable.