Partager

Choses à Savoir TECH VERTE
La France lance sa filière de batterie qui pourrait tout changer ?
L’industrie automobile française est en train de vivre un virage stratégique majeur, souvent passé sous les radars : la naissance d’une véritable filière nationale de batteries électriques. Un chantier décisif pour l’avenir de la mobilité, mais aussi pour la souveraineté industrielle européenne. Au cœur de cette transformation, un acteur clé : Automotive Cells Company, plus connue sous le nom d’ACC.
Créée en 2020, ACC a déjà franchi une étape symbolique : la mise sur le marché de ses premières batteries électriques produites en France. Objectif affiché : réduire la dépendance de l’Europe aux fournisseurs asiatiques, notamment chinois, tout en accompagnant l’électrification rapide du parc automobile. Un enjeu colossal, quand on sait que la batterie représente aujourd’hui près de 40 % du coût d’un véhicule électrique. Implantée dans le nord du pays, ACC s’appuie sur quatre sites industriels, dont une gigafactory installée à cheval sur Billy-Berclau et Douvrin, dans le Pas-de-Calais. Un choix géographique qui n’est pas anodin : il s’agit à la fois de redynamiser un bassin industriel historique et de repositionner la France dans la course mondiale aux batteries.
La montée en puissance annoncée est spectaculaire. Après une phase de rodage en 2024, ACC vise 150 000 batteries dès 2025, puis 250 000 en 2026. À l’horizon 2030, l’ambition est claire : 2 à 2,5 millions de batteries par an, soit environ 20 % du marché européen. Une trajectoire alignée avec l’échéance de 2035, date à laquelle l’Union européenne prévoit la fin de la vente des véhicules thermiques neufs. Mais le défi est immense. Comme le reconnaît la direction d’ACC, produire des batteries à grande échelle suppose une courbe d’apprentissage longue et coûteuse, jalonnée de défis techniques. Même les leaders chinois du secteur admettent que les débuts sont complexes. La fiabilité, la durée de vie et la qualité des cellules sont désormais des critères aussi stratégiques que les volumes. Les premières batteries françaises équiperont des modèles Opel et Peugeot, au sein du groupe Stellantis. Une intégration industrielle qui pourrait, à terme, faire baisser le prix des voitures électriques et accélérer leur démocratisation.
Au-delà de la production, le recyclage des batteries devient lui aussi un pilier stratégique, avec l’émergence d’usines dédiées. Une logique d’économie circulaire indispensable pour rendre la filière durable. Pendant ce temps, d’autres constructeurs européens, comme Mercedes-Benz, explorent des technologies alternatives, preuve que la course à l’innovation est loin d’être terminée. En structurant une filière complète, de la cellule au recyclage, la France tente un pari industriel ambitieux. S’il est tenu, il pourrait faire du pays — et de l’Europe — un acteur central de la batterie électrique mondiale, et un peu moins dépendant des puissances extérieures dans la transition énergétique à venir.
More episodes
View all episodes

De l’hydrogène sous nos pieds pour 170 000 ans ?
02:46|Il n’existerait pas d’hydrogène à l’état naturel sur Terre : pendant longtemps, cette idée a fait figure de vérité scientifique. Et pourtant, les faits racontent une autre histoire. Dès le début du XXᵉ siècle, des émanations d’hydrogène ont été observées en France. À partir des années 1970, les chercheurs commencent à identifier, un peu partout sur la planète, des poches d’hydrogène naturel – désormais baptisé hydrogène blanc – depuis les fonds océaniques jusqu’à la croûte continentale. Longtemps restées marginales, ces découvertes prennent aujourd’hui une tout autre dimension.Car dans un monde engagé dans une course contre la montre pour décarboner ses économies, l’hydrogène naturel apparaît comme une ressource providentielle. L’hydrogène industriel actuel, dit « gris », est produit à partir de ressources fossiles et génère près de dix kilos de CO₂ pour chaque kilo d’hydrogène. Un hydrogène bas carbone pourrait, lui, transformer l’industrie, les transports, voire la production d’électricité. Résultat : la ruée est lancée. Des forages exploratoires sont en cours en Australie et aux États-Unis. En France, plusieurs permis ont été délivrés, notamment dans les Pyrénées-Atlantiques et les Landes. Plus spectaculaire encore : l’annonce récente d’un gisement estimé à 46 millions de tonnes d’hydrogène naturel dans le sous-sol de la Moselle. À titre de comparaison, la consommation mondiale d’hydrogène atteignait environ 90 millions de tonnes en 2022.C’est dans ce contexte que des chercheurs de l'University of Oxford, de l’University of Durham et de l’University of Toronto publient des travaux majeurs. Leur étude identifie les conditions géologiques nécessaires à la formation et à l’accumulation de l’hydrogène blanc. Et leur conclusion est vertigineuse : les environnements favorables seraient répandus à l’échelle mondiale, avec un potentiel capable de couvrir nos besoins énergétiques pendant… 170 000 ans. Les chercheurs expliquent désormais comment l’hydrogène se forme, migre à travers les roches et se retrouve piégé, mais aussi ce qui peut le faire disparaître, comme certains microbes qui s’en nourrissent. Ces avancées offrent une véritable feuille de route aux industriels de l’exploration. Tout n’est pas encore connu : l’efficacité exacte des réactions chimiques ou l’influence de l’histoire géologique restent à préciser. Mais l’essentiel est là. « Trouver de l’hydrogène, c’est comme réussir un soufflé », résume le géochimiste Chris Ballentine : il faut les bons ingrédients, au bon moment. Une recette que la science commence enfin à maîtriser, ouvrant la voie à une nouvelle ère énergétique.
L’IA beaucoup plus économe grâce à un nouvel isolant ?
02:33|Pour faire tourner l’intelligence artificielle, il ne suffit pas d’aligner des serveurs. Il faut surtout les refroidir. Et c’est là que le bât blesse. Selon un rapport de l’International Energy Agency, les centres de données ont consommé 415 térawattheures d’électricité dans le monde en 2024, soit quasiment l’équivalent de la consommation annuelle de la France. D’ici 2030, cette demande pourrait plus que doubler, pour atteindre 945 TWh, portée en grande partie par l’explosion des usages liés à l’IA. Une trajectoire énergivore, qui interroge la soutenabilité à long terme du modèle actuel.Face à ce mur énergétique, des chercheurs explorent des pistes radicalement nouvelles. À l’University of Houston, une équipe du département d’ingénierie biomoléculaire vient de mettre au point un matériau inédit pour les puces électroniques. Il s’agit d’un isolant bidimensionnel ultrafin, dit « Low-K », c’est-à-dire à faible constante diélectrique. Concrètement, ce matériau ne conduit pas l’électricité, mais laisse circuler les forces électrostatiques nécessaires au fonctionnement des circuits.Pourquoi est-ce crucial ? Parce que dans les puces actuelles, une grande partie de la chaleur provient justement des interférences électriques entre composants. En réduisant ces interactions parasites, cet isolant permet aux processeurs de fonctionner à haute vitesse tout en produisant beaucoup moins de chaleur. Résultat : des serveurs plus efficaces, qui nécessitent moins de refroidissement, donc moins d’électricité, sans sacrifier les performances. Pour fabriquer ces films Low-K, les chercheurs ont utilisé une technique appelée « polymérisation interfaciale synthétique », popularisée notamment par le chimiste Omar M. Yaghi, prix Nobel de chimie 2025. Le principe : assembler des briques moléculaires légères, comme le carbone, un peu à la manière d’un jeu de Lego à l’échelle atomique. On obtient ainsi des feuillets cristallins ultrarésistants, capables de supporter des températures élevées tout en maintenant une excellente stabilité électrique.Ces nouveaux isolants offrent un double avantage. D’un côté, ils améliorent la dissipation thermique dans les centres de données dédiés à l’IA. De l’autre, ils pourraient à terme bénéficier à toute l’électronique grand public, des smartphones aux ordinateurs. Si la technologie passe le cap de l’industrialisation, elle pourrait devenir l’un des leviers clés pour freiner l’explosion énergétique de l’intelligence artificielle — et rappeler que l’innovation matérielle reste aussi stratégique que les algorithmes.
Google va racheter un spécialiste des datacenters ?
02:34|À mesure que l’intelligence artificielle s’impose dans tous les services numériques, la facture énergétique de Google enfle à une vitesse vertigineuse. Recherche assistée par IA, modèles génératifs, services cloud : chaque requête mobilise des milliers de processeurs et alourdit un peu plus la consommation électrique du géant californien. Pour sécuriser cet appétit énergétique hors normes, Google change de stratégie : produire lui-même l’électricité dont ses centres de données ont besoin.C’est dans ce contexte qu’Alphabet, la maison mère de Google, négocie le rachat d’Intersect, une entreprise américaine spécialisée dans la colocalisation d’infrastructures énergétiques et numériques. L’opération pourrait atteindre 4,75 milliards de dollars, dettes comprises. Un investissement massif, mais stratégique. Car Intersect ne se contente pas de bâtir des data centers classiques : son modèle consiste à installer directement les serveurs à proximité immédiate de centrales électriques dédiées. Résultat : des capacités de calcul qui sortent de terre sans peser sur les réseaux publics déjà saturés.Intersect revendique aujourd’hui près de 15 milliards de dollars d’actifs en exploitation ou en construction aux États-Unis. Google, déjà actionnaire minoritaire, souhaite désormais prendre le contrôle total de l’entreprise. Son fondateur, Sheldon Kimber, resterait aux commandes, mais la société deviendrait un pilier de la stratégie énergétique d’Alphabet. Un premier projet emblématique est déjà en cours dans le comté de Haskell, au Texas : une centrale électrique et un centre de données y sont construits côte à côte pour alimenter directement les services d’IA du groupe. L’enjeu est colossal. Selon plusieurs autorités de régulation, chaque interaction avec des outils comme Gemini entraîne une consommation bien supérieure à celle d’une recherche classique. Sundar Pichai, PDG d’Alphabet, estime que ce modèle permettra à Google de gagner en agilité en développant simultanément production électrique et capacités de calcul. Le groupe ne mise pas uniquement sur le gaz : géothermie de nouvelle génération, batteries géantes pour le stockage longue durée et gaz couplé à la capture de carbone font partie de la feuille de route.Ironie du sort, Google utilise aussi ses propres algorithmes d’IA pour accélérer le raccordement des nouvelles centrales au réseau : l’intelligence artificielle aide ainsi à bâtir les infrastructures énergétiques qui l’alimenteront demain. Si le rachat obtient le feu vert des régulateurs, il devrait être finalisé au premier semestre 2026.
L'IA pollue autant que la ville de New York ?
02:43|L’addition environnementale de l’intelligence artificielle commence enfin à sortir du brouillard. Et elle est salée. Une étude menée par Alex de Vries-Gao, doctorant à l’université d’Amsterdam et fondateur de Digiconomist, met en lumière un angle mort majeur : l’empreinte carbone et hydrique des systèmes d’IA reste largement sous-évaluée, faute de données publiques et détaillées de la part des géants du numérique.Selon ses estimations, les systèmes d’IA pourraient émettre entre 32,6 et 79,7 millions de tonnes de CO₂ dès 2025. Un ordre de grandeur comparable aux émissions annuelles d’une grande métropole comme New York, ou d’un pays européen de taille moyenne. La consommation d’eau est tout aussi vertigineuse : entre 312 et 764 milliards de litres par an, soit l’équivalent de la consommation mondiale d’eau en bouteille. En cause, une explosion de la puissance électrique mobilisée par l’IA : 23 gigawatts attendus fin 2025, contre 9,4 GW seulement un an plus tôt.Ces chiffres s’inscrivent dans une tendance déjà pointée par Agence internationale de l'énergie, qui estime que l’IA représentait 15 % de la consommation électrique des centres de données en 2024, une part susceptible d’atteindre près de la moitié à moyen terme. Mais mesurer précisément cet impact relève aujourd’hui du casse-tête. Aucun acteur majeur — Google, Microsoft, Amazon ou Apple — ne distingue clairement, dans ses rapports environnementaux, ce qui relève spécifiquement des charges de travail liées à l’IA. Meta fait figure d’exception partielle en publiant sa consommation d’eau indirecte, liée à l’électricité achetée : 3,92 litres par kilowattheure, soit quatre fois plus que les estimations de référence. À l’inverse, Google assume ne pas communiquer ces données, arguant d’un manque de contrôle sur la production électrique — une position que l’étude juge révélatrice d’un déficit de transparence.Face à ce flou, Alex de Vries-Gao appelle à des règles plus contraignantes : obligation de reporting détaillé, publication de métriques hydriques et carbone spécifiques à l’IA, et création d’un indice carbone des modèles. Certaines initiatives émergent, comme celle de Mistral, qui a publié une analyse environnementale détaillée de l’un de ses modèles et invite ses concurrents à faire de même. Sans cette transparence généralisée, prévient le chercheur, impossible d’évaluer l’efficacité réelle des stratégies de réduction d’impact.
L’ISS recyclé en une station spatiale Russe ?
02:37|La Russie prépare déjà l’après-ISS, et le projet de sa future station spatiale en dit long sur l’état actuel de son programme orbital. Baptisée provisoirement Russian Orbital Service Station, cette infrastructure doit entrer en construction à partir de 2027. Mais les contours du projet ont récemment évolué, révélant une stratégie plus contrainte qu’annoncé.À l’origine, Roscosmos envisageait une station entièrement nouvelle, composée de sept modules lancés progressivement à partir de la fin de la décennie. L’ensemble devait être assemblé dans les années 2030 et inclure, fait notable, des modules privés destinés au tourisme spatial. Une ambition élevée, fidèle à l’héritage soviétique de l’exploration spatiale. La réalité semble aujourd’hui plus pragmatique. Selon des responsables de l’agence spatiale russe, le cœur de cette future station pourrait finalement être constitué… des modules russes de l’actuelle Station spatiale internationale. L’idée serait de détacher ce segment à l’horizon 2030, lorsque l’ISS arrivera en fin de vie, afin de le maintenir en orbite et de le réutiliser. Pendant que la partie internationale serait désorbitée et détruite dans l’atmosphère, la section russe poursuivrait son existence sous une nouvelle bannière. Cette option présente un avantage évident : le coût. Construire une station entièrement neuve exige des investissements colossaux, difficilement compatibles avec la situation économique russe actuelle, marquée par des sanctions technologiques et un budget largement absorbé par l’effort militaire. Réutiliser l’existant permet de maintenir une présence en orbite basse à moindre frais. Mais ce recyclage pose de sérieux problèmes. Les modules russes de l’ISS auront alors passé plus de trente ans dans l’espace. Usure des matériaux, pannes à répétition, fatigue des structures, sans oublier les risques biologiques liés à des décennies d’occupation humaine : les inquiétudes sont nombreuses. Les cosmonautes russes effectuent déjà régulièrement des réparations pour maintenir les systèmes en état de fonctionnement.Au-delà des défis techniques, ce choix traduit un recul stratégique. Tandis que la Chine consolide sa station Tiangong, que l’Inde vise l’autonomie orbitale et que les États-Unis s’appuient sur le secteur privé pour renouveler leur présence spatiale, la Russie semble contrainte de faire avec ce qu’elle a. Cette future station, si elle voit le jour sous cette forme, garantirait une présence symbolique en orbite… mais au prix d’ambitions scientifiques et technologiques nécessairement limitées.
Des réacteurs d’avions transformés en centrale électrique ?
02:52|La course à l’intelligence artificielle est aussi une course à l’énergie. Pour alimenter des centres de données toujours plus gourmands, tous les leviers sont désormais actionnés, quitte à reléguer les considérations climatiques au second plan. Dans ce paysage déjà sous tension, un autre secteur énergivore entre en scène : l’aviation. Deux univers que tout oppose en apparence, mais qui partagent en réalité trois obsessions communes : la vitesse, la puissance et l’accès à l’énergie.C’est précisément ce croisement inattendu qu’exploite Boom Supersonic, l’avionneur américain qui rêve de faire renaître le vol supersonique civil avec son appareil Overture. Faute de financements suffisants pour mener seul ce projet coûteux, la start-up a trouvé une voie de diversification audacieuse : transformer un moteur d’avion… en générateur électrique pour l’IA. Le principe est simple : une turbine reste une turbine. Le moteur Mach 1+ Symphony, conçu pour propulser un avion supersonique, a été adapté pour produire de l’électricité au sol. Ce dérivé, baptisé Superpower, fonctionne comme un turbogénérateur alimenté au gaz naturel — ou au diesel en secours. Le cœur technologique reste très proche de la version aéronautique : près de 80 % des composants sont identiques. La principale différence réside dans l’ajout d’étages de compression et d’une turbine à vapeur libre, dont la rotation génère l’électricité. Résultat : un générateur compact, à peine plus volumineux qu’un conteneur de fret, capable de produire jusqu’à 42 mégawatts en continu, sans système de refroidissement actif, même sous 43 °C. Autre atout majeur : une mise en service en une quinzaine de jours, là où la construction d’infrastructures énergétiques classiques prend des années.Boom Supersonic affirme déjà avoir séduit des clients. L’entreprise Crusoe, spécialisée dans les infrastructures pour centres de données, a commandé plusieurs unités Superpower pour une capacité cumulée annoncée de 1,21 gigawatt. Une puissance équivalente à celle d’une centrale électrique de taille respectable. À première vue, l’alliance entre aviation et intelligence artificielle surprend. Mais aux États-Unis, la demande énergétique liée à l’IA explose à un rythme tel que d’anciennes centrales nucléaires sont parfois réactivées. Les projections évoquent un doublement de la consommation électrique des data centers dans les prochaines années. Dans ce contexte, un générateur capable de fournir une énergie massive, stable et rapidement déployable apparaît presque logique. Reste une question majeure, largement éludée pour l’instant : celle de l’empreinte carbone. Car derrière cette ingénierie brillante, l’énergie fossile demeure au cœur du système — un paradoxe de plus dans la révolution numérique en cours.
Un gel métallique pour révolutionner le stockage de l'énergie ?
02:18|C’est une première mondiale qui pourrait bien rebattre les cartes du stockage d’énergie. Des chercheurs viennent de mettre au point le tout premier gel métallique jamais observé, un matériau hybride aux propriétés étonnantes, à mi-chemin entre le solide et le liquide, capable de résister à des températures extrêmes.À l’origine de cette découverte, un mélange peu commun : du cuivre et du tantale, un métal gris bleuté reconnu pour sa conductivité électrique et sa robustesse thermique. Chauffé à haute température, le cuivre fond, tandis que le tantale reste solide et se structure en un réseau interne ultrafin, composé de cavités microscopiques. Ce squelette agit comme une gaine interne qui piège le métal liquide. Le résultat est une substance à la consistance gélatineuse, fluide comme un liquide, mais mécaniquement stable. Contrairement aux gels classiques, comme ceux utilisés dans les produits désinfectants, ce gel métallique conserve ses propriétés jusqu’à 1 000 degrés Celsius.Cette prouesse pourrait résoudre l’un des principaux verrous des batteries à métal liquide. Ces batteries sont très prometteuses : elles stockent de grandes quantités d’énergie, supportent un grand nombre de cycles de charge et vieillissent mieux que les batteries lithium-ion. Mais jusqu’ici, elles restaient cantonnées à des usages stationnaires. En mouvement, le métal liquide a tendance à se déplacer, provoquant des courts-circuits et des pertes de puissance. Pour tester leur matériau, les chercheurs ont fabriqué une batterie expérimentale utilisant le gel métallique comme électrode. Plongée dans un sel fondu, la batterie a produit de l’électricité de manière stable, démontrant que le gel joue efficacement son rôle de stabilisateur. Le métal reste en place, même dans des conditions thermiques extrêmes. Cette avancée ouvre la voie à des applications jusque-là hors de portée. Des batteries à métal liquide pourraient alimenter des navires de grande taille, des équipements industriels lourds, voire des véhicules hypersoniques, dont les contraintes thermiques sont incompatibles avec les technologies actuelles. À plus long terme, ce gel métallique pourrait transformer le stockage d’énergie de forte puissance, en rendant mobiles des systèmes jusqu’ici condamnés à rester immobiles.
Les data centers misent sur les microréacteurs nucléaires ?
02:17|Lorsqu’on met de côté la question des déchets radioactifs, le nucléaire reste l’une des rares sources d’énergie capables de produire massivement de l’électricité sans émissions de gaz à effet de serre. Son principal défaut demeure toutefois bien connu : les centrales sont longues et coûteuses à construire. Face à cette contrainte, une solution alternative gagne du terrain, notamment pour les sites isolés ou les infrastructures critiques : les microréacteurs nucléaires.C’est sur ce créneau que se positionne Radiant Nuclear. La start-up américaine vient d’annoncer une levée de fonds de plus de 300 millions de dollars pour accélérer la commercialisation de Kaleidos, un microréacteur nucléaire d’une puissance électrique d’un mégawatt. Radiant prévoit de construire une usine dans le Tennessee, capable de produire jusqu’à 50 unités par an. Concrètement, chaque microréacteur Kaleidos tient dans un volume équivalent à celui d’une semi-remorque. Il fournit non seulement un mégawatt d’électricité, mais aussi 1,9 mégawatt d’énergie thermique, exploitable pour le chauffage industriel ou la désalinisation de l’eau. Le système repose sur un combustible de nouvelle génération, le TRISO, réputé pour sa robustesse et sa sûreté. Une unité peut fonctionner cinq ans en continu avant d’être récupérée par Radiant pour être rechargée en combustible.Ces microréacteurs sont conçus pour être transportables, surveillés à distance, et interconnectables. Selon l’entreprise, plusieurs centaines d’unités pourraient être déployées ensemble, en fonction des besoins. Les cas d’usage ciblés sont variés : bases militaires, opérations de secours, sites industriels isolés ou zones où le réseau électrique est insuffisant. Le secteur des centres de données figure aussi dans le viseur. Si un microréacteur ne suffit pas à alimenter à lui seul les gigantesques infrastructures dédiées à l’intelligence artificielle — qui réclament désormais des puissances proches du gigawatt, comme chez Meta ou dans le projet Stargate — il peut néanmoins constituer un appoint stratégique. Radiant a déjà signé plusieurs accords, notamment pour équiper une base militaire américaine et fournir plusieurs dizaines d’unités à Equinix.