Partager

Choses à Savoir TECH VERTE
IA : Un Observatoire mondial pour analyser la menace environnementale ?
L’intelligence artificielle générative est en pleine explosion, et avec elle, son impact écologique. Face à cette réalité préoccupante, l’École Normale Supérieure (ENS-PSL) et Capgemini lancent un Observatoire mondial dédié à l’empreinte environnementale de l’IA. Objectif : mesurer, analyser et réduire la consommation énergétique des modèles d’IA, dont certains peuvent utiliser jusqu’à 4 600 fois plus d’énergie que les modèles traditionnels. Les chiffres sont alarmants : selon les dernières études de Capgemini, la consommation énergétique des grands modèles d’IA pourrait augmenter de 2 440 % d’ici 2030 dans les scénarios les plus pessimistes. L’essor de l’IA générative soulève ainsi une question cruciale : comment concilier avancées technologiques et responsabilité environnementale ?
C’est précisément la mission de ce nouvel Observatoire, qui ambitionne de développer une méthodologie standardisée pour évaluer l’impact écologique de l’IA, de son entraînement jusqu’à sa fin de vie. Une approche inédite qui permettra d’établir une base de données mondiale en accès libre, rassemblant des informations essentielles pour les chercheurs, les développeurs et les décideurs.
L’Observatoire réunit des experts venus d’horizons variés : universitaires, industriels et membres de la société civile. Leur travail consistera à identifier les meilleures pratiques et à favoriser la transparence et le partage de données pour guider les choix des acteurs publics et privés. Capgemini, de son côté, met à profit son expertise en IA durable. Ses enquêtes, menées auprès de 2 000 cadres dirigeants dans une quinzaine de pays, confirment l’urgence d’adopter des pratiques plus responsables. Cette initiative s’inscrit dans une dynamique plus large de développement responsable de l’IA, portée par l’ENS-PSL et l’Institut IA & Société. Mais suffira-t-elle à faire bouger les lignes ?
More episodes
View all episodes

Le retour d'El Niño va avoir d’énormes effets sur l'énergie solaire ?
03:05|Parmi toutes les énergies renouvelables, le solaire photovoltaïque apparaît aujourd’hui comme l’un des piliers de la transition énergétique. Selon l’ONU, début 2026, produire de l’électricité grâce au Soleil est désormais environ 41 % moins coûteux que les énergies fossiles. Un basculement économique majeur qui explique l’essor rapide de cette technologie dans de nombreux pays.Le potentiel est colossal. Chaque seconde, la Terre reçoit une quantité d’énergie solaire équivalente à près de 8 000 fois la consommation énergétique annuelle de l’humanité. Sur le papier, la ressource semble donc presque inépuisable. Pourtant, dans la pratique, la production solaire reste sensible aux caprices du climat. Des températures extrêmes peuvent réduire le rendement des panneaux, et des événements violents comme la grêle peuvent endommager des installations entières. Mais un autre facteur, moins connu, influence aussi la production d’électricité solaire : le cycle climatique El Niño – La Niña, souvent appelé ENSO par les climatologues. Une nouvelle étude publiée dans la revue Communications Earth & Environment montre que ce phénomène naturel peut modifier significativement l’ensoleillement à l’échelle mondiale.ENSO est l’une des principales sources de variabilité naturelle du climat. Il alterne entre deux phases : La Niña, associée à des eaux plus froides dans le Pacifique équatorial, et El Niño, caractérisée par un réchauffement de cette zone. Alors que La Niña touche actuellement à sa fin, les scientifiques anticipent un retour d’El Niño entre l’été et l’automne 2026. Or, selon les chercheurs, ces épisodes ont tendance à réduire l’irradiation solaire, c’est-à-dire la quantité de rayonnement qui atteint la surface de la Terre. L’analyse de données climatiques couvrant près de quarante ans montre que les épisodes El Niño provoquent des baisses persistantes de production solaire dans plusieurs grandes régions productrices : la Californie, le sud du désert d’Atacama, le bassin du Chaco en Amérique du Sud, le Moyen-Orient ou encore l’est de la Chine.Le phénomène s’explique notamment par l’augmentation de l’humidité dans l’atmosphère. El Niño modifie la circulation des masses d’air et favorise la formation de nuages, ce qui réduit la quantité de lumière atteignant les panneaux photovoltaïques. Les effets pourraient être particulièrement marqués lors des rares épisodes dits de « super El Niño ». Depuis les années 1980, seulement trois ont été observés. Selon l’étude, ces épisodes pourraient entraîner une baisse significative de la production solaire mondiale, obligeant temporairement certains pays à recourir davantage aux énergies fossiles et augmentant les émissions de CO₂ de plusieurs dizaines de millions de tonnes. En France, l’impact direct semble plus limité en été. En revanche, durant l’automne et l’hiver, El Niño est souvent associé à un ciel plus nuageux et à des conditions plus humides, ce qui pourrait aussi influencer, modestement, la production solaire nationale.
Cette startup va renvoyer le Soleil sur Terre la nuit ?
02:56|Produire de l’électricité grâce au Soleil… même en pleine nuit. L’idée peut sembler paradoxale, et pourtant une start-up américaine veut tenter l’expérience. Son nom : Reflect Orbital. Son projet : envoyer dans l’espace des milliers de miroirs capables de rediriger la lumière solaire vers la Terre après le coucher du soleil.Le concept est simple sur le papier. Plutôt que de produire de l’énergie directement dans l’espace — comme certains projets de centrales solaires orbitales qui envisagent ensuite de transmettre l’électricité vers la Terre — Reflect Orbital propose de faire l’inverse : renvoyer la lumière du Soleil vers la surface terrestre, afin d’éclairer des zones plongées dans la nuit. Pour y parvenir, l’entreprise californienne envisage de déployer jusqu’à 50 000 miroirs en orbite terrestre. Ces satellites fonctionneraient comme des réflecteurs géants capables de rediriger la lumière vers des zones ciblées au sol.Selon le New York Times, la société se prépare déjà à lancer un premier prototype : un miroir d’environ 18 mètres de large. Mais avant cela, elle doit obtenir l’autorisation de la Federal Communications Commission, l’autorité américaine chargée notamment de réguler les communications et les satellites. Si le projet est validé, Reflect Orbital prévoit d’envoyer environ 1 000 satellites d’ici 2028. Chacun serait capable d’éclairer une zone d’environ 5 kilomètres de diamètre.Les premiers tests seraient modestes. L’objectif est d’atteindre cette année une intensité lumineuse de 0,1 lux pendant cinq minutes, soit à peu près l’équivalent de la lumière d’une pleine lune. Mais l’entreprise voit plus grand. Elle vise 100 lux en 2028, 5 000 lux en 2030, puis 36 000 lux d’ici 2035 lorsque la constellation complète sera opérationnelle. À titre de comparaison, 36 000 lux correspondent à un niveau de luminosité proche d’un plein soleil en journée.La lumière deviendrait alors un service commercial : éclairer des fermes solaires pour produire de l’électricité la nuit, soutenir des opérations de secours, illuminer des villes ou encore stimuler la production agricole. Mais ce projet suscite aussi des critiques. Des scientifiques et des environnementalistes s’inquiètent de ses effets potentiels. Une lumière artificielle venue du ciel pourrait perturber les observations astronomiques, distraire les pilotes d’avion ou encore modifier les rythmes biologiques des animaux et des plantes. L’astronome Michael Brown, de l’université Monash, se montre également sceptique sur les calculs de l’entreprise. Selon lui, plus de 3 000 satellites seraient nécessaires pour produire seulement 20 % de l’ensoleillement de midi sur un seul site.
Une puce alimentée par la lumière ?
03:02|L’essor de l’intelligence artificielle pose un défi de plus en plus visible : son appétit énergétique. Les modèles d’IA nécessitent d’énormes quantités de calculs informatiques, et ces calculs demandent à la fois de l’électricité pour alimenter les serveurs… et encore plus d’énergie pour refroidir les centres de données où ces machines fonctionnent en continu.Pour tenter de réduire cette consommation, des chercheurs de l’université de Sydney explorent une piste radicalement différente : remplacer l’électricité par la lumière pour effectuer certains calculs. Dans une étude publiée dans la revue Nature Communications, ils présentent un prototype de puce photonique, spécialement conçue pour l’intelligence artificielle. Le principe repose sur une idée simple mais ambitieuse. Dans les processeurs traditionnels, les calculs sont réalisés grâce au déplacement d’électrons dans des circuits électriques. La puce développée par les chercheurs, elle, utilise des photons, les particules de lumière, pour traiter l’information.Cette approche présente plusieurs avantages. D’abord la vitesse : la lumière se déplace extrêmement rapidement, ce qui permet d’effectuer certains calculs en quelques picosecondes, c’est-à-dire en un millième de milliardième de seconde. Ensuite l’efficacité énergétique : contrairement aux électrons, les photons ne rencontrent quasiment pas de résistance lorsqu’ils circulent. Résultat, beaucoup moins d’énergie est dissipée sous forme de chaleur, ce qui réduit fortement les besoins en refroidissement.Pour construire cette puce, les chercheurs ont gravé de minuscules structures optiques appelées nanostructures photoniques. Chacune mesure seulement quelques dizaines de micromètres, soit une fraction de millimètre. Lorsque la lumière traverse ces structures, sa trajectoire et ses propriétés sont modifiées de manière très précise. En combinant des milliers de ces nanostructures, les scientifiques ont créé un système capable de reproduire le fonctionnement d’un réseau neuronal, c’est-à-dire l’architecture mathématique utilisée par de nombreux modèles d’intelligence artificielle. La densité de calcul obtenue est impressionnante : environ 400 millions de paramètres par millimètre carré. Pour tester leur prototype, les chercheurs l’ont entraîné à analyser plus de 10 000 images médicales, notamment des IRM. Les résultats sont prometteurs : selon les expériences, la précision de classification se situe entre 90 et 99 %.Si cette technologie devait un jour être industrialisée, elle pourrait transformer l’infrastructure de l’IA. En intégrant directement des réseaux neuronaux dans des circuits optiques, il serait possible de réduire considérablement la consommation énergétique des centres de données. Dans un contexte où la demande en puissance de calcul explose, certains experts évoquent même le risque d’une pénurie d’énergie liée à l’IA. Les puces photoniques pourraient donc représenter l’une des clés pour continuer à développer ces technologies… sans faire exploser la facture énergétique mondiale.
Un data center avec 4 jours d’autonomie sans énergie fossile ?
02:47|L’essor de l’intelligence artificielle pose un défi énergétique majeur. Selon l’Agence internationale de l’énergie, les centres de données devraient consommer entre 2 et 3 % de l’électricité mondiale dès 2026, soit environ 500 térawattheures par an. Pour donner un ordre de grandeur, c’est l’équivalent de la consommation électrique d’un pays comme la France. Et avec la généralisation de l’IA générative, cette demande pourrait doubler d’ici 2030. Face à cette explosion des besoins, les géants du numérique cherchent des solutions capables d’assurer une alimentation électrique stable, tout en réduisant les émissions de CO₂. L’une des pistes les plus prometteuses consiste à associer énergies renouvelables et stockage massif d’électricité grâce à de gigantesques batteries.C’est précisément la stratégie adoptée par Google, qui prépare un projet spectaculaire aux États-Unis, sur un site de 200 hectares à Pine Island. L’installation sera alimentée par un portefeuille d’électricité renouvelable, essentiellement éolien et solaire, capable de fournir 1 600 mégawatts de puissance. Mais la pièce maîtresse du projet réside dans son système de stockage. Google prévoit d’y installer une batterie géante de 300 mégawatts, capable de fournir de l’énergie pendant près de 100 heures consécutives, soit environ quatre jours d’autonomie. Une performance inédite pour ce type d’infrastructure.L’objectif est clair : garantir une alimentation continue du centre de données sans dépendre des centrales fossiles ou des générateurs diesel, encore utilisés par près de 80 % des centres de données dans le monde pour assurer les secours en cas de panne. La technologie retenue est développée par la start-up américaine Form Energy. Elle repose sur un système dit « fer-air », basé sur un principe chimique simple : l’oxydation et la réduction du fer. En stockant l’électricité sous forme de réaction chimique, ces batteries peuvent accumuler de grandes quantités d’énergie et la restituer pendant de longues périodes, tout en supportant des milliers de cycles.Par sa capacité énergétique, ce dispositif pourrait devenir la plus grande batterie du monde. À titre de comparaison, il serait capable d’alimenter plus de 100 000 foyers américains pendant une journée. Pour Google, ce projet constitue un véritable laboratoire. L’entreprise veut démontrer qu’il est possible d’alimenter ses centres de données 24 heures sur 24 et 7 jours sur 7 avec de l’énergie décarbonée, sans recourir à des compensations carbone. Un enjeu stratégique pour le groupe, dont les émissions de CO₂ ont augmenté d’environ 50 % depuis 2019, notamment en raison du développement massif de l’intelligence artificielle. L’équation énergétique du numérique devient donc l’un des grands défis technologiques de la décennie.
Bientôt des satellites réutilisables qui reviennent sur Terre ?
02:34|Dans l’industrie spatiale, un nouveau pari technologique pourrait bien changer les règles du jeu. La start-up américaine Lux Aeterna, fondée en 2024, veut rendre les satellites… réutilisables. À sa tête, on trouve Brian Taylor, un ingénieur chevronné passé par SpaceX et Amazon, où il a participé au développement des mégaconstellations Starlink et Project Kuiper.Aujourd’hui, la plupart des satellites ont une durée de vie relativement courte. En orbite basse, ils fonctionnent généralement entre cinq et dix ans, avant d’être désorbités, c’est-à-dire volontairement détruits dans l’atmosphère, ou envoyés vers une orbite cimetière, une zone éloignée où l’on place les satellites hors service. Ce modèle implique de fabriquer régulièrement de nouveaux engins, ce qui représente un coût très élevé.L’ambition de Lux Aeterna est de rompre avec cette logique. L’entreprise veut créer des satellites capables de revenir sur Terre, d’être remis à niveau, puis relancés. L’idée ressemble à ce que SpaceX a déjà réussi avec les fusées réutilisables, mais appliquée cette fois aux satellites eux-mêmes. Le principal obstacle est thermique. Lorsqu’un objet rentre dans l’atmosphère, il subit des températures extrêmes, parfois plusieurs milliers de degrés, à cause du frottement avec l’air. Pour survivre à cette phase critique, Lux Aeterna prévoit d’intégrer un bouclier thermique directement dans la structure du satellite.Ce système permettrait au satellite de revenir intact sur Terre, avec sa charge utile, c’est-à-dire les instruments embarqués, comme des caméras, des capteurs scientifiques ou des systèmes de communication. L’intérêt est évident : au lieu de construire un nouveau satellite pour chaque évolution technologique, les opérateurs pourraient mettre à jour les équipements puis relancer l’appareil. Le premier prototype de la start-up s’appelle Delphi. Il mesure environ 1,1 mètre de large pour une masse d’environ 200 kilogrammes. Son lancement est prévu pour le premier trimestre 2027, à bord d’une fusée Falcon 9 de SpaceX. Après sa mission, l’engin doit effectuer un retour contrôlé et être récupéré en Australie.Lux Aeterna travaille déjà sur une génération suivante de satellites plus grands, qui pourraient à terme être lancés par Starship, la future fusée géante de SpaceX. Mais le défi reste immense. La technologie doit non seulement fonctionner, mais aussi être économiquement rentable. Les économies réalisées grâce à la réutilisation devront compenser les coûts liés au retour, à la récupération et à la remise en état des satellites.
La géothermie "profonde" va-t-elle tout changer ?
02:47|Parmi les sources d’énergie renouvelable encore peu exploitées, la géothermie occupe une place particulière. Son principe est simple : utiliser la chaleur naturellement présente dans le sous-sol pour produire de l’énergie. Cette chaleur provient notamment des nappes d’eau souterraines et de la désintégration naturelle d’éléments radioactifs présents dans les roches, comme l’uranium, le thorium ou encore le potassium.Contrairement au vent ou au soleil, cette ressource présente un avantage majeur : elle est disponible en permanence. La chaleur de la Terre ne dépend ni de la météo ni de l’alternance jour-nuit. Les installations géothermiques peuvent donc produire de l’énergie 24 heures sur 24, avec des émissions de CO₂ très faibles pendant leur exploitation.À faible profondeur — généralement moins de 200 mètres — la géothermie est déjà utilisée dans de nombreux systèmes de chauffage ou de production d’énergie. Elle est considérée comme une technologie fiable et stable, capable d’assurer un approvisionnement continu. Mais de nouvelles perspectives apparaissent avec l’exploitation de la chaleur plus profonde. Les progrès réalisés dans les techniques de forage, souvent héritées de l’industrie pétrolière et gazière, permettent désormais d’atteindre des couches du sous-sol situées beaucoup plus bas.Dans une étude publiée dans la revue Cell Reports, des chercheurs de l’université Stanford s’intéressent notamment à une technologie appelée EGS, pour Enhanced Geothermal System, ou « système géothermique amélioré ». L’idée consiste à exploiter la chaleur présente entre 600 et 3 000 mètres sous terre, où les températures peuvent atteindre 90 à 300 degrés Celsius. Contrairement à la géothermie traditionnelle, qui dépend de réservoirs naturels d’eau chaude, ces systèmes permettent de créer artificiellement les conditions nécessaires pour récupérer la chaleur du sous-sol. Cela ouvre la possibilité d’exploiter cette énergie dans beaucoup plus de régions du monde.Les chercheurs soulignent aussi un autre avantage : la géothermie profonde pourrait réduire les besoins en infrastructures liées aux énergies intermittentes. Selon leurs calculs, si les systèmes EGS fournissaient 10 % de l’électricité, il serait possible de diminuer les nouvelles capacités nécessaires de 15 % pour l’éolien terrestre, 12 % pour le solaire et 28 % pour le stockage par batteries. La surface mobilisée pour produire de l’électricité bas carbone passerait alors d’environ 0,57 % à 0,48 % du territoire, une différence qui pourrait devenir importante à mesure que la demande énergétique augmente, notamment avec la multiplication des centres de données. Selon cette étude, le développement de la géothermie profonde, combiné aux autres énergies renouvelables, pourrait même permettre à terme de remplacer certaines sources d’électricité continues, comme le charbon ou le nucléaire, au cours de la prochaine décennie.
L'or permettrait un vrai gain pour les panneaux solaire ?
02:43|On l’ignore souvent, mais les panneaux solaires n’exploitent qu’une fraction de l’énergie lumineuse qui atteint la Terre. Les cellules photovoltaïques actuelles convertissent surtout la lumière visible, celle que l’œil humain perçoit, ainsi qu’une petite partie du proche infrarouge. Une grande portion du rayonnement solaire reste donc inutilisée, alors même que notre planète reçoit chaque seconde environ 174 000 térawatts d’énergie solaire. Des chercheurs de l’Institut coréen des sciences et de la technologie, le KAIST, pensent avoir trouvé une piste pour améliorer cette efficacité. Leur solution repose sur un concept issu de la nanotechnologie : les suprasphères plasmoniques.Ces structures microscopiques sont constituées de milliers de nanoparticules d’or qui s’assemblent spontanément pour former de minuscules sphères. À cette échelle, l’or possède des propriétés optiques particulières : il peut interagir avec la lumière de manière collective, un phénomène que les physiciens appellent résonance plasmonique. Concrètement, cela permet de capter et de piéger les photons — les particules de lumière — avec une efficacité bien supérieure à celle des matériaux classiques. Les chercheurs ont déposé ces suprasphères goutte à goutte sur une surface plane, où elles forment un film dense et texturé. Ce revêtement est capable d’absorber non seulement la lumière visible, mais aussi les rayonnements ultraviolets et une large gamme d’infrarouges, proches et lointains.La différence avec les films de nanoparticules déjà étudiés est importante. Les suprasphères combinent plusieurs types de résonances lumineuses, ce qui permet de capturer davantage de longueurs d’onde. Résultat : selon les simulations et les expériences menées par l’équipe coréenne, ce matériau pourrait absorber jusqu’à 90 % du spectre solaire, un niveau inédit. La puissance générée serait environ 2,4 fois supérieure à celle obtenue avec des revêtements de nanoparticules traditionnels. Pour tester leur approche, les chercheurs ont appliqué ce film sur la surface en céramique d’un générateur thermoélectrique, un dispositif capable de transformer la chaleur en électricité. Les mesures ont montré une absorption deux fois plus élevée que celle d’un film classique.Au-delà de la performance, cette technologie présente aussi un avantage pratique : elle peut être produite par dépôt en solution, une méthode relativement simple et peu coûteuse. À terme, ces suprasphères pourraient améliorer l’efficacité des systèmes solaires thermiques et photothermiques, qui utilisent la chaleur du soleil. Elles pourraient aussi renforcer les systèmes hybrides photovoltaïques-thermiques, capables de produire à la fois électricité et chaleur.
Des data centers bientôt sous des éoliennes en mer ?
02:22|La révolution de l’intelligence artificielle pose un problème très concret : où installer les serveurs capables de faire tourner ces modèles toujours plus gourmands en énergie ? Aux États-Unis, les centres de données ont consommé environ 183 térawattheures d’électricité en 2024, soit près de 4 % de toute la consommation du pays. Et selon plusieurs projections, cette demande pourrait plus que doubler d’ici 2030.Depuis quelques années, l’industrie explore donc des solutions inédites. Microsoft avait déjà expérimenté l’immersion de centres de données sous la mer avec son Projet Natick, au large de l’Écosse. L’idée : profiter de l’eau froide pour refroidir naturellement les serveurs. Mais une start-up californienne, Aikido Technologies, propose aujourd’hui d’aller encore plus loin.Son concept, présenté début mars 2026 et relayé par IEEE Spectrum, consiste à combiner éoliennes flottantes et centres de calcul pour l’IA dans la même infrastructure. Concrètement, les serveurs seraient installés directement dans les ballasts, ces grands réservoirs qui stabilisent les plateformes en mer. La structure imaginée repose sur une turbine éolienne posée sur une plateforme flottante. Trois bras descendent vers l’eau et se terminent par des ballasts situés à environ 20 mètres de profondeur. Dans la partie supérieure de ces réservoirs remplis d’eau douce, Aikido prévoit d’aménager des salles informatiques capables de fournir 3 à 4 mégawatts de puissance chacune. L’ensemble pourrait atteindre 10 à 12 mégawatts de calcul dédiés à l’intelligence artificielle.La turbine elle-même produirait 15 à 18 mégawatts d’électricité, complétés par des batteries intégrées. L’un des avantages majeurs serait la suppression des pertes liées au transport de l’électricité, puisque l’énergie serait produite et consommée au même endroit. Le refroidissement reposerait sur un mécanisme passif : la chaleur dégagée par les serveurs traverserait les parois métalliques des ballasts pour se dissiper dans l’eau de mer. Selon l’entreprise, l’impact thermique resterait limité à quelques mètres autour de la structure.Un prototype de 100 kilowatts est prévu au large de la Norvège d’ici la fin de l’année, avec l’ambition à terme de créer des fermes offshore dépassant un gigawatt de puissance de calcul. Mais le projet reste risqué. L’éolien flottant traverse actuellement une période difficile, avec des coûts élevés et des projets retardés. D’autres défis subsistent aussi : la corrosion due au sel, les débris marins ou encore les contraintes environnementales liées au rejet de chaleur dans l’océan.
Pourquoi l'hydrogène se fait si discret en voiture ?
02:38|Entre la voiture électrique, désormais bien installée, et les moteurs thermiques que l’on tente progressivement de remplacer, il existe une autre technologie encore discrète : la voiture à hydrogène. En France, ce marché reste très confidentiel. Aujourd’hui, seuls deux modèles sont réellement disponibles à la vente : la berline Toyota Mirai, proposée autour de 71 500 euros, et le SUV Hyundai Nexo, affiché à plus de 80 000 euros.Ces véhicules fonctionnent grâce à une pile à combustible. Le principe est assez simple : l’hydrogène stocké dans le réservoir réagit avec l’oxygène de l’air pour produire de l’électricité. Cette électricité alimente ensuite un moteur électrique qui entraîne les roues. L’avantage majeur est environnemental : à l’échappement, la seule émission est… de la vapeur d’eau. Sur le papier, l’hydrogène combine deux atouts que les voitures électriques et thermiques ont du mal à réunir. D’abord l’autonomie : la Toyota Mirai annonce environ 650 kilomètres, tandis que le Hyundai Nexo peut atteindre 666 kilomètres. Ensuite, le temps de recharge : faire le plein d’hydrogène prend seulement quelques minutes, comme pour une voiture essence.Il existe aussi une variante intermédiaire : les utilitaires hybrides hydrogène-électrique. Ces véhicules embarquent à la fois une batterie et une pile à combustible. On les retrouve par exemple sur certains modèles professionnels comme le Renault Kangoo ZE Hydrogen, le Renault Master Hydrogen ou encore les Peugeot e-Expert et Citroën ë-Jumpy Hydrogen. Leur autonomie tourne autour de 400 kilomètres selon le cycle WLTP, la norme européenne qui mesure l’autonomie des véhicules. Si ces voitures restent aussi coûteuses, c’est principalement une question d’échelle industrielle. Les piles à combustible sont encore fabriquées en petites quantités, ce qui maintient les prix élevés. Le phénomène est comparable aux débuts de la voiture électrique : lorsque la production des batteries lithium-ion s’est industrialisée, leurs coûts ont fortement baissé.Autre obstacle majeur : les infrastructures. En France, on compte seulement quelques dizaines de stations hydrogène. En dehors des grands axes, trouver une station peut donc s’avérer compliqué. Côté carburant, le prix reste relativement stable. Le kilo d’hydrogène coûte entre 10 et 15 euros, ce qui place le coût d’un plein dans une fourchette comparable à celle d’une voiture essence ou diesel. L’avenir de cette technologie dépendra largement des investissements des constructeurs et du développement de nouvelles méthodes de production, notamment l’électrolyse de l’eau, qui permet de produire de l’hydrogène à partir d’électricité renouvelable.