Partager

Choses à Savoir TECH VERTE
La rivière la plus sale d’Europe en pleine renaissance ?
Il y a encore quelques décennies, impossible d’imaginer voir des martins-pêcheurs, des vanneaux huppés ou même des castors batifoler sur les rives de l’Emscher, au cœur de la Ruhr. Cette rivière allemande, qui serpente entre les anciennes zones minières de Duisbourg et Dortmund, était surnommée "l’égout à ciel ouvert de l’Allemagne industrielle". Aujourd’hui, c’est un tout autre tableau. Sur les berges, on croise des libellules, des demoiselles, des crevettes d’eau douce, et surtout, des promeneurs ravis. Car oui, l’Emscher revit.
Le professeur Daniel Hering, écologue à l’université de Duisbourg, résume cette transformation en une phrase : « Autrefois, c’était un égout. Aujourd’hui, c’est une rivière. » Flashback. Au XIXe siècle, la révolution industrielle bat son plein. Mines de charbon, aciéries, usines... et une population en explosion. Les eaux usées, faute de réseau d’égout souterrain – les sols miniers étant trop instables – sont alors directement déversées dans l’Emscher. Résultat : une rivière canalisée, bétonnée, pestilentielle, et vectrice de maladies comme le choléra ou la typhoïde.
Il faudra attendre l’effondrement de l’industrie charbonnière dans les années 1980 pour qu’un projet de réhabilitation voie le jour. L’objectif : dépolluer ce cours d’eau qui servait, selon le Guardian, de toilettes à plus de 2,5 millions de personnes. Le chantier est titanesque : une "autoroute de l’assainissement" de 51 kilomètres, 436 km de canalisations, quatre stations d’épuration... 5,5 milliards d’euros plus tard, l’eau est redevenue propre, les berges accueillantes, et la biodiversité florissante. Depuis 2021, plus aucun effluent ne se déverse dans la rivière. L’Emscher est aujourd’hui un symbole du ré-ensauvagement, un exemple inspirant alors qu’en Europe, moins de 4 masses d’eau sur 10 sont en bon état écologique. L’Union européenne entend restaurer 25 000 km de rivières d’ici 2030. Un objectif ambitieux, mais l’Emscher le prouve : la nature, quand on lui tend la main, sait revenir.
More episodes
View all episodes

Une batterie « radioactive sans danger » ?
02:34|Le nucléaire reste la colonne vertébrale de la production électrique française. Une énergie massive, pilotable, peu émettrice de CO₂. Mais avec un revers bien connu : des déchets radioactifs dont la dangerosité s’étale sur des durées vertigineuses. Parmi les radiations qu’ils émettent, il y a les rayons gamma, extrêmement pénétrants, aujourd’hui surtout exploités en médecine, notamment pour l’imagerie et certains traitements. Et si ces rayons pouvaient aussi produire de l’électricité ?C’est précisément la piste explorée par des chercheurs de Ohio State University, qui viennent de publier leurs travaux dans la revue Optical Materials: X. Leur idée : concevoir une batterie capable de transformer les rayonnements gamma en énergie électrique. Attention, on est encore loin de recharger une voiture électrique ou un smartphone. La puissance générée se compte en microwatts. Mais pour alimenter des capteurs autonomes, le concept est déjà opérationnel. Le dispositif repose sur un principe en deux temps. D’abord, les rayons gamma traversent des cristaux dits « scintillateurs », capables de convertir le rayonnement ionisant en lumière visible. Ensuite, cette lumière est captée par une cellule photovoltaïque classique, qui la transforme en courant électrique. Le prototype mis au point par l’équipe américaine est minuscule : à peine 4 centimètres cubes. Placé à proximité d’une source de césium-137, il a produit 288 nanowatts. Avec du cobalt-60, plus énergique, la puissance grimpe à 1,5 microwatt.Ces chiffres peuvent sembler anecdotiques, mais ils ouvrent une voie nouvelle. Cette batterie ne contient aucun matériau radioactif : elle se contente d’exploiter le rayonnement ambiant. Elle peut donc être manipulée sans risque et fonctionner pendant des années sans maintenance, tant que la source gamma est présente. Dans l’esprit des chercheurs, l’application est claire : alimenter des capteurs installés près de sites de stockage de déchets nucléaires, là où l’accès humain est limité et où remplacer des batteries classiques est coûteux et contraignant. Les prochaines étapes sont déjà identifiées. Augmenter la taille du dispositif pour gagner en puissance, mais surtout optimiser la forme, la composition et l’agencement des cristaux scintillateurs afin d’améliorer le rendement. À plus long terme, les scientifiques imaginent aussi des usages dans des environnements extrêmes : exploration spatiale, fonds marins, ou systèmes nucléaires isolés.
Quelles sont les percées énergétiques en 2026 ?
02:49|La COP 30 l’a rappelé avec une certaine brutalité : la bonne volonté ne suffira pas à tenir les Accords de Paris. Pour sortir réellement des énergies fossiles, il faudra des solutions technologiques solides, déployables à grande échelle. Bonne nouvelle : sur ce terrain, la recherche avance vite, parfois très vite.Prenons le solaire. Les panneaux photovoltaïques classiques, majoritairement en silicium, butent sur une limite physique : ils ne captent pas l’ensemble du spectre lumineux du Soleil. Résultat, leur rendement plafonne autour de 25 %. Pour dépasser ce seuil, les chercheurs misent désormais sur des cellules hybrides, dites « tandem », associant silicium et pérovskite. La pérovskite absorbe très efficacement la lumière bleue, tandis que le silicium se charge des longueurs d’onde plus élevées. Chacun fait ce qu’il sait faire de mieux. Selon une étude publiée dans la revue Nature, ces cellules atteignent déjà près de 34 % de rendement en laboratoire. Les premières versions commerciales sont attendues dès cette année, ouvrant la voie à un solaire plus performant, mais aussi plus léger et potentiellement portable.Reste une question centrale : que faire de l’électricité quand le soleil ne brille pas ? Le stockage demeure le talon d’Achille des renouvelables. Les batteries lithium-ion dominent le marché, mais elles sont peu adaptées au stockage de longue durée. De nouvelles pistes émergent. Les batteries fer-air, développées notamment par la société américaine Form Energy, promettent jusqu’à 100 heures de stockage continu. Leur production a démarré en 2025 et doit monter en puissance cette année. Autre alternative sérieuse : le sodium-ion. Moins cher, plus abondant et plus sûr que le lithium, ce type de batterie entre en production de masse chez le géant chinois CATL dès cette année.Enfin, il y a le Graal énergétique : la fusion nucléaire. Les progrès sont réels, mais un verrou majeur subsiste : le tritium. Aujourd’hui, seuls quelques dizaines de kilos sont disponibles dans le monde, alors qu’un réacteur de fusion d’un gigawatt en consommerait jusqu’à 60 kilos par an. Pour résoudre cette équation, les laboratoires nucléaires canadiens et l’entreprise Kyoto Fusioneering lancent le projet Unity-2 en 2026. Objectif : créer une boucle fermée de production et de recyclage du tritium. Une étape indispensable pour espérer, un jour, faire de la fusion une source d’énergie propre, continue et réellement exploitable.
La NASA accélère pour son réacteur nucléaire sur la Lune ?
02:24|Alors que les États-Unis s’apprêtent à renouer concrètement avec l’orbite lunaire, la NASA affine patiemment les contours de son programme Artemis. L’objectif ne se limite plus à planter un drapeau sur la Lune : il s’agit désormais d’y rester. Et rester implique une question centrale, presque triviale sur Terre mais cruciale à 380 000 kilomètres d’ici : comment produire de l’énergie de manière fiable et durable ? Parmi les options étudiées, le nucléaire s’impose de plus en plus comme une solution crédible.L’idée ne date pas d’hier. Depuis plusieurs années, l’agence spatiale américaine travaille sur des systèmes de fission nucléaire capables d’alimenter une ou plusieurs installations lunaires. Mais le calendrier s’est brutalement accéléré en décembre dernier, lorsque Donald Trump a signé un décret relançant officiellement l’ambition lunaire américaine : un retour d’astronautes sur le sol sélène dès 2028, puis l’installation d’un réacteur nucléaire à l’horizon 2030. Un cap politique clair, désormais assorti d’engagements concrets.Le 13 janvier, la NASA a ainsi signé un protocole d’accord avec le Department of Energy. Objectif : coordonner les efforts et tenir ce délai particulièrement ambitieux. Pour Jared Isaacman, administrateur de l’agence, le choix est presque évident : « Pour bâtir des infrastructures durables sur la Lune et préparer le chemin vers Mars, l’énergie nucléaire n’est pas une option parmi d’autres, c’est une nécessité. » Contrairement au solaire, dépendant de cycles jour-nuit extrêmes et de longues éclipses, un réacteur à fission peut fournir une électricité stable, continue, pendant des années, sans ravitaillement.Cette course énergétique lunaire ne se joue pas en solitaire. La Chine affiche des ambitions comparables et prévoit elle aussi une base lunaire alimentée par un réacteur nucléaire. Pékin a déjà annoncé plusieurs missions préparatoires, dont une étape clé programmée dès cette année, signe que la compétition technologique et stratégique s’intensifie. Côté américain, l’échéance se rapproche. Dans les prochaines semaines, les astronautes Jeremy Hansen, Victor Glover, Reid Wiseman et Christina Koch embarqueront à bord du vaisseau Orion pour une mission de dix jours autour de la Lune. Un vol sans alunissage, mais hautement symbolique : il servira de répétition générale avant le retour officiel de l’humanité sur la surface lunaire.
La charge rapide ne détruit pas les batteries finalement ?
03:00|Faut-il redouter la recharge rapide quand on roule en électrique ? La question revient sans cesse, à mesure que les bornes ultrapuissantes se multiplient sur les routes. Pour y voir clair, Geotab, spécialiste de la gestion de flottes connectées, a publié une étude d’ampleur fondée sur les données de 22 700 véhicules électriques. Verdict : les batteries tiennent plutôt bien le choc, même si les recharges express ne sont pas totalement neutres.Premier enseignement : la perte moyenne de capacité atteint aujourd’hui 2,3 % par an. C’est un peu plus qu’en 2024, où Geotab mesurait 1,8 %. Cette hausse s’explique par des usages plus intensifs : davantage de kilomètres parcourus, plus de bornes rapides utilisées, et des véhicules désormais pleinement intégrés à la vie quotidienne. Concrètement, une batterie de 60 kWh qui descend à 80 % de santé équivaut encore à 48 kWh disponibles. L’autonomie baisse progressivement, mais reste largement suffisante pour les trajets courants. Rien d’alarmant, donc. Pour Charlotte Argue, responsable de la mobilité durable chez Geotab, « les batteries conservent des performances solides bien au-delà des horizons de remplacement souvent anticipés par les flottes ». L’analyse couvre 21 marques et modèles suivis sur plusieurs années grâce à la télématique embarquée.Le point sensible reste la recharge rapide. Les véhicules qui s’y appuient majoritairement, à plus de 100 kW, peuvent voir la dégradation grimper jusqu’à 3 % par an. À l’inverse, ceux qui privilégient la recharge lente à domicile tournent autour de 1,5 %. Faut-il alors bannir les bornes rapides ? Pas vraiment. Pour les professionnels et les gros rouleurs, le gain de temps et la meilleure disponibilité des véhicules compensent largement l’usure légèrement supérieure, au point de réduire le coût total par kilomètre sur la durée de vie.D’autres facteurs jouent, mais restent secondaires : le climat chaud ajoute environ 0,4 % de dégradation annuelle, l’usage intensif 0,8 %. La puissance de recharge demeure donc le levier principal. Bonne nouvelle : quelques ajustements suffisent. L’étude démonte au passage plusieurs idées reçues. Charger de presque vide à presque plein n’est pas un problème en soi. Ce qui fatigue vraiment la batterie, c’est de la laisser longtemps, et souvent, au-delà de 80 % ou en-dessous de 20 %. En clair, inutile de s’angoisser : rechargez doucement quand c’est possible, rapidement quand c’est nécessaire. Comme le résume Charlotte Argue, « tout est question d’équilibre entre contraintes opérationnelles et santé de la batterie ». Les données embarquées font le reste, pour ajuster ses habitudes sans se compliquer la vie.
L’entraînement des IA bientôt ultra-économe grâce aux « impulsions » ?
02:42|L’intelligence artificielle générative repose aujourd’hui sur l’apprentissage profond, une technique qui imite, de loin, le fonctionnement du cerveau humain à l’aide de réseaux neuronaux artificiels. Mais là où notre cerveau se montre d’une sobriété remarquable, ces réseaux numériques se révèlent particulièrement gourmands en énergie, surtout lors de la phase d’entraînement, quand les modèles apprennent à reconnaître des images, du texte ou des sons. Un talon d’Achille bien connu, à l’heure où l’empreinte énergétique de l’IA inquiète de plus en plus.C’est précisément sur ce point que se sont penchés des chercheurs de l’Université de Bonn. Leur travail, publié dans la revue scientifique Physical Review Letters, explore une piste alternative : les réseaux de neurones à impulsions artificiels, appelés SNN pour Spiking Neural Networks. Une approche inspirée beaucoup plus directement du vivant. Dans le cerveau biologique, les neurones ne transmettent pas de signaux continus. Ils communiquent par de brèves impulsions électriques, envoyées uniquement lorsque cela est nécessaire. À l’inverse, les réseaux neuronaux classiques utilisés en IA fonctionnent en flux permanent, ce qui explique en grande partie leur appétit énergétique. Les SNN, eux, ne déclenchent une activité que lorsqu’un seuil est franchi. Résultat : une consommation potentiellement bien plus faible.Jusqu’à présent, un obstacle majeur freinait leur adoption. Dans les réseaux classiques, l’apprentissage repose sur l’ajustement progressif de l’intensité des connexions entre neurones : on passe par exemple de 0,9 à 0,8. Or, dans un réseau à impulsions, pas de demi-mesure : soit le neurone émet une impulsion, soit il reste silencieux. Impossible, pensait-on, d’y appliquer les méthodes d’entraînement traditionnelles. C’est là que l’équipe de Bonn a fait une découverte clé. Si l’intensité d’une impulsion ne peut pas varier, son timing, lui, le peut. Plus la connexion entre deux neurones est forte, plus l’impulsion est émise rapidement. En jouant sur cette temporisation, les chercheurs ont montré qu’il est possible d’ajuster l’influence d’un neurone sur un autre, et donc d’entraîner le réseau. « Nous pouvons utiliser les mêmes méthodes d’apprentissage conventionnelles, très efficaces, sur les réseaux à impulsions que nous avons étudiés », explique Christian Klos, l’un des auteurs.Les premiers résultats sont prometteurs : le réseau a déjà appris à reconnaître des chiffres manuscrits. Prochaine étape annoncée : la reconnaissance vocale. Si ces travaux se confirment à grande échelle, ils pourraient ouvrir la voie à des intelligences artificielles bien plus sobres, capables d’apprendre en consommant nettement moins d’énergie. Un changement discret, mais potentiellement décisif.
Meta signe le plus gros accord énergétique de la tech ?
02:41|L’intelligence artificielle a un appétit vorace, et Meta a décidé d’y répondre avec une énergie qui ne connaît ni intermittence ni demi-mesure : le nucléaire. Pour alimenter ses data centers et ses supercalculateurs, le groupe de Meta vient de conclure trois accords majeurs aux États-Unis, mêlant prolongation de centrales existantes et financement de réacteurs de nouvelle génération. Objectif : sécuriser, sur plusieurs décennies, l’électricité nécessaire à ses ambitions dans l’IA.Premier pilier de cette stratégie, un partenariat avec TerraPower, la société fondée par Bill Gates. Meta va soutenir le développement de huit réacteurs Natrium, capables de monter jusqu’à 2,8 gigawatts de puissance, assortis de 1,2 gigawatt de stockage intégré. Les deux premières unités pourraient fournir 690 mégawatts dès 2032, les six suivantes devant entrer en service d’ici 2035. Ces réacteurs se distinguent par une conception pensée pour la flexibilité : plus sûrs, plus réactifs face aux variations de demande, et plus faciles à intégrer au réseau existant.Deuxième axe, l’alliance avec Oklo, spécialiste des petits réacteurs modulaires. L’entreprise prévoit de bâtir un véritable campus nucléaire dans le comté de Pike, dans l’Ohio. À terme, jusqu’à 1,2 gigawatt pourraient être injectés dans le réseau PJM dès 2030. Mais l’accord le plus spectaculaire concerne trois centrales nucléaires vieillissantes exploitées par Vistra : Perry et Davis-Besse, dans l’Ohio, et Beaver Valley, en Pennsylvanie. Menacées de fermeture, elles bénéficieront d’un contrat d’achat d’électricité sur vingt ans, garantissant 2,1 gigawatts stables, assortis d’extensions de capacité totalisant 433 mégawatts. Une puissance supplémentaire qui profitera à l’ensemble du réseau régional.Toute cette énergie converge vers une cible bien précise : Prometheus, le méga-centre de calcul IA de Meta à New Albany, appelé à fonctionner en continu. Contrairement aux renouvelables, le nucléaire offre un courant constant, indispensable pour entraîner des modèles d’IA à grande échelle. Meta insiste sur un point : l’entreprise finance intégralement ces accords, sans faire peser la charge sur les consommateurs locaux. Mieux, les nouvelles capacités ajoutées pourraient contribuer à stabiliser les prix de l’électricité et créer des milliers d’emplois. Avec cet investissement hors norme, complété par un précédent accord avec Constellation Energy pour prolonger la centrale de Clinton dans l’Illinois, Meta s’impose désormais comme l’un des moteurs privés du renouveau nucléaire américain.
La France promet de détruire les polluants éternels (PFAS) ?
02:39|Assainir un terrain pollué sans le retourner à coups de pelleteuse ni faire défiler des centaines de camions : c’est la promesse affichée par MP Geotex, présente cette semaine au CES Las Vegas. La PME française y dévoile MP Cocoon, une technologie de dépollution in situ qui entend changer la logique classique du secteur, y compris face aux PFAS, ces fameux « polluants éternels » devenus un casse-tête sanitaire et réglementaire.Traditionnellement, dépolluer un sol revient à l’extraire, le transporter, puis le traiter ailleurs. Une méthode lourde, coûteuse et très émettrice de carbone. MP Geotex prend le problème à l’envers. Son dispositif encapsule les terres contaminées directement sur place et déclenche une série de traitements ciblés pour neutraliser les polluants, sans déplacer la moindre pelletée. Le cœur du système repose sur un géosynthétique issu de cinq années de recherche : il isole le sol, empêche toute migration des contaminants et crée ce que l’entreprise appelle une « cellule intelligente ».À l’intérieur, plusieurs leviers agissent simultanément. Les polluants biodégradables sont traités par des mécanismes biologiques et fongiques. Les substances les plus persistantes, comme les métaux lourds ou les PFAS, sont capturées grâce à des biocharbons et des médias techniques capables de les fixer durablement. Un réseau d’oxygénation maintient l’activité biologique dans la durée, garantissant un traitement en profondeur. Pour Patrice Cheval, dirigeant du groupe Sapiens, maison mère de MP Geotex, l’enjeu est clair : « Il est désormais possible de dépolluer efficacement sans déplacer des milliers de tonnes de terre. L’innovation environnementale doit être pragmatique et immédiatement utile aux territoires. »L’intérêt économique est évident. En supprimant les opérations d’excavation et de transport, les coûts fondent, tout comme les délais. Un terrain traité avec MP Cocoon peut redevenir exploitable bien plus rapidement, un argument de poids pour les aménageurs et les collectivités. Sur le plan environnemental, le gain est tout aussi net : moins de camions, moins d’énergie consommée, et une empreinte carbone fortement réduite. Avec cinq millions d’euros de chiffre d’affaires en 2024, MP Geotex voit plus loin que l’Hexagone. En venant à Las Vegas, l’entreprise affiche clairement ses ambitions internationales. Elle espère convaincre les grands acteurs de l’ingénierie environnementale et imposer MP Cocoon comme une référence mondiale, à l’heure où la réglementation sur les PFAS se durcit partout dans le monde.
Pourquoi la Chine déverse du sable dans l’océan depuis 12 ans ?
02:42|Tout commence à la fin de l’année 2013. Dans une relative discrétion, la Chine lance alors l’un des plus vastes chantiers maritimes de l’histoire contemporaine : le remblaiement massif de récifs coralliens dans les archipels de îles Spratleys et des îles Paracels. En moins de vingt mois, entre décembre 2013 et juin 2015, Pékin transforme sept récifs en terres émergées. Le bilan est spectaculaire : plus de 12 kilomètres carrés de surfaces artificielles créées, soit dix-sept fois plus que l’ensemble des revendications territoriales cumulées de ses voisins sur quarante ans, selon les autorités américaines.Depuis, la dynamique ne s’est jamais vraiment interrompue. Les nouvelles îles sont progressivement durcies : pistes d’atterrissage, ports en eau profonde, hangars, radars et infrastructures militaires s’y succèdent. Les images satellites accessibles via Google Earth offrent un témoignage saisissant : on y voit littéralement la mer reculer, remplacée par du béton et de l’asphalte. La technique, elle, est simple mais redoutablement efficace : dragage du fond marin, pompage des sédiments, confinement par digues, compactage industriel, puis aménagements lourds. Une démonstration de puissance logistique assumée.Officiellement, Pékin plaide un usage civil : secours en mer, recherche scientifique, pêche, sécurité de la navigation, observation météorologique. Et, en filigrane, une capacité de défense « si nécessaire ». Un discours qui peine à convaincre. Les Philippines, le Vietnam, Taïwan ou encore le Japon y voient une stratégie d’appropriation unilatérale d’eaux disputées. Tokyo parle même d’une projection militaire permanente capable de contrôler l’ensemble de la mer de Chine méridionale. Les analyses du Center for Strategic and International Studies vont dans le même sens : sans ces îles artificielles, la présence chinoise durable dans la région serait beaucoup plus fragile.Mais derrière les enjeux militaires, un autre bilan s’impose : l’impact environnemental. Entre 12 et 18 kilomètres carrés de récifs coralliens, parmi les plus riches de la zone, ont été détruits. Les panaches de sédiments étouffent la vie marine bien au-delà des chantiers. Même certaines études chinoises reconnaissent un effondrement local des écosystèmes. Pékin, de son côté, relativise et renvoie la responsabilité vers le changement climatique global. Résultat : une mer artificiellement remodelée, devenue à la fois front stratégique et cimetière écologique.
Un avion électrique pour trajet court arrive en France ?
02:55|À mesure que la pression climatique s’intensifie, l’aviation se retrouve face à une équation redoutable : continuer à relier les territoires sans aggraver son empreinte carbone. Hydrogène, électrification totale, nouvelles architectures… les pistes se multiplient pour tenter de réinventer le transport aérien. Contrairement à une idée reçue, le développement du rail et des transports publics ne suffit pas à couvrir tous les besoins. Dans de nombreuses régions enclavées, peu denses ou montagneuses, l’avion reste parfois la seule option viable. Encore faut-il qu’il devienne plus propre, plus silencieux et économiquement accessible, sans exiger d’infrastructures lourdes.C’est précisément sur ce créneau que se positionne Eenuee, une start-up fondée en 2019 en région stéphanoise. Son ambition : électrifier l’aviation régionale avec un appareil certifiable, efficace et discret. Il y a quelques jours, l’entreprise a annoncé un partenariat stratégique avec Duqueine Group, spécialiste reconnu des matériaux composites. Objectif : accélérer le développement du Gen-e, un avion régional 100 % électrique, dont le premier vol est attendu à l’horizon 2029.Le cahier des charges est clair. L’appareil doit embarquer 19 passagers, afficher une autonomie d’environ 500 kilomètres en mode tout électrique et desservir des liaisons aujourd’hui délaissées par les compagnies traditionnelles faute de rentabilité. Autre atout : il pourra opérer depuis des infrastructures existantes, sans nécessiter la construction de nouveaux aéroports ou d’équipements coûteux. Pour des territoires comme l’Auvergne-Rhône-Alpes, où la topographie complique les déplacements, cette promesse de désenclavement à faible impact carbone est loin d’être anecdotique.Mais l’innovation ne s’arrête pas à la propulsion. Eenuee et Duqueine parient sur une architecture dite de « fuselage porteur ». Plus complexe à concevoir qu’un fuselage tubulaire classique, cette structure permet d’améliorer les performances aérodynamiques et l’efficacité énergétique globale. À cela s’ajoute un concept encore plus audacieux : une version capable de décoller et d’atterrir sur l’eau. Grâce à des hydrofoils — des ailes immergées générant de la portance — l’appareil réduit drastiquement les frottements au décollage, à la manière des bateaux de course.Cette polyvalence ouvre des perspectives commerciales inédites. L’avion pourrait opérer indifféremment depuis une piste ou un plan d’eau, sans démontage, ce qui le rend particulièrement attractif pour des régions comme l’Asie du Sud-Est, la Scandinavie ou le Canada. Contrairement aux hydravions classiques, coûteux à entretenir et limités à l’eau, le Gen-e promet des coûts d’exploitation réduits et une grande flexibilité. Une tentative sérieuse de prouver que l’aviation régionale peut encore avoir un avenir… à condition de le repenser en profondeur.