Partager
Choses à Savoir TECH VERTE
Les métaux lourds sont dangereux… mais pas comme on l’imagine ?
Les métaux lourds, souvent associés à la toxicité, suscitent des débats scientifiques sur leur impact réel. L'ASEF (Association Santé Environnement France) les définit comme des éléments métalliques naturels, d'une densité supérieure à 5 000 kg/m³. Mais pour le Professeur Manish Arora, expert en médecine environnementale, cette définition simplifie une réalité complexe : leur toxicité dépend avant tout de leurs interactions avec notre organisme.
Certains métaux, comme le fer, le cuivre ou le zinc, sont vitaux pour des fonctions essentielles, mais leur excès peut causer des troubles graves. À l’inverse, des éléments comme le plomb, l’arsenic ou le mercure n’ont aucune utilité biologique et sont particulièrement nocifs. Par exemple, le plomb affecte le développement neurologique, tandis que le mercure altère les fonctions cognitives. Selon l’OMS, ces substances peuvent provoquer des cancers, des maladies cardiovasculaires ou des déficits intellectuels chez les enfants exposés.
Les études récentes ont établi un lien entre l’exposition aux métaux lourds et les troubles du spectre autistique. Une recherche de 2023, menée par l’équipe de Kelly Bakulski, a montré que le cadmium, inhalé pendant la grossesse, augmente le risque d’autisme chez l’enfant. Ces découvertes soulignent la vulnérabilité particulière des jeunes en développement face à ces éléments.
Cependant, ces avancées scientifiques ont parfois engendré des dérives. La thérapie par chélation, censée éliminer les métaux lourds, a été promue comme un remède à l’autisme sans preuve scientifique. Pire, cette pratique peut être mortelle, comme en témoigne le décès d’un enfant en 2005. L’industrialisation a largement contribué à la dissémination des métaux lourds dans notre environnement : peinture au plomb, aliments contaminés ou poissons riches en mercure. « Nous baignons dans un cocktail d’expositions », alerte le Professeur Arora. Une vigilance accrue est donc nécessaire pour limiter les impacts de ces substances invisibles, mais omniprésentes.
More episodes
View all episodes
Les microplastiques sont-ils la cause de vos maladies ?
02:05|L’omniprésence des microplastiques inquiète de plus en plus les scientifiques. Alors que la consommation de plastique est passée de 1,5 million de tonnes par an dans les années 1950 à plus de 400 millions aujourd’hui, la pollution générée par ces matériaux atteint des proportions alarmantes. D’ici 2050, on estime que 12 milliards de tonnes de plastique pourraient s’accumuler dans les décharges et la nature.Face à cette crise, les discussions politiques piétinent. En novembre dernier, 170 pays réunis en Corée du Sud n’ont pas réussi à finaliser un traité international contre la pollution plastique. Pendant ce temps, les chercheurs poursuivent leurs travaux pour évaluer l’impact de cette pollution sur l’environnement et la santé humaine. Une revue récente menée par des scientifiques chinois, publiée dans Trends in Analytical Chemistry, révèle que les microplastiques (moins de 5 mm) et nanoplastiques (moins de 100 nanomètres) s’infiltrent partout : dans nos voies respiratoires, digestives, et même dans nos organes, tels que le foie, le placenta ou les poumons. Ces particules, souvent inhalées, semblent particulièrement nocives pour les enfants et les personnes âgées.Des études toxicologiques commencent à établir des liens entre l’accumulation de ces particules et des maladies comme les inflammations chroniques, la thrombose ou certains cancers. Une corrélation inquiétante : les tissus lésés présentent des concentrations de microplastiques plus élevées. Cependant, reste à déterminer si ces particules sont la cause ou la conséquence des lésions. Une certitude : leur rôle dans le stress oxydatif, les inflammations et la mort cellulaire est établi. Les chercheurs appellent à agir rapidement. En attendant des preuves irréfutables, les décideurs sont invités à limiter l’exposition humaine aux microplastiques et à réduire la production plastique.Des supercalculateurs pour une météo ultra précise ?
02:04|Météo France s'apprête à donner un véritable coup de pouce à la précision de ses prévisions météorologiques en renouvelant ses supercalculateurs. Ces machines géantes, qui simulent l’évolution de l'atmosphère à partir des données collectées, sont essentielles pour comprendre et anticiper les conditions climatiques. En 2025, l’organisme lancera un appel d'offres pour moderniser ces supercalculateurs, avec un premier déploiement prévu pour 2027. L'objectif : une puissance de calcul six fois plus grande d’ici 2029.Les avancées sont spectaculaires. Actuellement, le modèle Arome, utilisé pour les prévisions à court terme, offre une précision de 1,3 kilomètre. Avec les nouveaux supercalculateurs, cette précision sera portée à 750 mètres. Le modèle Arpège, dédié aux prévisions à plus long terme, passera quant à lui de 5 kilomètres à 2,5 kilomètres. À titre de comparaison, dans les années 90, les premiers supercalculateurs de Météo France avaient une précision de 35 kilomètres.Ces améliorations auront un impact concret sur notre quotidien. D’abord, elles permettront de mieux anticiper les alertes orange et rouge, avec des préavis de six heures minimum. Les prévisions de précipitations et de rafales seront améliorées de 10 % et la fiabilité des prévisions pour les cyclones et les risques de crues en Outre-mer sera renforcée. Le secteur aérien, particulièrement sensible aux conditions climatiques, bénéficiera également de prévisions plus précises pour mieux gérer le trafic. Enfin, ces supercalculateurs offriront une meilleure anticipation des phénomènes climatiques extrêmes, un enjeu majeur face au réchauffement climatique.Avec ce projet ambitieux, Météo France entend non seulement améliorer la précision des prévisions, mais aussi mieux préparer la société face aux aléas du climat.Un revêtement solaire sur les voitures ?
01:59|Mercedes-Benz dévoile un projet novateur qui pourrait révolutionner l’autonomie des véhicules électriques : un revêtement solaire ultrafin capable de recharger les batteries tout en roulant. D’une épaisseur de seulement cinq micromètres, ce revêtement, plus fin qu’un cheveu et pesant 50 grammes par mètre carré, peut être appliqué sur presque toute la carrosserie du véhicule. Flexible et transparent, il s’adapte facilement à la forme des voitures électriques.Selon Mercedes-Benz, un SUV équipé d’une surface photovoltaïque de 11 m² pourrait générer assez d’énergie pour parcourir jusqu’à 12 000 kilomètres par an dans des conditions optimales, comme celles de Stuttgart, où les tests ont été réalisés. Ce revêtement fonctionne même lorsque la voiture est à l’arrêt, augmentant ainsi son efficacité globale. L’efficacité varie toutefois selon l’ensoleillement. À Stuttgart, où les conducteurs parcourent en moyenne 52 kilomètres par jour, 62 % de cette distance pourrait être couverte grâce à l’énergie solaire. À Los Angeles, avec son ensoleillement généreux, ce chiffre pourrait grimper à près de 100 %.Un autre avantage clé : tout surplus d’énergie pourrait être renvoyé vers le réseau domestique via une borne de recharge bidirectionnelle. Ce revêtement, en plus d’être performant, est écologique : il n’utilise aucun matériau rare ou toxique, est peu coûteux à produire et facile à recycler. Mercedes-Benz envisage de développer cette technologie pour l’adapter à tous ses modèles, quelle que soit leur forme. Si cette innovation se concrétise, elle pourrait non seulement augmenter l’autonomie des véhicules électriques, mais aussi réduire leur dépendance aux infrastructures de recharge, ouvrant ainsi une nouvelle ère pour la mobilité durable.Feux d’artifice : une pollution catastrophique ?
01:45|Spectaculaires et festifs, les feux d’artifice enchantent nos soirées estivales. Mais derrière ces explosions de lumière se cache un impact écologique et sanitaire bien réel. D’abord, leur effet sur la biodiversité. Les oiseaux, notamment, sont particulièrement perturbés, parfois au point de quitter leur habitat. Plus alarmant encore, les feux d’artifice sont responsables de 31 000 incendies aux États-Unis rien qu’en 2022.Mais leurs conséquences ne s’arrêtent pas là. Composés de nitrates, chlorates, soufre, carbone et divers métaux pour les couleurs, les feux d’artifice relâchent une véritable cocktail de polluants atmosphériques. Une étude parue dans Atmospheric Environment révèle que la pollution de l’air augmente de 42 % en moyenne dans les zones où ils sont tirés. Particules fines, métaux lourds, microplastiques et produits cancérigènes pénètrent nos voies respiratoires, affectant la santé humaine. Le perchlorate, par exemple, est reconnu pour perturber la thyroïde. Ces polluants retombent ensuite au sol, s’infiltrent dans les eaux et contaminent sols, cultures et écosystèmes. Résultat : toute la chaîne alimentaire, humains compris, finit par en subir les effets.Face à ce constat, certains fabricants innovent avec des feux d’artifice dits "éco-responsables". Exit le soufre, place au nitrogène, et le plastique est remplacé par du papier biodégradable. Ces alternatives réduisent les émissions de fumée et de produits toxiques, mais ne sont pas totalement neutres pour l’environnement.1856, Eunice Foote démontrait déjà le réchauffement climatique ?
02:05|Quand on évoque les origines scientifiques de l’effet de serre, les noms de John Tyndall et de Svante Arrhenius viennent naturellement à l’esprit. Mais que dire d’Eunice Newton Foote, scientifique américaine et militante des droits des femmes, dont les travaux précurseurs ont été éclipsés par l’histoire ?En 1856, soit trois ans avant les recherches de Tyndall, Eunice Foote a démontré que des concentrations accrues de dioxyde de carbone dans l’atmosphère pouvaient provoquer un réchauffement climatique significatif. Avec des moyens modestes — deux cylindres en verre, des thermomètres et une pompe à vide — elle a isolé des gaz et mesuré leur capacité à retenir la chaleur sous les rayons du soleil. Elle théorisa que l’atmosphère terrestre, enrichie en CO₂, entraînerait une hausse des températures. Ce qu’elle décrivait alors n’était autre que l’effet de serre.Mais à cette époque, les femmes étaient exclues des cercles scientifiques. Lors d’un congrès de l’Association américaine pour l’avancement des sciences, ses travaux furent présentés par un homme, Joseph Henry, et publiés dans l’anonymat presque total. Résultat, son nom sombra dans l’oubli tandis que les recherches masculines prenaient toute la lumière. Foote, cependant, n’était pas qu’une scientifique. Militante féministe, elle fut une figure clé de la Convention de Seneca Falls en 1848, première assemblée dédiée aux droits des femmes. Une vie à la croisée des sciences et des luttes sociales. Aujourd’hui, reconnaître son apport, sans minimiser les découvertes de Tyndall, c’est rendre justice à une femme dont les travaux ont ouvert la voie à la compréhension moderne du climat. Une héroïne méconnue d’une science qui continue, encore aujourd’hui, à révéler les liens entre humanité et atmosphère.Norvège : 100% de voitures électriques en 2025 ?
02:00|La Norvège confirme une fois de plus son statut de leader mondial de l’électromobilité. En 2024, le pays nordique a établi un nouveau record, atteignant une part de marché électrisante de 88,9 % pour les véhicules électriques. Un pas de plus vers son objectif ambitieux : 100 % de ventes électriques dès 2025.Selon la Fédération routière de Norvège, cet objectif n’a pas encore été totalement atteint, mais aucun autre pays n’est aussi proche d’une transition complète. En 2024, sur 128 691 véhicules vendus, 114 409 étaient électriques. À titre de comparaison, en septembre dernier, 96,4 % des immatriculations étaient déjà des voitures électriques. Le secret de ce succès ? Une politique incitative qui combine exonération de TVA pour les véhicules électriques et nouvelles taxes dissuasives pour les voitures thermiques, à partir d’avril 2025. Des mesures qui rendent la transition à l’électrique non seulement écologique, mais aussi économiquement avantageuse.Côté marques, Tesla continue de dominer le marché norvégien. La Model Y s’impose en tête des ventes avec près de 17 000 unités écoulées en 2024, suivie de la Model 3 (7 264 ventes). La Volvo EX30 complète le podium, avec 7 229 unités vendues. Ce modèle norvégien inspire de nombreux pays en quête de solutions pour réduire leurs émissions de CO₂ dans le secteur des transports. Mais atteindre 100 % de voitures électriques reste un défi, même pour cette nation pionnière. Reste à savoir si les dernières mesures fiscales et l’engouement des Norvégiens suffiront à transformer cet objectif en réalité dès l’année prochaine.Data centers : un poids énorme pour le réseau électrique ?
01:58|Alors que l’intelligence artificielle continue de révolutionner nos vies, un débat s’intensifie dans les coulisses : comment alimenter en énergie les immenses data centers nécessaires à ces technologies ? Si leur multiplication pose déjà des défis environnementaux, un autre problème, tout aussi inquiétant, émerge : leur impact direct sur les réseaux électriques et leurs voisins. Un rapport récent de Bloomberg, basé sur des données de Whisker Labs et DC Byte, révèle que 50 % des foyers américains ayant subi les pires distorsions de puissance se trouvent à moins de 30 kilomètres d’un data center d’IA. En élargissant le périmètre à 80 kilomètres, ce chiffre grimpe à 75 %. Ces infrastructures énergivores, implantées de façon accélérée, dépassent largement les capacités prévues des réseaux électriques actuels. « Aucun réseau n’a été conçu pour gérer ce type de fluctuations de charge, surtout avec plusieurs data centers opérant en simultané », explique Aman Joshi, directeur commercial chez Bloom Energy. Les conséquences pour les foyers voisins ? Elles sont préoccupantes : risques accrus de pannes, de coupures de courant, voire de dommages sur les appareils électriques. Et ce n’est pas tout. Ces surcharges pourraient également augmenter les vulnérabilités aux incendies électriques, selon le rapport. En parallèle, les data centers ont souvent recours à des sources d’énergie traditionnelles, notamment les hydrocarbures, accentuant ainsi leur empreinte carbone. Cette course à la puissance, nécessaire pour faire fonctionner des IA toujours plus sophistiquées, pose donc une question essentielle : comment équilibrer innovation technologique et durabilité énergétique ?Linky : un petit réglage pour économiser sur l’électricité ?
02:08|Une astuce méconnue du compteur Linky pourrait permettre de réaliser encore plus d’économies. Ajuster la puissance de son compteur, voilà une solution simple pour réduire sa consommation énergétique et son budget électricité, sans bouleverser ses habitudes. Le principe est accessible : il suffit de diminuer la puissance du compteur, par exemple de 6 à 3 kilowatts, pour s’adapter aux besoins réels du foyer. Attention toutefois, cette manipulation nécessite de contacter son fournisseur d’électricité, comme le rappelle Enedis. Résultat ? Une économie annuelle pouvant atteindre 10 à 15 euros par kilowatt. Pour un foyer passant de 6 à 3 kilowatts, cela représente jusqu’à 45 euros économisés par an. Mais avant de modifier la puissance, il est crucial d’évaluer ses besoins énergétiques. Une puissance trop faible risque de provoquer des coupures si plusieurs appareils énergivores fonctionnent simultanément. Pour aider les consommateurs à mieux gérer leur consommation, des outils connectés comme « Eco-conso » d’Engie ou « Conso Live » de TotalEnergies offrent une visibilité en temps réel des usages, moyennant un abonnement de 2 euros par mois.Une expérimentation menée début 2024 dans le Puy-de-Dôme a d’ailleurs montré les bénéfices d’une telle approche. Enedis a mobilisé 110 000 foyers volontaires, réduisant temporairement leur puissance de 6 à 3 kilowatts pendant deux heures par jour. Résultat : une baisse de consommation de 20 % pour la majorité des participants, avec seulement 4 000 disjonctions enregistrées. Si des ajustements techniques restent nécessaires, cette initiative pourrait bien inspirer des solutions généralisées à l’avenir. De quoi transformer le compteur Linky en allié des économies énergétiques.De l’IA dans les mines ? Microsoft et Amazon y croient !
02:01|Une révolution dans le secteur minier ? La start-up KoBold Metals vient de lever 537 millions de dollars pour transformer l’exploration des métaux stratégiques grâce au machine learning. Son objectif : analyser d’immenses volumes de données géologiques pour identifier les plus grands gisements de cuivre, nickel et cobalt dans le monde, tout en réduisant les risques d’échec. Aujourd’hui, seuls 3 projets miniers sur 1 000 aboutissent. KoBold Metals s’appuie sur des investisseurs prestigieux comme Andreessen Horowitz, Durable Capital Partners et Breakthrough Energy Ventures, soutenu par Bill Gates et Jeff Bezos. La société prévoit d’exploiter un gigantesque gisement de cuivre en Zambie, une ressource essentielle à l’électrification des transports et à la transition énergétique. Mais l’utilisation de l’IA dans ce secteur n’est pas encore généralisée. Les obstacles sont nombreux : équipes qualifiées rares, coûts élevés et besoin de données propres et fiables. Pourtant, KoBold prouve que cette technologie peut métamorphoser l’industrie. Ses algorithmes permettent de détecter rapidement les anomalies, d’optimiser la maintenance des équipements, de limiter les pannes et de réduire le gaspillage énergétique.Les avantages ne s’arrêtent pas là. En rendant l’extraction plus précise et plus sûre, l’IA pourrait faciliter l’émergence de mines écoresponsables, essentielles à une industrie minière plus respectueuse de l’environnement. Avec une demande croissante en métaux critiques pour les batteries de véhicules électriques et autres technologies vertes, l’innovation devient stratégique. KoBold Metals ouvre également la porte à une nouvelle ère où exploration rime avec automatisation. Les robots et l’IA pourraient bientôt collaborer sur des sites connectés. Loin des clichés sur les chatbots, cette avancée montre que l’IA a le potentiel de redéfinir l’industrie minière en la rendant plus efficace, plus propre et mieux adaptée aux défis climatiques.