Partager
Choses à Savoir TECH VERTE
Streaming, TV, smartphones : nos habitudes détruisent la planète ?
Une étude récente de l'Arcom, réalisée en partenariat avec l'Arcep et l'ADEME, révèle que l'audiovisuel représente près d’un tiers de l'empreinte carbone du numérique. Un chiffre surprenant, qui met en lumière l'impact environnemental de notre consommation quotidienne de vidéos. Ce rapport, qui s'appuie sur des recherches approfondies dans le secteur audiovisuel, pointe également du doigt la publicité comme un facteur aggravant, alourdissant significativement cet impact.
Que ce soit devant la télévision, sur des plateformes de streaming comme Netflix ou YouTube, l’audiovisuel en France est responsable d’environ 5,6 millions de tonnes de CO2 par an, soit l’équivalent des émissions de 4 millions de voitures particulières. La majeure partie de cette empreinte carbone, soit 88 %, provient des terminaux que nous utilisons – téléviseurs, smartphones, ordinateurs – principalement en raison de leur cycle de vie, de leur fabrication à leur mise au rebut. Ces équipements pèsent aussi lourdement sur l’utilisation des ressources minérales. En matière de diffusion, l’étude montre que la télévision linéaire, diffusée via la TNT, est beaucoup plus économe que les réseaux fixes et mobiles, qui génèrent 95 % de l’impact carbone de l'audiovisuel. Ainsi, une heure de visionnage peut émettre jusqu’à 57 g de CO2, équivalant à un trajet de 20 kilomètres en TGV.
Les perspectives à l’horizon 2030 laissent entrevoir une croissance rapide de la vidéo à la demande, dont l'impact pourrait grimper de 230 %, alors que la télévision traditionnelle verrait une légère régression. Pour contrer cette hausse des émissions, l’Arcom propose plusieurs scénarios, notamment des approches basées sur l’écoconception et la sobriété. Encourager la seconde main, prolonger la durée de vie des équipements et privilégier la réparation sont autant de pistes pour limiter cet impact.
More episodes
View all episodes
France : quel plan pour la neutralité carbone en 2050 ?
02:09|La Programmation pluriannuelle de l’énergie (PPE) et la Stratégie nationale bas-carbone (SNBC), véritables boussoles de la politique énergétique française, tracent les grandes lignes de la transition écologique : d’ici 2030, la part des énergies fossiles dans la consommation française doit tomber à 42 %, puis à 30 % en 2035, pour viser zéro en 2050."Notre avenir énergétique repose sur deux piliers : la sobriété et l’efficacité énergétique d’un côté, et la production d’énergie décarbonée de l’autre", a déclaré Olga Givernet, ministre de l’Énergie, en amont de la COP29. La ministre insiste sur un "choix de société" pour un mix équilibré entre nucléaire et énergies renouvelables. Pour y parvenir, la France s’engage sur plusieurs fronts. D'abord, l'électrification massive de la mobilité et de l’industrie : l’objectif est que deux tiers des voitures vendues en 2030 soient électriques, et que le parc actuel atteigne 15 % d'électriques contre 2,2 % début 2024. Dans le secteur du bâtiment, la réduction des émissions vise 35 millions de tonnes d'équivalent CO₂ en 2030, avec la rénovation annuelle de 400 000 maisons et 200 000 logements collectifs. Les chaudières au fioul, principales sources de pollution domestique, seront progressivement remplacées.Le défi est aussi budgétaire. Selon l’Union française de l’électricité (UFE) et le Syndicat des énergies renouvelables (SER), l’électrification est la clé pour la compétitivité et la souveraineté française. Mais cette transition ne peut réussir qu’en combinant réduction de la demande : l’objectif est de réduire la consommation d’énergie de 30 % d’ici 2030, par rapport à 2012. Enfin, alors que le Plan national d'adaptation au changement climatique (PNACC-3) anticipe un réchauffement de 4°C d’ici la fin du siècle, Agnès Pannier-Runacher, ministre de la Transition écologique, insiste : "Il est urgent d’accélérer la réduction de nos émissions de gaz à effet de serre". La concertation publique sur ces mesures est ouverte jusqu'au 15 décembre, avant la validation des textes définitifs en 2025.USA : le refroidissement artificiel du climat va impacter l’Europe ?
02:29|La ville d’Alameda, en Californie, pourrait relancer son projet controversé d’éclaircissement des nuages, un procédé visant à refroidir le climat en diffusant de l’eau salée dans l’air. Une étude publiée dans *Nature Climate Change* (21 juin 2024) et relayée par *The Guardian* éclaire ce débat en révélant les effets potentiels de cette technologie. Des chercheurs de l’université de Californie à San Diego et du Centre national de recherche atmosphérique au Colorado ont utilisé des modèles climatiques pour simuler l’impact d’ensemencements de nuages en deux zones : au large de la Californie et en Alaska.Les résultats sont frappants. Dans les conditions de 2010, ensemencer les nuages en Alaska réduirait de 55 % les risques de vagues de chaleur sur la côte ouest américaine, contre seulement 16 % pour l’opération californienne. Mais dans le climat projeté pour 2050, ces bénéfices s’effondrent. Avec moins de nuages, des températures plus élevées et un ralentissement des courants marins de l’Atlantique (AMOC), l’intervention en Alaska n’aurait plus qu’un effet limité. Plus inquiétant encore, l’ensemencement proche de la Californie risquerait d’amplifier la chaleur, inverse de l’effet recherché.Le problème va au-delà des côtes américaines : dans le contexte actuel, l’Europe pourrait aussi bénéficier d’un refroidissement grâce aux nuages ensemencés dans le Pacifique Nord. Mais d’ici 2050, cette même intervention pourrait entraîner un stress thermique global, notamment en Europe, aggravé par le ralentissement de l’AMOC. Jessica Wan, co-auteure de l’étude, résume : « L’éclaircissement des nuages marins peut être efficace pour la côte ouest des États-Les volcans comme source d’énergie inépuisable en Islande ?
02:03|L'Islande vit un moment historique sur la dorsale médio-atlantique, où la ville de Grindavík subit une série d’éruptions volcaniques sans précédent depuis 800 ans. Tandis que la lave ouvre des failles dans les rues et dévore des maisons, le pays voit là une opportunité énergétique. À Krafla, au nord-est de Grindavík, une équipe d’experts prépare un forage inédit : atteindre le magma pour en extraire une énergie quasi illimitée. Comparable en ambition au télescope spatial James Webb, ce projet explore les profondeurs de notre planète.Dans un reportage immersif de CNN, Klara Halldórsdóttir, une habitante de Grindavík, décrit sa ville déserte, désormais sillonnée de failles et d'édifices engloutis. Cette nouvelle série d’éruptions, commencée en décembre 2023, signe le réveil d’un volcan assoupi depuis l’ère viking. En 80 ans, l'Islande a transformé sa vulnérabilité volcanique en force : la géothermie, qui chauffe 90 % des foyers, a fait du pays autrefois le plus pauvre d’Europe un des plus prospères. Là où certains volcans renferment du lithium, ceux d’Islande fournissent de la chaleur.En 2009, un forage à Krafla percute une chambre magmatique profonde, et aujourd’hui, Bjarni Pálsson et son équipe sont de retour, bien décidés à transformer ce magma à 1 000 °C en une centrale ultra-puissante. Selon leurs calculs, cette chaleur pourrait générer une énergie dix fois plus efficace que la géothermie traditionnelle : deux puits dans le magma remplaceraient 18 puits standards. Ce projet ambitieux, espéré pour 2027, pourrait ouvrir la voie à d’autres régions volcaniques comme la Californie, le Japon ou le Kenya. Si l’Islande réussit, elle pourrait offrir à l'humanité une source d'énergie propre, renouvelable et presque infinie.Explosion du coût de l’électricité à cause des data centers ?
02:01|En à peine deux ans, l’intelligence artificielle est passée de technologie émergente à outil commun pour des millions de personnes. Si ses capacités ont fasciné, ses besoins énergétiques, eux, inquiètent déjà, et pour cause : le développement de l’IA dépend de data centers gourmands en électricité, et les effets sur les réseaux s’annoncent lourds. En effet, plusieurs États américains constatent déjà une hausse des prix de l’électricité, qu'ils attribuent en partie à la prolifération de ces infrastructures. Le Washington Post rapporte qu’en Ohio, Pennsylvanie, Virginie ou New Jersey, les factures pourraient grimper de 20 %.Selon Neil Chatterjee, ancien commissaire de la Commission fédérale de régulation de l'énergie, de nombreux responsables qui voyaient ces centres de données comme moteurs économiques se rendent compte que ces installations viennent avec des coûts élevés pour les consommateurs. Et tandis que les géants de la tech minimisent leur impact, la réalité des factures semble difficile à nier.La situation n’est pas sans risque : des services de régulation, comme la State Corporation Commission de Virginie, pointent déjà des tensions sur les réseaux, alertant sur des « problèmes et risques inédits » pour les distributeurs d’électricité et leurs clients. La France, avec son réseau de centrales nucléaires, attire désormais l’intérêt des grands acteurs comme Microsoft, qui s'assure une place dans ce mix énergétique stable mais non infini. Ces premiers retours interrogent : l’IA, moteur d’innovation, pourrait-elle devenir un fardeau énergétique ? Et à quel prix pour les consommateurs et les infrastructures ? Les mois à venir seront décisifs pour savoir si les ambitions de l’IA peuvent réellement rimer avec durabilité.Une île artificielle dédiée à l'énergie éolienne en construction ?
02:06|Un grand pas vient d’être franchi pour le développement des infrastructures vertes en Europe. Le vendredi 25 octobre, la Banque européenne d’investissement (BEI) a octroyé un financement de 702 millions de dollars à Elia Transmission Belgium (ETB) pour la construction de la première île énergétique artificielle au monde, baptisée Princesse Elisabeth. "Cette île est une pierre angulaire de la transition énergétique belge et européenne", a déclaré Robert de Groot, vice-président de la BEI, soulignant son rôle central dans l’indépendance énergétique des pays de l’Union.Située à 45 km des côtes belges, l’île Princesse Elisabeth sera érigée à partir de cette année, avec un chantier prévu jusqu’en 2027, comme le rapporte Interesting Engineering. Les premières fondations sont d’ores et déjà en cours de réalisation à Flessingue, aux Pays-Bas. Combinant des infrastructures hybrides de courant continu haute tension (CCHT) et de courant alternatif (CVC) pour maximiser l’efficacité de transmission, cette île accueillera 3,5 GW d’énergie éolienne offshore pour alimenter le réseau belge. Ce dispositif permettra d’approvisionner plus de trois millions de foyers, tout en réduisant la dépendance aux énergies fossiles, selon les projections d’Elia Transmission Belgium. En plus de renforcer le réseau énergétique national, le projet contribuera aux objectifs climatiques de l’UE en matière de renouvelables et de neutralité carbone, avec des méthodes de construction respectueuses de la biodiversité marine.Par ailleurs, l’île servira de hub pour les échanges d’électricité entre la Belgique et ses pays voisins, notamment le Royaume-Uni. Grâce à des câbles haute tension, elle connectera les parcs éoliens de la mer du Nord aux centres de consommation continentaux, facilitant ainsi l’importation et l’exportation d’énergie renouvelable.IA : des modèles de langage beaucoup moins énergivores arrivent ?
02:22|Ce n’est plus un secret pour personne : l'IA est une grande consommatrice d'énergie, un véritable casse-tête pour la planète et pour nous. Pourtant, cela n'empêche pas certains, comme Sam Altman, d'avoir des ambitions démesurées, avec par exemple la construction d’un centre de données pour OpenAI qui consommerait l'équivalent énergétique d'une ville de trois millions de foyers. Face à cette course effrénée à la puissance de calcul, la start-up britannique Oriole Networks a décidé de prendre le contre-pied en proposant une solution radicalement différente. Après deux décennies de recherche, l’entreprise a mis au point une technologie qui utilise la lumière pour former de grands modèles de langage (LLM), réduisant ainsi la consommation énergétique par un facteur de 1 000 grâce à une approche dite photonique.Mais concrètement, comment parviennent-ils à former ces modèles sans tout surchauffer ? La technologie d'Oriole repose sur des réseaux photoniques sophistiqués qui interconnectent les puces IA. Exploitant les propriétés uniques de la lumière, ce procédé permet non seulement d’accélérer le traitement des données, mais aussi de diminuer de façon drastique l’énergie requise. En d’autres termes, cette avancée permettrait d’entraîner les LLM jusqu'à 100 fois plus rapidement tout en consommant une fraction de l’énergie actuelle. Pour mieux comprendre l’ampleur du changement, il faut savoir qu’une seule requête sur un modèle comme ChatGPT consomme dix fois plus d’énergie qu'une recherche sur Google, selon l’Agence internationale de l’énergie. Dans ce contexte, où la demande énergétique des centres de données pourrait tripler d’ici 2035 d’après une étude du Rhodium Group, Oriole Networks se présente comme une alternative verte capable de réduire la pression sur les réseaux électriques.Pour financer cette révolution, Oriole Networks a levé 35 millions de dollars, avec le soutien de fonds spécialisés comme Plural et le Clean Growth Fund. L’objectif ? Accélérer la commercialisation de cette technologie révolutionnaire et mettre en service les premiers systèmes dès 2025. Alors que l’urgence climatique se fait de plus en plus pressante — comme le rappelait déjà Jacques Chirac en 2002 avec sa célèbre phrase « Notre maison brûle, et nous regardons ailleurs » — cette innovation pourrait bien être une véritable bouffée d'oxygène.À cause de l’IA, l’Europe va-t-elle laisser tomber l’environnement ?
02:13|Les grands modèles de langage nécessitent des capacités de calcul colossales. Un seul mètre carré d'un centre de données dédié à l’IA peut consommer jusqu'à 120 kilowatts d'énergie, soit l'équivalent de la consommation énergétique et de la chaleur dégagée par 15 à 25 foyers, selon Andrey Korolenko, directeur des produits et de l'infrastructure chez Nebius, un spécialiste du cloud. L'arrivée de nouveaux processeurs comme le Blackwell GB200 de NVIDIA ne fait qu'intensifier ce phénomène. Pourtant, l'Union européenne (UE) s'est fixé l'objectif ambitieux de réduire sa consommation d'énergie de 11,7 % d'ici 2030.Cette course à la puissance pousse les fournisseurs d'IA à privilégier des systèmes de refroidissement par eau de plus en plus performants. Les géants américains du secteur font ainsi pression sur les opérateurs européens pour faire passer la température de l'eau utilisée de 30-32° C à 20-24° C. Mais cette méthode, en plus d'entraîner une consommation d'eau élevée, exige davantage d'énergie pour maintenir les serveurs à des températures optimales. Michael Winterson, président de l'Association européenne des centres de données (EUDCA), met en garde : « La pression exercée par les fabricants de puces, qui sont engagés dans une véritable course à l’espace, risque de nous ramener à une situation insoutenable, similaire à celle que nous avons connue il y a 25 ans. »En 2018, l'UE anticipait déjà une augmentation de 28 % de la consommation d'énergie des centres de données d'ici 2030. Avec l'essor de l'IA, cette hausse pourrait être multipliée par deux, voire trois, dans certains pays. Les entreprises, quant à elles, s’efforcent de trouver un équilibre entre performance et efficacité énergétique. Les nouveaux centres de données intègrent des technologies de refroidissement liquide plus optimisées, mais la demande croissante en énergie reste un défi majeur, accentué par la concurrence entre les géants technologiques.Les responsables européens tentent d'élaborer des solutions en collaborant avec les acteurs clés, tels que NVIDIA. Cependant, aucune approche concrète n'a encore émergé. Il est important de rappeler que des entreprises comme Microsoft et Google ont vu leurs émissions de CO2 augmenter de manière significative en raison de l’essor de l’IA générative.Amérique du Sud : des centres de données partout malgré la sécheresse ?
02:52|Les centres de données, où les géants de la tech stockent des quantités massives d’informations, nécessitent des systèmes de refroidissement souvent très gourmands en eau. À Cerrillos, au sud-est de Santiago, Google projette de construire son plus grand centre de données d’Amérique latine, avec un investissement initial de 200 millions de dollars, où environ 40 % des infrastructures seraient dédiées au refroidissement.Depuis 2015, Google exploite déjà un centre de données au nord de Santiago, qui consomme 50 litres d’eau par seconde, soit près d’un milliard de litres par an – l’équivalent de 285 piscines olympiques. « Avec des milliards de transistors fonctionnant à haute fréquence, beaucoup de chaleur est générée, et ces circuits doivent être maintenus au frais, sous peine de fondre », explique Eduardo Vera, coordinateur au Centre de modélisation mathématique de l’Université du Chili.Face à la sécheresse historique qui touche Santiago, Google a dû revoir ses plans après qu’un tribunal environnemental ait bloqué le projet en janvier. En réponse, la firme a annoncé en septembre qu’elle opterait pour un refroidissement par air, une technologie plus coûteuse mais nettement moins consommatrice d’eau. Les écologistes, opposés au projet depuis le début, ont salué cette décision. « Ils ont dû faire face à notre résistance, mais au final, ils ont changé leur système de refroidissement, établissant ainsi un précédent », a déclaré Tania Rodriguez, du Mouvement socio-environnemental pour l’eau et le territoire.Un scénario similaire s’est produit en Uruguay, où Google avait annoncé en 2019 un projet de centre de données nécessitant 2,7 milliards de litres d’eau par an, l’équivalent de la consommation quotidienne de 55 000 personnes. Confronté à une grave sécheresse en 2023, le pays a dû faire face à des pénuries d’eau potable à Montevideo. Là encore, le projet initial a été revu. « Nous avons réussi à les faire adopter un système de refroidissement principalement basé sur l’air », a confirmé Raul Viñas, du Mouvement pour un Uruguay durable (Movus).Dans un message adressé à l’AFP, Google a souligné que son approche visait à minimiser l’impact climatique et à gérer les ressources naturelles de manière responsable, en fonction des conditions locales et de la disponibilité des énergies décarbonées. Amazon Web Services (AWS), quant à lui, a également deux projets de centres de données à Santiago et vise à rendre ses installations « positives en termes d’eau d’ici 2030 ». Will Hewes, responsable de la durabilité de l’eau chez AWS, a précisé que cela impliquait de « rendre plus d’eau aux communautés locales » en utilisant des outils cloud pour surveiller et optimiser l’utilisation de l’eau.En juin, le Chili a annoncé la construction de 28 nouveaux centres de données, en plus des 22 déjà en service. « Nous avons probablement l’une des meilleures connexions Internet au monde, avec un accès au haut débit à l’échelle nationale », a déclaré la ministre chilienne de la Science et de la Technologie, Aisén Etcheverry. Les nouvelles installations de stockage de données, dont les autorisations sont en cours d’approbation, auront une consommation d’eau quasiment nulle, selon le gouvernement, pour éviter les conflits sociaux liés à la pénurie d’eau. « L’industrie mondiale s’est adaptée », a assuré Mme Etcheverry.Lithium : les énormes réserves des USA vont-elles bouleverser le monde ?
02:41|Dans les profondeurs d’une mer ancienne, enfouie sous le sud de l’Arkansas, se trouve peut-être une clé majeure de la transition énergétique des États-Unis. Une vaste étude menée par des équipes de recherche fédérales et locales a récemment révélé l’existence d’un gisement de lithium de proportions impressionnantes.Pour explorer ce trésor géologique encore insoupçonné, les chercheurs ont mis en œuvre les dernières avancées en intelligence artificielle. Leur modèle d’apprentissage automatique, enrichi de données géologiques, géochimiques et thermiques, a permis d'estimer entre 5,1 et 19 millions de tonnes de lithium dissous dans ces saumures profondes. Un chiffre qui représenterait jusqu’à 136 % des ressources actuellement recensées aux États-Unis, réduisant potentiellement la dépendance du pays vis-à-vis des importations de ce métal stratégique. Actuellement, les États-Unis se fournissent principalement en lithium auprès de la Chine, de l’Australie et du Chili.À la différence des mines à ciel ouvert qui dénaturent les paysages ou des bassins d’évaporation énergivores comme ceux du Salar d’Uyuni en Bolivie, l’Arkansas dispose d’un atout de taille. L’industrie du brome y exploite déjà les saumures grâce à un procédé d’extraction et de réinjection des eaux, et en 2022, cette méthode a permis de récupérer 5 000 tonnes de lithium dissous. L’extraction du lithium pourrait donc s’intégrer dans ce système existant, réduisant théoriquement son impact environnemental. Cependant, Patrick Donnelly, biologiste au Center for Biological Diversity, appelle à la prudence : « Nous soutenons les véhicules électriques et le stockage par batteries, mais il n’existe pas de solution miracle. L’extraction directe du lithium a aussi des répercussions. » Cette découverte survient dans un contexte de demande croissante pour le lithium, stimulée en grande partie par l’industrie automobile. En 2023, l’Agence Internationale de l’Énergie a estimé que 85 % de la consommation mondiale de lithium était destinée aux batteries de véhicules électriques, soit une hausse de 30 % en un an.Si cette découverte ouvre des perspectives prometteuses pour l’industrie américaine du lithium, le chemin vers une exploitation à grande échelle reste semé d’obstacles. Les défis techniques sont considérables : le pompage et le traitement des saumures de Smackover nécessiteront des quantités d’eau et d’énergie énormes, et la gestion des résidus salins liés au processus soulève des questions environnementales complexes. De plus, convertir cette ressource souterraine en une production industrielle demandera des années de développement et des investissements colossaux. Un véritable défi technologique, écologique et financier s’annonce.