Partager

cover art for L’entraînement des IA bientôt ultra-économe grâce aux « impulsions » ?

Choses à Savoir TECH VERTE

L’entraînement des IA bientôt ultra-économe grâce aux « impulsions » ?

L’intelligence artificielle générative repose aujourd’hui sur l’apprentissage profond, une technique qui imite, de loin, le fonctionnement du cerveau humain à l’aide de réseaux neuronaux artificiels. Mais là où notre cerveau se montre d’une sobriété remarquable, ces réseaux numériques se révèlent particulièrement gourmands en énergie, surtout lors de la phase d’entraînement, quand les modèles apprennent à reconnaître des images, du texte ou des sons. Un talon d’Achille bien connu, à l’heure où l’empreinte énergétique de l’IA inquiète de plus en plus.


C’est précisément sur ce point que se sont penchés des chercheurs de l’Université de Bonn. Leur travail, publié dans la revue scientifique Physical Review Letters, explore une piste alternative : les réseaux de neurones à impulsions artificiels, appelés SNN pour Spiking Neural Networks. Une approche inspirée beaucoup plus directement du vivant. Dans le cerveau biologique, les neurones ne transmettent pas de signaux continus. Ils communiquent par de brèves impulsions électriques, envoyées uniquement lorsque cela est nécessaire. À l’inverse, les réseaux neuronaux classiques utilisés en IA fonctionnent en flux permanent, ce qui explique en grande partie leur appétit énergétique. Les SNN, eux, ne déclenchent une activité que lorsqu’un seuil est franchi. Résultat : une consommation potentiellement bien plus faible.


Jusqu’à présent, un obstacle majeur freinait leur adoption. Dans les réseaux classiques, l’apprentissage repose sur l’ajustement progressif de l’intensité des connexions entre neurones : on passe par exemple de 0,9 à 0,8. Or, dans un réseau à impulsions, pas de demi-mesure : soit le neurone émet une impulsion, soit il reste silencieux. Impossible, pensait-on, d’y appliquer les méthodes d’entraînement traditionnelles. C’est là que l’équipe de Bonn a fait une découverte clé. Si l’intensité d’une impulsion ne peut pas varier, son timing, lui, le peut. Plus la connexion entre deux neurones est forte, plus l’impulsion est émise rapidement. En jouant sur cette temporisation, les chercheurs ont montré qu’il est possible d’ajuster l’influence d’un neurone sur un autre, et donc d’entraîner le réseau. « Nous pouvons utiliser les mêmes méthodes d’apprentissage conventionnelles, très efficaces, sur les réseaux à impulsions que nous avons étudiés », explique Christian Klos, l’un des auteurs.


Les premiers résultats sont prometteurs : le réseau a déjà appris à reconnaître des chiffres manuscrits. Prochaine étape annoncée : la reconnaissance vocale. Si ces travaux se confirment à grande échelle, ils pourraient ouvrir la voie à des intelligences artificielles bien plus sobres, capables d’apprendre en consommant nettement moins d’énergie. Un changement discret, mais potentiellement décisif.

More episodes

View all episodes

  • Le nucléaire n’est pas le vrai carburant de l’IA ?

    02:14|
    Le réveil est brutal pour les grandes promesses vertes de la Silicon Valley. Fin janvier, une enquête du The Guardian met les pieds dans le plat : derrière les discours sur la neutralité carbone, les géants du numérique se tournent massivement… vers le gaz naturel. Sur le papier, tout semblait pourtant réglé. Partenariats nucléaires spectaculaires, investissements dans les renouvelables, déclarations d’intention. Meta Platforms multiplie les annonces, Bill Gates promet des réacteurs nouvelle génération. Mais la réalité est plus terre à terre : le réseau électrique actuel n’arrive plus à suivre.Le problème est simple, presque mathématique. Les modèles d’intelligence artificielle générative consomment une énergie colossale, en continu. Les serveurs ne dorment jamais. Or le solaire et l’éolien produisent par à-coups, et le nucléaire demande des années, parfois des décennies, pour sortir de terre. Trop lent pour une industrie qui avance à la vitesse du logiciel. Conséquence : les exploitants de data centers frappent à la porte des centrales thermiques. Aux États-Unis, les opérateurs de gazoducs signalent une explosion des demandes de raccordement direct pour alimenter ces fermes de serveurs, parfois en contournant un réseau public déjà saturé. Même Amazon a récemment alerté : la course à l’IA coûte une fortune en infrastructures, et l’énergie propre n’arrive pas assez vite.La transition énergétique se heurte ainsi à la physique. On ne construit pas une centrale comme on déploie une mise à jour. Les courbes exponentielles de l’IA cognent contre les limites très concrètes du béton, des câbles et des turbines. Derrière ce virage, une forme d’aveu. Les objectifs de neutralité carbone pour 2030 restent affichés, mais la priorité est ailleurs : maintenir les puces NVIDIA à plein régime. Google a même racheté un spécialiste des data centers pour sécuriser son approvisionnement énergétique.
  • Elon Musk veut 1M de data centers dans l’espace ?

    02:28|
    Imaginez un instant : au lieu de construire d’immenses hangars bourrés de serveurs dans le désert, on enverrait les centres de données… dans l’espace. Ce qui ressemblait encore hier à un délire de science-fiction est désormais couché noir sur blanc dans des documents officiels. Depuis plusieurs mois, Elon Musk martèle la même idée : placer des data centers en orbite pour profiter d’une énergie solaire quasi illimitée et libérer de la place au sol, alors que la soif de calcul liée à l’intelligence artificielle explose. Aujourd’hui, SpaceX passe à l’action.Dans un dossier transmis à la Federal Communications Commission, l’entreprise détaille un projet de satellites opérant entre 500 et 2 000 kilomètres d’altitude. Les précisions techniques restent rares, mais l’objectif est clair : occuper des orbites encore peu utilisées. Les appareils placés sur des trajectoires héliosynchrones, baignés de soleil plus de 99 % du temps, assureraient une puissance de calcul continue. D’autres, sur des orbites moins inclinées, absorberaient les pics de demande pour répartir la charge. Pour bâtir cette infrastructure, SpaceX compte capitaliser sur son expérience avec Starlink. Et le discours va plus loin que la simple logistique informatique. L’entreprise présente cette constellation comme une étape vers une « civilisation de type II » sur l’échelle de Kardashev, capable d’exploiter pleinement l’énergie du Soleil et de faire tourner des services d’IA pour des milliards d’utilisateurs, tout en préparant l’humanité à devenir multiplanétaire.Reste une inquiétude : l’orbite terrestre se remplit déjà à grande vitesse. De plus en plus d’experts alertent sur la congestion et les risques de collisions. Musk, lui, se veut rassurant : selon lui, les satellites seraient si espacés qu’ils se croiseraient à peine. « L’espace est immense, au-delà de ce qu’on imagine », écrit-il sur X. Le calendrier dépend désormais du feu vert de la FCC. En toile de fond, une possible fusion avec xAI se profile. De quoi donner naissance à un conglomérat spatial et numérique hors norme.
  • 2026, année de résistance à Shein en France ?

    02:15|
    C’est un nouveau round judiciaire qui s’ouvre entre Shein et l’État français. Début février, la bataille reprend devant la justice. Après une première décision favorable à la plateforme chinoise, le gouvernement a décidé de contre-attaquer. Direction la cour d'appel de Paris, avec un objectif clair : obtenir la suspension du site. Même si la première manche a été perdue, Paris ne lâche pas l’affaire.Invité sur TF1 le jour même de l’audience, le ministre des PME et du Commerce, Serge Papin, a détaillé la stratégie de l’État. Son argument central : un « trouble à l’ordre public ». Selon lui, la plateforme met des produits sur le marché sans en assumer réellement la responsabilité. Il parle de non-conformités « systématiques » et estime que Shein échappe trop facilement aux obligations qui pèsent sur les commerçants classiques. En clair : vendre, oui. Répondre de la conformité des produits, beaucoup moins.Mais le gouvernement a déjà prévu un plan B. Si Shein remportait à nouveau cette bataille judiciaire, l’exécutif passerait par la loi. Une proposition doit être déposée pour inscrire noir sur blanc la responsabilité juridique de la plateforme sur l’ensemble des articles vendus. Avec ce nouveau cadre, la Répression des fraudes pourrait constater elle-même les manquements et suspendre l’activité, sans passer par un juge. Autrement dit, changer les règles du jeu.Et la pression ne s’arrête pas là. Côté fiscalité aussi, l’étau se resserre. Dès le 1er mars, une taxe de deux euros par colis s’appliquera en France, selon la catégorie d’articles. Puis, à partir du 1er juillet, un droit de douane forfaitaire de trois euros sera instauré au niveau européen. Serge Papin l’a annoncé sans détour : « 2026 sera l’année de résistance à Shein ». Derrière cette formule, un message politique limpide : réguler la fast fashion importée, rééquilibrer la concurrence… et montrer que, face aux géants du e-commerce, l’État compte bien garder la main.
  • L’IA permet de stabiliser la fusion nucléaire ?

    02:04|
    La fusion nucléaire, sur le papier, ressemble à un rêve d’ingénieur : reproduire sur Terre la réaction qui alimente les étoiles pour produire une énergie propre, quasi inépuisable. Dans la réalité, c’est un casse-tête scientifique que les chercheurs tentent de résoudre depuis des décennies. Pour forcer deux isotopes d’hydrogène à fusionner, les équipes travaillent dans des machines appelées tokamaks, de vastes chambres magnétiques capables de confiner un plasma chauffé à des températures supérieures à celles du cœur du Soleil. Problème : ce plasma est aussi capricieux qu’explosif. À la moindre instabilité, il peut heurter les parois internes, endommager l’installation… et stopper net la réaction.« Maintenir la stabilité de la couche limite du plasma est un défi majeur pour l’avenir de la fusion », rappellent les chercheurs du Princeton Plasma Physics Laboratory, le PPPL. Jusqu’ici, les scientifiques géraient surtout les dégâts après coup. Autrement dit, on corrigeait une fois l’instabilité apparue.Mais trois chercheurs du laboratoire, récemment récompensés par le prix d’excellence de la fondation Kaul, proposent une stratégie plus offensive. Leur idée : anticiper les turbulences et ajuster les paramètres du tokamak en temps réel, avant que la situation ne dégénère. Pour cela, ils ont abandonné l’approche classique en deux dimensions. Les champs magnétiques des tokamaks sont traditionnellement modélisés en 2D. Eux misent sur une optimisation en trois dimensions, en combinant physique, intelligence artificielle et contrôle instantané. « Nous explorons une optimisation 3D en mêlant la physique, l’IA et le pilotage en temps réel », explique Sang Kyeun Kim, l’un des membres de l’équipe.Concrètement, des algorithmes de machine learning simulent des dizaines de scénarios possibles et déterminent comment ajuster les champs magnétiques pour garder le plasma stable tout en maintenant un haut niveau d’énergie. Pendant l’expérience, l’IA corrige en continu le tir, presque comme un pilote automatique. La prochaine étape : automatiser entièrement ce contrôle magnétique. Car sans ces outils intelligents, les chercheurs le reconnaissent, il faudrait sans doute encore des décennies pour dompter la fusion.
  • Un matériau capable d’absorber le CO2 dès sa conception ?

    02:17|
    Le béton est partout. Dans nos immeubles, nos routes, nos ponts. C’est le matériau roi du bâtiment… et aussi l’un des plus polluants. À lui seul, il représente près de 8 % des émissions mondiales de CO₂. Un chiffre massif, rappelé par Nima Rahbar, directeur du département de génie civil, environnemental et architectural du Worcester Polytechnic Institute, aux États-Unis. Autrement dit : construire le monde d’aujourd’hui réchauffe celui de demain. Face à ce constat, la filière cherche des alternatives. En décembre, des chercheurs britanniques proposaient déjà d’intégrer des déchets de coquillages pour alléger l’empreinte carbone du béton. Cette fois, une équipe américaine affirme avoir franchi un cap supplémentaire. Elle présente un matériau de construction à la fois solide, peu coûteux… et carrément à bilan carbone négatif.Son nom : enzymatic structural material, ou ESM. L’étude, publiée dans la revue Matter, décrit un procédé original. Les scientifiques utilisent une enzyme capable de transformer le dioxyde de carbone en carbonate de calcium, autrement dit en particules minérales solides. Ces particules sont ensuite agglomérées et durcies dans des conditions douces, à basse température, pour former des éléments de construction en quelques heures. C’est là que se joue la différence. Contrairement au béton classique, qui exige des fours très énergivores et de longs temps de séchage, l’ESM se fabrique rapidement et sans forte chaleur. Résultat : beaucoup moins d’énergie consommée, donc moins d’émissions.Mieux encore, le matériau ne se contente pas de polluer moins : il capte du carbone. Selon Nima Rahbar, produire un mètre cube d’ESM permettrait de stocker plus de 6 kilos de CO₂, quand le béton traditionnel en émet environ 330 kilos pour le même volume. « Nous ne réduisons pas seulement les émissions, nous capturons réellement le carbone », souligne le chercheur. Autre promesse : une meilleure réparabilité, donc moins de déchets et des coûts réduits sur le long terme. Reste maintenant l’épreuve du terrain. Des tests doivent confirmer sa fiabilité avant une utilisation à grande échelle. Si tout se passe bien, l’ESM pourrait bientôt se retrouver dans nos terrasses, nos toitures ou nos panneaux muraux.
  • Une puce plus rapide et moins énergivore signée du MIT ?

    02:10|
    Et si la prochaine révolution de l’intelligence artificielle ne venait pas d’un nouvel algorithme… mais d’une puce électronique repensée de fond en comble ? Au MIT, des ingénieurs viennent de présenter une architecture qui pourrait changer la donne. Leur idée : empiler directement les composants d’une puce les uns sur les autres, plutôt que de les étaler côte à côte. Un détail en apparence, mais qui bouleverse tout.Jusqu’ici, la partie chargée des calculs et celle qui stocke les données étaient physiquement séparées. Résultat : les informations passaient leur temps à voyager d’un point à l’autre du circuit, consommant du temps… et surtout beaucoup d’énergie. En rapprochant ces deux fonctions, les chercheurs réduisent drastiquement ces allers-retours. Les échanges deviennent plus rapides et nettement moins gourmands en électricité. Un enjeu crucial à l’heure où l’IA explose. Pour y parvenir, l’équipe a mis au point un composant hybride : un transistor à mémoire. Autrement dit, un seul élément capable à la fois de calculer et de conserver des données. À l’échelle nanométrique, ce dispositif présente très peu de défauts électriques, ce qui améliore à la fois la vitesse d’exécution et l’efficacité énergétique, selon les chercheurs.Ce type d’innovation arrive au bon moment. Les applications d’apprentissage profond et de vision artificielle se multiplient, et les centres de données engloutissent toujours plus d’électricité. L’Agence internationale de l’énergie estime même que leur demande pourrait presque doubler d’ici 2030. Or, une grande partie de cette consommation ne sert pas à calculer, mais simplement à déplacer des données à l’intérieur des puces. « Nous devons absolument réduire l’énergie utilisée par l’IA, ce modèle n’est pas soutenable », rappelle Yanjie Shao, auteur principal de l’étude. Techniquement, les chercheurs ont utilisé de l’oxyde d’indium, un matériau qui peut être déposé à basse température sans abîmer les autres couches. Ils y ont ajouté une fine mémoire ferroélectrique. Le transistor change d’état en dix nanosecondes et fonctionne à une tension plus faible que les technologies actuelles. Pour l’instant, le système n’a été testé que sur prototype. Mais l’intégration dans de vraies puces semble désormais à portée de main.
  • Les microplastiques empêchent les océans d’absorber le CO2 ?

    02:13|
    On parle souvent des microplastiques pour leurs effets visibles : plages polluées, poissons contaminés, déchets flottants. Mais une nouvelle étude suggère une menace plus discrète… et peut-être plus grave encore. Ces fragments minuscules pourraient aussi perturber le climat. Des chercheurs venus de Chine, de Hong Kong, du Pakistan et des Émirats arabes unis ont publié leurs travaux dans le Journal of Hazardous Materials: Plastics. Leur conclusion est claire : les microplastiques, ces particules de moins de cinq millimètres, altèrent la capacité des océans à absorber le dioxyde de carbone. Or cette absorption est essentielle : c’est l’un des mécanismes clés qui permet à la planète de réguler sa température.Le contexte est inquiétant. Selon l’ONU, la production mondiale de plastique dépasse aujourd’hui 400 millions de tonnes par an. La moitié concerne des objets à usage unique, et moins de 10 % sont recyclés. Sans changement majeur, cette production pourrait tripler d’ici 2060. Résultat : des microplastiques partout. Dans les grands fonds marins, l’eau douce, l’air, les sols, jusque sur la glace arctique. Pour comprendre leur impact réel, l’équipe a analysé 89 études scientifiques. Et le tableau se précise. Les microplastiques perturbent la vie marine et affaiblissent ce que les spécialistes appellent la « pompe biologique à carbone » : ce processus naturel par lequel le phytoplancton capte le CO₂ via la photosynthèse, puis l’envoie vers les profondeurs océaniques. Problème : ces particules réduisent la photosynthèse du phytoplancton et modifient le métabolisme du zooplancton.Autre effet pervers : en se dégradant, certains plastiques libèrent eux-mêmes des gaz à effet de serre. Et autour de ces fragments se développe une « plastisphère », un écosystème microbien encore mal connu, qui pourrait accentuer ces déséquilibres. À long terme, les chercheurs redoutent un enchaînement : océans plus chauds, plus acides, perte de biodiversité… et, derrière, des menaces directes pour la pêche, la sécurité alimentaire et les communautés côtières.
  • En Chine, les éoliennes flottent dans l’air ?

    02:05|
    Dans le ciel gris du Sichuan, certains ont levé la tête, un peu perplexes. Ce 11 janvier, au-dessus de la ville de Yibin, ce n’était ni un drone ni un ballon météo. Mais une éolienne. Oui, une éolienne volante. La société chinoise Beijing SAWES Energy Technology vient de tester, grandeur nature, une machine qui bouscule les codes du secteur. Oubliez les mâts géants plantés au sol. Ici, la production d’électricité prend de la hauteur. Littéralement.Sa plateforme, baptisée S2000, est construite en matériaux légers et remplie d’hélium. Elle flotte comme un dirigeable et capte les vents en altitude pour les convertir en énergie. Lors de ce vol d’essai, l’engin est monté jusqu’à 2 000 mètres au-dessus du sol. Résultat : 385 kilowattheures produits, directement injectés dans le réseau local, selon le Global Times, média proche du pouvoir chinois. Après un premier modèle, le S1500, présenté il y a quelques mois, l’entreprise franchit donc un cap supplémentaire. Plus haut, plus puissant.Visuellement, la machine ressemble à un grand ballon conique de 60 mètres de long sur 40 de large. Elle est reliée au sol par un câble qui assure à la fois sa stabilité… et le transport de l’électricité. À l’intérieur, douze turbines tournent pour maximiser la production. Son concepteur assure qu’il s’agit de la première éolienne capable d’opérer au-dessus de zones urbaines. Un argument clé. Le PDG, Weng Hanke, imagine deux usages principaux : alimenter des sites isolés, comme des postes-frontières, ou compléter les parcs éoliens traditionnels dans une logique énergétique « en trois dimensions ». Car là-haut, le vent est plus fort, plus régulier. À comparer avec les éoliennes terrestres, limitées à environ 155 mètres, le gain est évident. La forme même de la S2000 joue un rôle : l’air est canalisé et compressé avant d’atteindre les turbines, ce qui améliore encore le rendement. À terme, la plateforme pourrait produire jusqu’à 3 mégawatts.
  • 32 entreprises responsables de 50% des émissions mondiales de CO2 ?

    02:27|
    Pour la première fois, une année civile entière a dépassé la barre des +1,5 °C par rapport à l’ère préindustrielle. C’était l’objectif à ne pas franchir fixé par l’Accord de Paris. C’est le constat posé par Copernicus, le programme européen de référence sur le climat. Les rejets mondiaux de gaz à effet de serre ont encore progressé de 1,3 % par rapport à 2023, avec une consommation d’énergies fossiles toujours en hausse.Une étude, révélée par The Guardian, pointe des responsabilités très concentrées. Selon cette analyse, 32 entreprises de combustibles fossiles à elles seules seraient à l’origine de la moitié des émissions mondiales de CO₂ liées à la crise climatique en 2024. L’année précédente, elles étaient 36. Autrement dit : moins d’acteurs, mais toujours autant de pollution. Pour Tzeporah Berman, co-autrice du rapport et membre de l’initiative Fossil Fuel Non-Proliferation Treaty, la conclusion est sévère : un petit groupe d’entreprises domine les émissions mondiales et freine activement les politiques climatiques. La base de données Carbon Majors, qui suit 178 grands producteurs de pétrole, gaz, charbon et ciment depuis 1854, montre que les émissions ont augmenté dans toutes les régions du monde en 2024. Les entreprises asiatiques, à elles seules, représentent près d’un tiers du total.Et beaucoup de ces géants sont publics. Dix-sept des vingt plus gros émetteurs sont contrôlés par des États. Des pays comme l’Arabie saoudite, la Russie, la Chine ou l’Inde. Ce sont aussi ces mêmes États qui ont bloqué, lors de la COP30, une feuille de route vers la sortie des fossiles. À eux seuls, ils ont généré 38 % des émissions liées aux combustibles fossiles et au ciment. Les conséquences, elles, sont déjà mesurables : 213 vagues de chaleur plus intenses entre 2000 et 2023, près de la moitié du réchauffement actuel et un tiers de la hausse du niveau des mers imputables à ces émissions. Le coût économique ? Jusqu’à 3 600 milliards de dollars de pertes liées à la chaleur extrême entre 1991 et 2020. Pour l’ancienne négociatrice climat de l’ONU Christiana Figueres, ces grands émetteurs sont clairement « du mauvais côté de l’histoire ». Les investissements dans les énergies propres progressent, mais les mastodontes du carbone, eux, s’accrochent encore au passé.