Partager

cover art for Le web majoritairement peuplé de bots IA ? Clouflare le prouve.

Choses à Savoir TECH

Le web majoritairement peuplé de bots IA ? Clouflare le prouve.

C’est une annonce qui fait l’effet d’un séisme dans le monde du web. Matthew Prince, le patron de Cloudflare, révèle que son entreprise a bloqué 416 milliards de requêtes de robots d’intelligence artificielle depuis juillet. Un chiffre vertigineux, qui confirme une tendance que beaucoup pressentaient : Internet n’est plus majoritairement parcouru par des humains, mais par des machines.


Les données du rapport 2025 d’Imperva enfoncent le clou : les bots représentent désormais 51 % du trafic mondial, contre seulement 27 % il y a dix ans. Une bascule spectaculaire, portée par la frénésie des géants de l’IA — OpenAI, Anthropic, Google et consorts — dont les modèles doivent avaler toujours plus de données pour s’améliorer. Résultat : leurs robots arpentent le web en long, en large et en travers. GPTBot, l’aspirateur d’OpenAI, a triplé sa présence en un an. ClaudeBot, son équivalent chez Anthropic, suit le même rythme. Ces bots vont plus loin que les anciens robots d’indexation : ils réclament 2,5 fois plus de données par requête que le crawler de Google. Et le plus croustillant, c’est qu’ils ne renvoient quasiment aucun visiteur vers les sites qu’ils exploitent. Cloudflare a mesuré un ratio édifiant : 70 900 visites de ClaudeBot pour 1 visiteur humain généré. OpenAI fait un peu mieux… mais reste entre 250 et 1 217 pour un.


Cette marée robotique a un coût. Le projet open source Read the Docs a vu sa consommation de bande passante chuter de 75 % en bloquant les bots IA — de 800 à 200 Go par jour — générant 1 500 dollars d’économies mensuelles. Multipliez cela par des milliers de sites : la facture globale devient gigantesque. Face à cette extraction massive de contenus, des pistes émergent : faire payer les visites des robots d’IA, ou rémunérer les créateurs dont les contenus alimentent les réponses générées. Reste à convaincre les géants du secteur. En attendant, Cloudflare a tranché : depuis juillet, tous les bots IA sont bloqués par défaut sur les sites qu’il protège. Un geste symbolique — l’entreprise ne couvre qu’environ 20 % du web — mais un signal fort. Les créateurs de contenus ne sont peut-être pas encore dépossédés.

More episodes

View all episodes

  • Google permet de créer des agents IA personnalisés ?

    02:23|
    L’intelligence artificielle est déjà partout dans notre quotidien professionnel. Depuis plus d’un an, Google a intégré son IA Gemini dans la suite Google Workspace : résumés automatiques dans Gmail, rédaction de documents dans Drive, prise de notes dans Meet… Mais avec l’arrivée de l’IA dite « agentique », le géant de la tech passe à l’étape suivante.Google vient d’annoncer le lancement de Google Workspace Studio, un nouvel outil destiné aux professionnels. Promesse affichée : permettre de créer, en quelques minutes, de véritables agents IA capables d’automatiser les tâches du quotidien, sans écrire une seule ligne de code. Il suffit d’expliquer, en langage naturel, ce que l’on souhaite faire. L’agent se charge du reste, grâce à la puissance de Gemini 3. Ces agents ne se contentent pas d’exécuter des consignes figées. Ils sont conçus pour analyser des situations, s’adapter à de nouvelles informations et déclencher des actions en fonction du contexte. Concrètement, ils peuvent surveiller vos mails, détecter des mots-clés, envoyer automatiquement des alertes, préparer des briefings, ou encore organiser des tâches à partir de contenus présents dans vos documents. Ils peuvent aussi aller chercher des informations sur le web pour ajuster leur comportement.Autre point clé : l’ouverture aux outils tiers. Google Workspace Studio peut se connecter à des applications professionnelles majeures comme Jira, Salesforce, Mailchimp ou Asana. Les agents peuvent ainsi automatiser des chaînes complètes de travail, de la gestion de projet au suivi client. Ils sont aussi partageables entre collaborateurs, avec des modèles prêts à l’emploi pour accélérer la prise en main. Google voit déjà plus loin. Des évolutions sont annoncées, notamment le partage externe, l’envoi d’e-mails hors du domaine principal, ainsi qu’une prise en charge avancée des webhooks, ces mécanismes qui permettent aux applications de dialoguer entre elles en temps réel. Le déploiement a commencé cette semaine. L’accès pour les utilisateurs finaux est prévu à partir du 5 janvier 2026, pour les domaines à activation progressive. L’outil reste réservé aux abonnements payants Business, Enterprise, Education et aux offres Google AI dédiées. Les mineurs, eux, n’y auront pas accès. Derrière cette annonce, un signal clair : Google ne veut plus seulement proposer de l’assistance par IA, mais confier aux entreprises de véritables agents numériques autonomes.
  • Graviton5, le processeur surpuissant d’Amazon pour le cloud ?

    02:46|
    Pour la dernière grande journée de son événement annuel AWS re:Invent, Amazon Web Services a levé le voile sur une annonce stratégique : l’arrivée de Graviton5, son tout nouveau processeur maison. Une puce ARM de cinquième génération, gravée en 3 nanomètres, embarquant… 192 cœurs. Un monstre de calcul, pensé pour bouleverser l’équation performance-prix du cloud.AWS ne s’en cache pas : le pari Graviton est déjà un succès. Plus de la moitié des nouvelles capacités de calcul de la plateforme reposent désormais sur cette architecture, et près de 90 % des 1 000 plus gros clients EC2 utilisent déjà ces processeurs. Avec Graviton5, Amazon ne se contente plus d’optimiser : il change d’échelle. Cette nouvelle génération marque un véritable saut technologique. En concentrant 192 cœurs sur une seule puce, Amazon augmente considérablement la densité de calcul. Résultat : les échanges entre cœurs sont 33 % plus rapides. Le cache L3, cette mémoire ultra-rapide essentielle aux performances, a été multiplié par cinq. Chaque cœur dispose ainsi de 2,6 fois plus d’espace immédiat que sur Graviton4. Concrètement, cela accélère fortement les bases de données, l’analyse de données massives, mais aussi les jeux en ligne ou les services temps réel.Côté réseau, les progrès sont tout aussi notables : +15 % de bande passante en moyenne, jusqu’à un doublement sur les instances les plus puissantes. L’accès au stockage cloud progresse aussi de 20 %. Graviton5 promet au total 30 % de performances supplémentaires et 20 % de latence en moins par rapport à la génération précédente. La gravure en 3 nm, l’une des plus avancées du marché — dominée par TSMC, Samsung et Intel — permet d’augmenter la puissance tout en réduisant la consommation. Un point crucial à l’heure où les data centers pèsent de plus en plus lourd dans la consommation électrique mondiale. AWS va même jusqu’à refroidir directement la puce, sans boîtier intermédiaire.Autre avancée majeure : la sécurité. Avec le Nitro Isolation Engine, AWS ne se contente plus d’affirmer l’isolation des données… il en apporte une preuve mathématique. Une garantie très recherchée par les banques, les hôpitaux et les administrations. Les premiers retours sont enthousiastes. Airbnb gagne 25 % sur ses moteurs de recherche. Atlassian observe 30 % de rapidité en plus sur Jira. SAP annonce même jusqu’à 60 % d’accélération sur ses bases de données. Les premières instances EC2 M9g sont déjà disponibles en test. Les déclinaisons C9g et R9g, dédiées au calcul intensif et à la mémoire, arriveront en 2026.
  • Discord, responsable du ralentissement de votre PC ?

    02:26|
    C’est une plainte devenue quasi quotidienne chez les joueurs comme chez les télétravailleurs : Discord consomme de plus en plus de mémoire vive. La plateforme de chat vocal et textuel confirme aujourd’hui ce que beaucoup constataient déjà : lorsque plusieurs serveurs sont ouverts, l’application peut dépasser les 4 gigaoctets de RAM, au point de ralentir sérieusement Windows 11 et les jeux lancés en parallèle.Face à la grogne, Discord teste désormais une solution radicale : surveiller sa propre consommation de mémoire… et se relancer automatiquement lorsqu’elle dépasse un seuil critique. L’objectif est simple : libérer de la RAM pour éviter que la machine ne suffoque. Une mesure présentée comme un garde-fou, mais qui révèle surtout l’ampleur du problème. Cette gourmandise n’est pas qu’une question d’usage intensif. Discord repose sur le framework Electron, qui embarque en réalité un navigateur complet basé sur Chromium. Autrement dit, chaque fenêtre de discussion fonctionne comme une page web à part entière, avec son moteur JavaScript, ses composants, ses modules. Dans des conditions dites « normales », l’application flirte déjà avec le gigaoctet de mémoire. Et après plusieurs heures d’utilisation, entre appels vocaux, partages d’écran et navigation frénétique, la consommation peut exploser.Les développeurs reconnaissent d’ailleurs l’existence de fuites de mémoire. Neuf ont été corrigées ces derniers mois, permettant une réduction d’environ 5 % pour les profils les plus gourmands. Un progrès, certes, mais encore loin de transformer Discord en logiciel léger. D’où cette nouvelle expérimentation : si l’application dépasse 4 Go de RAM, qu’elle tourne depuis plus d’une heure, que l’utilisateur est inactif depuis trente minutes et qu’aucun appel n’est en cours, alors Discord se ferme… puis redémarre automatiquement. L’opération ne peut se produire qu’une fois toutes les 24 heures pour éviter les interruptions en boucle.Sur le papier, la mécanique est rassurante. Dans la pratique, elle ressemble surtout à un pansement posé sur une architecture lourde. Et Discord est loin d’être un cas isolé. D’autres applications comme Microsoft Teams ou la nouvelle version de WhatsApp pour Windows affichent elles aussi des consommations démesurées. Le problème devient d’autant plus sensible que le prix de la mémoire vive remonte. Tout le monde ne peut pas se permettre d’ajouter 16 Go de RAM pour suivre la course aux logiciels XXL. Entre applications toujours plus lourdes et matériel plus cher, les configurations modestes plient rapidement.
  • Netflix rachète Warner ? Oui, mais avec pas mal d’obstacles…

    02:31|
    C’est une annonce qui a fait trembler Hollywood : Netflix a proposé un chèque de 83 milliards de dollars pour s’offrir Warner Bros., ses studios de cinéma, de télévision, de jeux vidéo… et surtout sa plateforme de streaming, HBO Max. Une opération titanesque, présentée comme historique. Mais attention : à ce stade, rien n’est encore acté. Le processus pourrait s’étendre jusqu’à fin 2026, et le chemin s’annonce semé d’embûches réglementaires et politiques.Car cette acquisition devrait être passée au crible par les autorités de la concurrence dans le monde entier. En clair, Netflix devra démontrer que l’absorption de Warner et de son catalogue — de Game of Thrones à l’univers DC, en passant par Harry Potter — ne portera pas atteinte à la concurrence ni aux consommateurs. Officiellement, la plateforme le répète : « rien ne change pour l’instant ». Mais en coulisses, les tensions sont déjà très fortes. Le groupe Paramount-Skydance, candidat malheureux au rachat, conteste ouvertement le processus. Son patron, David Ellison, fils du fondateur d’Oracle, espérait l’emporter grâce à ses relations politiques, notamment avec Donald Trump. Quelques heures avant l’annonce de Netflix, Paramount dénonçait publiquement une vente « opaque et injuste ».Donald Trump, justement, est entré directement dans le jeu. Le 7 décembre 2025, sur Truth Social, il a déclaré vouloir examiner de près cette opération, évoquant un risque de « part de marché excessive ». S’il ne peut pas bloquer seul le dossier, il pèse lourdement sur la FTC, dont il a placé un proche à la tête. Le patron de Netflix, Ted Sarandos, a bien tenté d’apaiser les tensions en rencontrant Donald Trump avant l’annonce. Sans succès visible. Pire encore, selon plusieurs médias américains, Paramount-Skydance pourrait préparer une OPA hostile pour reprendre Warner à coup de surenchère boursière.Et les obstacles ne s’arrêtent pas aux États-Unis. Les régulateurs européens et britanniques, réputés plus stricts, pourraient à leur tour freiner le dossier. Le syndicat des acteurs SAG-AFTRA s’y oppose déjà, inquiet pour l’avenir du cinéma en salles. Même dans le scénario le plus optimiste, la transaction ne serait pas finalisée avant la seconde moitié de 2026.
  • La France, terre d’accueil des datacenters Européens ?

    02:23|
    La France accélère dans la course aux infrastructures numériques. Vendredi 28 novembre 2025, le ministère de l’Économie a dévoilé un véritable mode d’emploi pour implanter des centres de données sur le territoire. Objectif affiché : structurer, encadrer et surtout accélérer un secteur devenu stratégique. Aux côtés de Roland Lescure, la ministre déléguée au Numérique, Anne Le Hénanff, a voulu clarifier les règles du jeu. Le signal est fort : 63 sites sont déjà identifiés et plus de 109 milliards d’euros d’investissements annoncés. L’ambition est claire : faire de la France un hub européen majeur du data.Derrière chaque clic, chaque photo stockée, chaque requête d’intelligence artificielle, se cachent des hangars de serveurs fonctionnant jour et nuit. Le guide distingue désormais les petites salles informatiques, les centres de colocation géants, les infrastructures cloud ou encore les datacenters dédiés au calcul intensif pour l’IA. Si l’État s’en mêle autant, c’est pour une raison essentielle : la souveraineté. Héberger les données sensibles sur le sol national permet de se prémunir contre des lois étrangères à portée extraterritoriale, comme le Cloud Act, et de soutenir l’essor des start-up françaises de l’IA, fortement dépendantes de la puissance de calcul. Le déclic est venu du sommet parisien sur l’IA, en février. Une task force réunissant la Direction générale des Entreprises, Business France et RTE a passé le territoire au crible. Résultat : des sites repérés en Normandie, en Occitanie ou dans le Grand Est, afin de désengorger l’Île-de-France, déjà sous forte tension électrique.Car le nerf de la guerre reste l’électricité. Un datacenter moyen consomme entre 50 et 250 mégawatts, l’équivalent d’une petite ville. Le raccordement peut prendre jusqu’à neuf ans. À cela s’ajoute la connectivité, avec la nécessité d’un accès à la fibre et aux hubs de peering, comme Marseille, devenue un carrefour numérique grâce à ses câbles sous-marins. Le volet environnemental n’est pas oublié. Le texte fixe des exigences sur l’eau, le refroidissement et l’efficacité énergétique, avec un objectif de PUE à 1,20 d’ici 2030. La récupération de la chaleur devient également obligatoire pour les grandes installations. Enfin, l’argument économique reste décisif : un datacenter de 100 mégawatts crée une cinquantaine d’emplois directs et apporte des recettes fiscales significatives.
  • Amazon se lance dans la banque et la finance aux particuliers ?

    02:33|
    En validant, en septembre dernier, le rachat d’Axio par Amazon, la Reserve Bank of India n’a pas seulement autorisé une acquisition de plus. Elle a ouvert la porte à un changement d’échelle majeur : pour la première fois, un géant technologique étranger obtient en Inde un accès direct à l’activité de crédit en ligne. Une évolution qui ne laisse ni les analystes ni les régulateurs indifférents.Axio, anciennement Capital Float, est un acteur bien installé du prêt numérique. Plus de dix millions d’Indiens ont déjà eu recours à ses services. Depuis six ans, l’entreprise travaillait main dans la main avec Amazon pour alimenter l’offre de paiement différé. Avec ce rachat, la relation devient une intégration complète. Et l’objectif est clair : démocratiser l’accès au crédit dans un pays où, selon les chiffres du groupe, un consommateur sur six seulement dispose d’une solution de financement à l’achat. Mais l’ambition est plus large. Amazon entend aussi relancer le crédit aux petites entreprises, un segment stratégique pour l’économie indienne. Des prêts « sur mesure » sont annoncés pour les marchands, construits à partir du comportement d’achat, des données transactionnelles et des outils de gestion de trésorerie. En clair, la marketplace se transforme peu à peu en plateforme financière intégrée.Le contexte joue en faveur du groupe. En cinq ans, le marché indien du crédit à la consommation est passé d’environ 80 à plus de 200 milliards de dollars. Dans cet écosystème, les géants du numérique disposent d’un atout décisif : ils contrôlent à la fois l’interface, les flux et les données. Et la stratégie ne s’arrête pas au prêt. Via Amazon Pay, l’un des moyens de paiement les plus utilisés sur l’infrastructure nationale de virements instantanés UPI, le groupe propose désormais aussi des dépôts à terme, en partenariat avec plusieurs banques locales, accessibles dès 1 000 roupies. Une première incursion dans l’épargne grand public. Ce virage s’inscrit dans un cadre réglementaire tout récent, qui autorise désormais les filiales détenues à 100 % par des groupes technologiques à accorder elles-mêmes des crédits. Amazon a saisi l’opportunité sans attendre.Reste une interrogation centrale : jusqu’où le groupe pourra-t-il étendre son influence dans un secteur bancaire indien très encadré et parfois méfiant envers les Big Tech ? Pour l’heure, le géant avance prudemment, en s’appuyant sur les banques tout en consolidant ses propres outils.
  • Tesla : la conduite « entièrement autonome » arrive en France ?

    02:18|
    Depuis des années, Elon Musk promet une révolution imminente : celle de la conduite totalement autonome. Une promesse répétée, martelée, mais toujours freinée, en Europe, par un mur réglementaire solide. Faute de pouvoir déployer pleinement son système sur route ouverte, Tesla a choisi une autre stratégie : la démonstration grandeur nature.Dès le mois de décembre, le constructeur américain lance une tournée française pour présenter son système de conduite autonome avancée, le FSD. Les inscriptions sont déjà ouvertes et l’expérience est gratuite. Les passagers pourront monter à bord dans plusieurs villes : Nantes, Bordeaux, Paris, Lille, Cannes, Toulouse, Marseille, Strasbourg et Lyon. Mais avec une nuance de taille : un conducteur de sécurité restera impérativement au volant. Une obligation légale qui rappelle que l’autonomie intégrale, pour l’instant, reste un horizon plus qu’une réalité.L’objectif de Tesla est clair : prouver, par l’expérience, que sa technologie est prête pour les routes européennes. Le système FSD repose exclusivement sur la vision par caméras, sans recourir au LiDAR, contrairement à certains concurrents. Un parti pris technologique assumé, mais contesté. Des acteurs comme Waymo, qui ont misé sur une approche combinant caméras, radars et capteurs laser, semblent aujourd’hui plus avancés dans l’homologation et l’exploitation réelle.Tesla, de son côté, juge les règles européennes trop rigides, voire dépassées. La marque estime même que tenter d’adapter son système au cadre réglementaire actuel pourrait le rendre moins sûr. Une déclaration qui en dit long sur la méthode employée : forcer le débat en s’appuyant sur la preuve par l’usage. Ce n’est pas la première fois que le constructeur s’y essaie. Des démonstrations ont déjà eu lieu en Europe, notamment dans des environnements réputés complexes, comme autour de Place de l’Étoile à Paris. La tournée française s’inscrit dans cette même logique : impressionner le public, rassurer, mais aussi maintenir une pression constante sur les autorités. Reste que ces démonstrations interviennent autour d’un système toujours non homologué sur le continent. Tesla joue désormais une partie de calendrier, en multipliant les tests visibles et médiatisés pour accélérer la discussion réglementaire.
  • Le # des navigateurs IA : une énorme faille de sécurité ?

    02:29|
    Vous pensiez avoir fait le tour des cybermenaces ? Une nouvelle attaque vient rappeler que le Web n’a pas fini de nous surprendre. Son nom : HashJack. Une faille aussi discrète que redoutable, qui détourne une mécanique pourtant banale d’Internet — le fragment d’URL, cette petite partie d’adresse située après le symbole dièse, habituellement utilisée pour naviguer dans une page.Jusqu’ici, ce fragment était considéré comme inoffensif, car il ne transite jamais vers les serveurs. Sauf que l’arrivée des assistants d’intelligence artificielle intégrés aux navigateurs a tout changé. L’attaque HashJack consiste à dissimuler des instructions malveillantes dans ce fragment. Instructions que les assistants IA, trop obéissants, lisent… et exécutent localement. Résultat : sur des outils comme Perplexity Comet ou l’assistant intégré à Microsoft Edge, un simple lien peut suffire à déclencher l’affichage de fausses informations, voire l’exfiltration de données sensibles. Une attaque sans effraction visible.Le plus inquiétant, c’est que les systèmes de défense traditionnels n’y voient… rien. Pare-feu et antivirus scrutent les échanges réseau, mais ici, tout se joue à l’intérieur même du navigateur. Aucun trafic suspect, aucun signal d’alerte. Une démonstration brutale des limites de nos outils de sécurité face aux nouveaux usages de l’IA. Face à la révélation de cette faille, la réaction a été rapide. Microsoft et Perplexity ont déployé en urgence des correctifs. Une réactivité saluée, mais qui interroge : pourquoi faut-il systématiquement attendre l’attaque pour colmater ?Pour l’instant, certains assistants comme ChatGPT ou Claude ne semblent pas vulnérables à cette forme précise d’attaque. Mais les spécialistes restent prudents. La sécurité de l’IA ressemble de plus en plus à un jeu de chat et de la souris : une faille à peine corrigée, une autre apparaît. Du côté des entreprises, la société de cybersécurité Cato Networks recommande déjà de restreindre fortement l’usage de ces assistants ou de bloquer purement et simplement les fragments d’URL suspects. Moralité : les assistants intelligents progressent à pas de géant, mais leur sécurité avance encore au rythme de l’artisanat.