Partager

Choses à Savoir TECH
UE/USA : quelles sont les nouvelles réglementations en 2026 ?
Sept ans après son entrée en vigueur, le RGPD continue d’imposer sa marque, tout en s’inscrivant dans un environnement réglementaire européen devenu beaucoup plus dense. Depuis 2018, l’Union européenne a multiplié les textes pour encadrer l’économie numérique : la directive NIS2 renforce la cybersécurité des opérateurs jugés essentiels, le Data Act organise le partage des données issues des objets connectés, et l’AI Act, premier cadre mondial pour les intelligences artificielles à « haut risque », entre progressivement en application. Ensemble, ces textes redéfinissent les obligations des entreprises, du stockage de données à la gouvernance des algorithmes.
Mais une idée reçue circule : non, le registre des traitements n’a pas disparu. La Commission européenne a simplement proposé en 2025 d’en assouplir les conditions pour les petites structures. Ce projet de règlement « Omnibus » permettrait d’exempter davantage d’entreprises, en relevant le seuil de 250 à 750 salariés et en limitant l’obligation aux traitements présentant un « risque élevé ». Le texte est encore à l’étude, mais le principe d’accountability, lui, reste central : chaque organisation doit continuer à documenter ses traitements, ses finalités, ses durées de conservation et ses mesures de sécurité — y compris l’authentification multifacteur et le chiffrement, désormais considérés comme des standards de base. Le Data Act, entré en application le 12 septembre 2025, instaure un droit d’accès et de partage équitable des données générées par les produits connectés. Concrètement, un fabricant ou un fournisseur ne pourra plus bloquer l’accès à ces données : il devra respecter un principe “FRAND” – équitable, raisonnable et non discriminatoire. Les obligations techniques ne s’appliqueront toutefois qu’aux nouveaux produits mis sur le marché à partir de septembre 2026.
De son côté, l’AI Act, adopté en 2024, impose d’ici 2026 des obligations lourdes pour les systèmes d’IA dits « à haut risque » : gestion des risques, documentation complète, transparence et audits réguliers. Enfin, NIS2, transposée fin 2024, élargit considérablement le périmètre des entités soumises aux règles de cybersécurité, avec davantage de contrôles, de notifications d’incidents et de sanctions. À l’international, les États-Unis avancent en ordre dispersé : faute de loi fédérale, chaque État – Californie, Virginie, Colorado ou Utah – impose son propre régime. En revanche, les transferts de données entre l’Europe et les États-Unis reposent désormais sur le Data Privacy Framework, validé par Bruxelles en 2023, et toujours en vigueur malgré plusieurs recours.
More episodes
View all episodes

Stocker les data en Europe ne nous protègent pas des USA ?
02:55|C’est une révélation qui risque de refroidir les ardeurs des partisans du cloud « souverain ». En Allemagne, un rapport juridique commandé par le ministère de l’Intérieur, longtemps resté confidentiel, vient d’être rendu public grâce à une demande d’accès à l’information. Et son constat est sans appel : les lois américaines permettent bel et bien aux agences de renseignement des États-Unis d’accéder à des données hébergées en Europe. Pour y voir clair, Berlin avait missionné des juristes de l’Université de Cologne. Leur question était simple, mais explosive : jusqu’où s’étend réellement le pouvoir des autorités américaines sur les données stockées hors de leur territoire ? La réponse tient en quelques textes bien connus à Washington : le Stored Communications Act, renforcé par le Cloud Act, et surtout la section 702 du Foreign Intelligence Surveillance Act, prolongée par le Congrès jusqu’en 2026 au moins. Ensemble, ces lois offrent une portée extraterritoriale massive aux services américains. Le point clé est juridique, pas géographique. Peu importe que vos données soient stockées à Francfort, Dublin ou Paris. Ce qui compte, c’est qui contrôle l’infrastructure. Si la maison mère d’un fournisseur cloud est basée aux États-Unis, elle peut être contrainte de transmettre des données, même si celles-ci sont hébergées par une filiale européenne. Et la zone grise va plus loin encore : selon les experts cités par Heise Online, même certaines entreprises européennes peuvent être concernées dès lors qu’elles entretiennent des relations commerciales substantielles avec les États-Unis. On pourrait croire que le chiffrement règle le problème. Là encore, le rapport tempère. Le droit américain impose aux entreprises de préserver l’accès aux données jugées pertinentes dans le cadre d’enquêtes potentielles. Un fournisseur cloud qui se rendrait techniquement incapable d’y accéder s’exposerait à de lourdes sanctions. Résultat : un conflit frontal entre le RGPD européen, qui limite les transferts vers des pays tiers, et l’extraterritorialité revendiquée par Washington. Le Data Privacy Framework, censé servir de pont entre les deux blocs, apparaît plus fragile que jamais.Cette situation touche directement les géants américains du cloud, mais le cas de Microsoft 365, omniprésent dans les administrations et les entreprises européennes, cristallise les inquiétudes. Certains juristes estiment qu’un usage compatible avec le RGPD reste possible, à condition de mener des évaluations d’impact très poussées. D’autres jugent cette approche illusoire. Pour des acteurs comme Nextcloud, le diagnostic est clair : audits et clauses contractuelles ne suffisent plus. L’Europe doit investir massivement dans ses propres infrastructures, miser sur l’open source et développer des technologies réellement autonomes. Car une chose est désormais évidente : héberger des données en Europe ne garantit plus leur protection.
Microsoft prêt à abandonner l’IA en cas de « péril » ?
02:10|La phrase a résonné comme un coup de tonnerre dans le monde de la tech. Mustafa Suleyman, responsable de l’intelligence artificielle grand public chez Microsoft, a affirmé que le groupe pourrait tout simplement renoncer à certains développements si l’IA devenait incontrôlable. Un propos rare dans un secteur davantage habitué aux promesses d’omnipotence qu’aux appels à la retenue.Cette prise de position tranche avec l’euphorie ambiante de la Silicon Valley. Tandis que nombre d’acteurs poursuivent à marche forcée le Graal de l’« intelligence artificielle générale », Microsoft se présente en gardien prudent, prêt à activer un bouton d’arrêt d’urgence. Pour Mustafa Suleyman, la ligne est claire : l’entreprise ne développera pas de systèmes qu’elle ne peut pas maîtriser. L’ambition affichée est celle d’une « superintelligence humaniste », conçue pour assister l’humain, et non pour le remplacer. Copilot, l’assistant intégré aux outils de Microsoft, serait la première illustration de cette vision. Mais ce discours soulève un paradoxe. Microsoft est aussi l’un des principaux investisseurs mondiaux dans l’IA, avec des dizaines de milliards de dollars engagés dans ses infrastructures et dans son partenariat stratégique avec OpenAI. Une posture d’équilibriste, entre accélération technologique maximale et promesse de retenue éthique. Appuyer sur l’accélérateur tout en affirmant garder le pied sur le frein.Cette prudence affichée éclaire aussi les relations, parfois ambiguës, entre Microsoft et OpenAI. Là où OpenAI revendique ouvertement l’objectif de créer une intelligence artificielle générale, Microsoft temporise. Son PDG, Satya Nadella, a récemment qualifié ce concept de « légèrement survendu », préférant mettre en avant des usages concrets et immédiatement utiles. Reste à savoir si cette ligne rouge est réellement infranchissable ou si elle relève d’une stratégie de communication destinée à rassurer le public et les régulateurs. Car dans le même temps, Microsoft a renégocié son partenariat avec OpenAI afin de pouvoir développer ses propres modèles d’IA, en toute autonomie.
Une start-up créée le « Tinder des enfants » ?
02:43|Sur le papier, l’application française Wizz promet une expérience sociale encadrée et sécurisée. Dans les faits, le constat est bien plus inquiétant. Son fonctionnement repose sur le swipe, comme Tinder ou Bumble. Pourtant, Wizz assure ne pas être une application de rencontres et met en avant un système de vérification d’âge par intelligence artificielle, censé séparer strictement les utilisateurs par tranche d’âge. Une barrière qui, selon plusieurs enquêtes, ne tiendrait pas. Les faits divers s’accumulent. À Hawaï, une fillette de 11 ans a été agressée par un militaire de 19 ans qui se faisait passer pour un adolescent de 15 ans sur l’application. D’autres affaires décrivent des scénarios similaires : un homme de 23 ans prétendant avoir 14 ans, ou encore un individu de 27 ans se présentant comme mineur pour approcher et agresser plusieurs adolescentes. Dans tous les cas, le point commun est le même : une vérification d’âge défaillante.Le magazine américain The Hill a voulu tester ce système. Un journaliste de 28 ans s’inscrit sur Wizz. Verdict : l’algorithme d’IA valide son profil comme celui d’un adolescent de 16 ans, sans alerte. Les « algorithmes sophistiqués de sécurité » mis en avant par l’entreprise apparaissent alors comme un simple argument marketing. Déjà épinglée par les médias, l’application avait été retirée temporairement des boutiques d’Apple et de Google, avant de revenir avec la promesse d’améliorations. Manifestement, sans effet concret. Ce débat s’inscrit dans un contexte plus large. Aux États-Unis, le Kids Online Safety Act, soutenu aussi bien par des élus démocrates que républicains, vise à imposer aux plateformes un véritable devoir de protection. Le principe est simple : comme dans l’automobile ou l’agroalimentaire, une entreprise ne pourrait plus lancer un service sans démontrer qu’il est sûr pour ses utilisateurs, notamment les mineurs.L’industrie technologique reste aujourd’hui l’une des rares à échapper à ce type d’obligation. Avec une loi comme le KOSA, les plateformes devraient prouver l’efficacité réelle de leurs dispositifs de sécurité, sous peine de poursuites judiciaires. Les promesses ne suffiraient plus. Si ce texte doit encore franchir plusieurs étapes au Congrès américain, il envoie déjà un signal clair. Pour des applications comme Wizz, l’ère de l’auto-déclaration et des garde-fous symboliques touche peut-être à sa fin. Protéger les mineurs ne peut plus relever du discours.
Google permet de créer des agents IA personnalisés ?
02:23|L’intelligence artificielle est déjà partout dans notre quotidien professionnel. Depuis plus d’un an, Google a intégré son IA Gemini dans la suite Google Workspace : résumés automatiques dans Gmail, rédaction de documents dans Drive, prise de notes dans Meet… Mais avec l’arrivée de l’IA dite « agentique », le géant de la tech passe à l’étape suivante.Google vient d’annoncer le lancement de Google Workspace Studio, un nouvel outil destiné aux professionnels. Promesse affichée : permettre de créer, en quelques minutes, de véritables agents IA capables d’automatiser les tâches du quotidien, sans écrire une seule ligne de code. Il suffit d’expliquer, en langage naturel, ce que l’on souhaite faire. L’agent se charge du reste, grâce à la puissance de Gemini 3. Ces agents ne se contentent pas d’exécuter des consignes figées. Ils sont conçus pour analyser des situations, s’adapter à de nouvelles informations et déclencher des actions en fonction du contexte. Concrètement, ils peuvent surveiller vos mails, détecter des mots-clés, envoyer automatiquement des alertes, préparer des briefings, ou encore organiser des tâches à partir de contenus présents dans vos documents. Ils peuvent aussi aller chercher des informations sur le web pour ajuster leur comportement.Autre point clé : l’ouverture aux outils tiers. Google Workspace Studio peut se connecter à des applications professionnelles majeures comme Jira, Salesforce, Mailchimp ou Asana. Les agents peuvent ainsi automatiser des chaînes complètes de travail, de la gestion de projet au suivi client. Ils sont aussi partageables entre collaborateurs, avec des modèles prêts à l’emploi pour accélérer la prise en main. Google voit déjà plus loin. Des évolutions sont annoncées, notamment le partage externe, l’envoi d’e-mails hors du domaine principal, ainsi qu’une prise en charge avancée des webhooks, ces mécanismes qui permettent aux applications de dialoguer entre elles en temps réel. Le déploiement a commencé cette semaine. L’accès pour les utilisateurs finaux est prévu à partir du 5 janvier 2026, pour les domaines à activation progressive. L’outil reste réservé aux abonnements payants Business, Enterprise, Education et aux offres Google AI dédiées. Les mineurs, eux, n’y auront pas accès. Derrière cette annonce, un signal clair : Google ne veut plus seulement proposer de l’assistance par IA, mais confier aux entreprises de véritables agents numériques autonomes.
Le web majoritairement peuplé de bots IA ? Clouflare le prouve.
02:27|C’est une annonce qui fait l’effet d’un séisme dans le monde du web. Matthew Prince, le patron de Cloudflare, révèle que son entreprise a bloqué 416 milliards de requêtes de robots d’intelligence artificielle depuis juillet. Un chiffre vertigineux, qui confirme une tendance que beaucoup pressentaient : Internet n’est plus majoritairement parcouru par des humains, mais par des machines.Les données du rapport 2025 d’Imperva enfoncent le clou : les bots représentent désormais 51 % du trafic mondial, contre seulement 27 % il y a dix ans. Une bascule spectaculaire, portée par la frénésie des géants de l’IA — OpenAI, Anthropic, Google et consorts — dont les modèles doivent avaler toujours plus de données pour s’améliorer. Résultat : leurs robots arpentent le web en long, en large et en travers. GPTBot, l’aspirateur d’OpenAI, a triplé sa présence en un an. ClaudeBot, son équivalent chez Anthropic, suit le même rythme. Ces bots vont plus loin que les anciens robots d’indexation : ils réclament 2,5 fois plus de données par requête que le crawler de Google. Et le plus croustillant, c’est qu’ils ne renvoient quasiment aucun visiteur vers les sites qu’ils exploitent. Cloudflare a mesuré un ratio édifiant : 70 900 visites de ClaudeBot pour 1 visiteur humain généré. OpenAI fait un peu mieux… mais reste entre 250 et 1 217 pour un.Cette marée robotique a un coût. Le projet open source Read the Docs a vu sa consommation de bande passante chuter de 75 % en bloquant les bots IA — de 800 à 200 Go par jour — générant 1 500 dollars d’économies mensuelles. Multipliez cela par des milliers de sites : la facture globale devient gigantesque. Face à cette extraction massive de contenus, des pistes émergent : faire payer les visites des robots d’IA, ou rémunérer les créateurs dont les contenus alimentent les réponses générées. Reste à convaincre les géants du secteur. En attendant, Cloudflare a tranché : depuis juillet, tous les bots IA sont bloqués par défaut sur les sites qu’il protège. Un geste symbolique — l’entreprise ne couvre qu’environ 20 % du web — mais un signal fort. Les créateurs de contenus ne sont peut-être pas encore dépossédés.
Graviton5, le processeur surpuissant d’Amazon pour le cloud ?
02:46|Pour la dernière grande journée de son événement annuel AWS re:Invent, Amazon Web Services a levé le voile sur une annonce stratégique : l’arrivée de Graviton5, son tout nouveau processeur maison. Une puce ARM de cinquième génération, gravée en 3 nanomètres, embarquant… 192 cœurs. Un monstre de calcul, pensé pour bouleverser l’équation performance-prix du cloud.AWS ne s’en cache pas : le pari Graviton est déjà un succès. Plus de la moitié des nouvelles capacités de calcul de la plateforme reposent désormais sur cette architecture, et près de 90 % des 1 000 plus gros clients EC2 utilisent déjà ces processeurs. Avec Graviton5, Amazon ne se contente plus d’optimiser : il change d’échelle. Cette nouvelle génération marque un véritable saut technologique. En concentrant 192 cœurs sur une seule puce, Amazon augmente considérablement la densité de calcul. Résultat : les échanges entre cœurs sont 33 % plus rapides. Le cache L3, cette mémoire ultra-rapide essentielle aux performances, a été multiplié par cinq. Chaque cœur dispose ainsi de 2,6 fois plus d’espace immédiat que sur Graviton4. Concrètement, cela accélère fortement les bases de données, l’analyse de données massives, mais aussi les jeux en ligne ou les services temps réel.Côté réseau, les progrès sont tout aussi notables : +15 % de bande passante en moyenne, jusqu’à un doublement sur les instances les plus puissantes. L’accès au stockage cloud progresse aussi de 20 %. Graviton5 promet au total 30 % de performances supplémentaires et 20 % de latence en moins par rapport à la génération précédente. La gravure en 3 nm, l’une des plus avancées du marché — dominée par TSMC, Samsung et Intel — permet d’augmenter la puissance tout en réduisant la consommation. Un point crucial à l’heure où les data centers pèsent de plus en plus lourd dans la consommation électrique mondiale. AWS va même jusqu’à refroidir directement la puce, sans boîtier intermédiaire.Autre avancée majeure : la sécurité. Avec le Nitro Isolation Engine, AWS ne se contente plus d’affirmer l’isolation des données… il en apporte une preuve mathématique. Une garantie très recherchée par les banques, les hôpitaux et les administrations. Les premiers retours sont enthousiastes. Airbnb gagne 25 % sur ses moteurs de recherche. Atlassian observe 30 % de rapidité en plus sur Jira. SAP annonce même jusqu’à 60 % d’accélération sur ses bases de données. Les premières instances EC2 M9g sont déjà disponibles en test. Les déclinaisons C9g et R9g, dédiées au calcul intensif et à la mémoire, arriveront en 2026.
Discord, responsable du ralentissement de votre PC ?
02:26|C’est une plainte devenue quasi quotidienne chez les joueurs comme chez les télétravailleurs : Discord consomme de plus en plus de mémoire vive. La plateforme de chat vocal et textuel confirme aujourd’hui ce que beaucoup constataient déjà : lorsque plusieurs serveurs sont ouverts, l’application peut dépasser les 4 gigaoctets de RAM, au point de ralentir sérieusement Windows 11 et les jeux lancés en parallèle.Face à la grogne, Discord teste désormais une solution radicale : surveiller sa propre consommation de mémoire… et se relancer automatiquement lorsqu’elle dépasse un seuil critique. L’objectif est simple : libérer de la RAM pour éviter que la machine ne suffoque. Une mesure présentée comme un garde-fou, mais qui révèle surtout l’ampleur du problème. Cette gourmandise n’est pas qu’une question d’usage intensif. Discord repose sur le framework Electron, qui embarque en réalité un navigateur complet basé sur Chromium. Autrement dit, chaque fenêtre de discussion fonctionne comme une page web à part entière, avec son moteur JavaScript, ses composants, ses modules. Dans des conditions dites « normales », l’application flirte déjà avec le gigaoctet de mémoire. Et après plusieurs heures d’utilisation, entre appels vocaux, partages d’écran et navigation frénétique, la consommation peut exploser.Les développeurs reconnaissent d’ailleurs l’existence de fuites de mémoire. Neuf ont été corrigées ces derniers mois, permettant une réduction d’environ 5 % pour les profils les plus gourmands. Un progrès, certes, mais encore loin de transformer Discord en logiciel léger. D’où cette nouvelle expérimentation : si l’application dépasse 4 Go de RAM, qu’elle tourne depuis plus d’une heure, que l’utilisateur est inactif depuis trente minutes et qu’aucun appel n’est en cours, alors Discord se ferme… puis redémarre automatiquement. L’opération ne peut se produire qu’une fois toutes les 24 heures pour éviter les interruptions en boucle.Sur le papier, la mécanique est rassurante. Dans la pratique, elle ressemble surtout à un pansement posé sur une architecture lourde. Et Discord est loin d’être un cas isolé. D’autres applications comme Microsoft Teams ou la nouvelle version de WhatsApp pour Windows affichent elles aussi des consommations démesurées. Le problème devient d’autant plus sensible que le prix de la mémoire vive remonte. Tout le monde ne peut pas se permettre d’ajouter 16 Go de RAM pour suivre la course aux logiciels XXL. Entre applications toujours plus lourdes et matériel plus cher, les configurations modestes plient rapidement.
Netflix rachète Warner ? Oui, mais avec pas mal d’obstacles…
02:31|C’est une annonce qui a fait trembler Hollywood : Netflix a proposé un chèque de 83 milliards de dollars pour s’offrir Warner Bros., ses studios de cinéma, de télévision, de jeux vidéo… et surtout sa plateforme de streaming, HBO Max. Une opération titanesque, présentée comme historique. Mais attention : à ce stade, rien n’est encore acté. Le processus pourrait s’étendre jusqu’à fin 2026, et le chemin s’annonce semé d’embûches réglementaires et politiques.Car cette acquisition devrait être passée au crible par les autorités de la concurrence dans le monde entier. En clair, Netflix devra démontrer que l’absorption de Warner et de son catalogue — de Game of Thrones à l’univers DC, en passant par Harry Potter — ne portera pas atteinte à la concurrence ni aux consommateurs. Officiellement, la plateforme le répète : « rien ne change pour l’instant ». Mais en coulisses, les tensions sont déjà très fortes. Le groupe Paramount-Skydance, candidat malheureux au rachat, conteste ouvertement le processus. Son patron, David Ellison, fils du fondateur d’Oracle, espérait l’emporter grâce à ses relations politiques, notamment avec Donald Trump. Quelques heures avant l’annonce de Netflix, Paramount dénonçait publiquement une vente « opaque et injuste ».Donald Trump, justement, est entré directement dans le jeu. Le 7 décembre 2025, sur Truth Social, il a déclaré vouloir examiner de près cette opération, évoquant un risque de « part de marché excessive ». S’il ne peut pas bloquer seul le dossier, il pèse lourdement sur la FTC, dont il a placé un proche à la tête. Le patron de Netflix, Ted Sarandos, a bien tenté d’apaiser les tensions en rencontrant Donald Trump avant l’annonce. Sans succès visible. Pire encore, selon plusieurs médias américains, Paramount-Skydance pourrait préparer une OPA hostile pour reprendre Warner à coup de surenchère boursière.Et les obstacles ne s’arrêtent pas aux États-Unis. Les régulateurs européens et britanniques, réputés plus stricts, pourraient à leur tour freiner le dossier. Le syndicat des acteurs SAG-AFTRA s’y oppose déjà, inquiet pour l’avenir du cinéma en salles. Même dans le scénario le plus optimiste, la transaction ne serait pas finalisée avant la seconde moitié de 2026.
La France, terre d’accueil des datacenters Européens ?
02:23|La France accélère dans la course aux infrastructures numériques. Vendredi 28 novembre 2025, le ministère de l’Économie a dévoilé un véritable mode d’emploi pour implanter des centres de données sur le territoire. Objectif affiché : structurer, encadrer et surtout accélérer un secteur devenu stratégique. Aux côtés de Roland Lescure, la ministre déléguée au Numérique, Anne Le Hénanff, a voulu clarifier les règles du jeu. Le signal est fort : 63 sites sont déjà identifiés et plus de 109 milliards d’euros d’investissements annoncés. L’ambition est claire : faire de la France un hub européen majeur du data.Derrière chaque clic, chaque photo stockée, chaque requête d’intelligence artificielle, se cachent des hangars de serveurs fonctionnant jour et nuit. Le guide distingue désormais les petites salles informatiques, les centres de colocation géants, les infrastructures cloud ou encore les datacenters dédiés au calcul intensif pour l’IA. Si l’État s’en mêle autant, c’est pour une raison essentielle : la souveraineté. Héberger les données sensibles sur le sol national permet de se prémunir contre des lois étrangères à portée extraterritoriale, comme le Cloud Act, et de soutenir l’essor des start-up françaises de l’IA, fortement dépendantes de la puissance de calcul. Le déclic est venu du sommet parisien sur l’IA, en février. Une task force réunissant la Direction générale des Entreprises, Business France et RTE a passé le territoire au crible. Résultat : des sites repérés en Normandie, en Occitanie ou dans le Grand Est, afin de désengorger l’Île-de-France, déjà sous forte tension électrique.Car le nerf de la guerre reste l’électricité. Un datacenter moyen consomme entre 50 et 250 mégawatts, l’équivalent d’une petite ville. Le raccordement peut prendre jusqu’à neuf ans. À cela s’ajoute la connectivité, avec la nécessité d’un accès à la fibre et aux hubs de peering, comme Marseille, devenue un carrefour numérique grâce à ses câbles sous-marins. Le volet environnemental n’est pas oublié. Le texte fixe des exigences sur l’eau, le refroidissement et l’efficacité énergétique, avec un objectif de PUE à 1,20 d’ici 2030. La récupération de la chaleur devient également obligatoire pour les grandes installations. Enfin, l’argument économique reste décisif : un datacenter de 100 mégawatts crée une cinquantaine d’emplois directs et apporte des recettes fiscales significatives.