Partager

Choses à Savoir TECH
Intel bientôt racheté par des géants de la Tech ?
Intel pourrait bientôt vivre un tournant majeur. Selon le Wall Street Journal, le géant des semi-conducteurs envisagerait de vendre sa division de conception de puces, incluant les célèbres processeurs Core et Xeon, à Broadcom. Mais cette acquisition dépendrait d'une condition cruciale : la reprise des usines de fabrication d'Intel par une autre entreprise.
C’est là que TSMC entre en jeu. Le leader taïwanais de la production de puces examinerait la possibilité de racheter une partie ou l'intégralité des sites de production d'Intel, notamment ceux situés aux États-Unis. Bien que ces discussions soient encore préliminaires, elles surviennent à un moment critique pour Intel, confronté à d’importantes difficultés financières. Le groupe a récemment annoncé un plan de réduction des coûts de 10 milliards de dollars, impliquant la suppression de plus de 15 000 emplois.
Pour financer cette opération, l'idée d'un consortium prend forme. Celui-ci pourrait inclure d'autres concepteurs de puces ainsi que des sociétés de capital-investissement, répartissant ainsi les risques financiers et stratégiques de l'acquisition. Une donnée politique s'ajoute à cette équation complexe : l'administration Trump aurait encouragé TSMC à explorer cette opportunité pour maintenir la production de puces sur le sol américain. Toutefois, un responsable de la Maison Blanche a indiqué que le président Trump ne soutiendrait probablement pas le contrôle d'une entreprise étrangère sur des usines américaines aussi stratégiques.
En coulisses, Frank Yeary, président exécutif par intérim d’Intel, aurait déjà engagé des discussions avec l'administration Trump et les dirigeants de TSMC pour séparer les activités de fabrication et de conception de puces. Cette stratégie permettrait à Intel de se concentrer sur ses points forts pour mieux rivaliser avec des concurrents comme AMD et NVIDIA. Si l’accord concerne principalement les usines américaines, il pourrait aussi inclure des sites en Irlande et en Israël. Mais avant de concrétiser cette restructuration historique, de nombreux défis restent à relever, notamment l'approbation réglementaire et l'impact sur l'industrie mondiale des semi-conducteurs.
More episodes
View all episodes

CAF : comment fonctionne l’algorithme de contrôle des allocataires ?
02:48|C’est un geste rare, presque inédit dans l’administration française. Le jeudi 15 janvier, la Caisse nationale des allocations familiales a décidé de lever le voile sur un outil longtemps accusé d’opacité : son algorithme de datamining utilisé pour cibler une partie des contrôles d’allocataires. Code source, variables utilisées, critères écartés, pondérations… tout est désormais public. La CAF parle de DMDE 2026, pour DataMiningDonnées Entrantes, et assume une démarche de transparence totale.L’enjeu est de taille. Chaque année, l’institution verse plus de 108 milliards d’euros de prestations à près de 14 millions de foyers. Dans ce contexte, la moindre suspicion de contrôle automatisé injuste alimente la défiance. Consciente de cette fragilité, la CAF a décidé de répondre frontalement aux critiques. Depuis mars 2025, un comité d’éthique indépendant réunit juristes, experts du numérique et représentants des usagers. Son rôle n’est pas symbolique : il examine chaque algorithme, identifie les risques de biais et peut imposer des corrections. Une charte encadre l’ensemble, avec un principe central : l’outil doit assister la solidarité, pas surveiller les allocataires. « Ouvrir, oui, mais avec méthode et responsabilité », résume Nicolas Grivel, directeur général de la CAF.À la lecture des documents publiés, un point frappe immédiatement : l’algorithme ne concerne qu’une part infime des contrôles. En 2024, sur 31,5 millions de vérifications, moins de 1 % ont mobilisé ce système. Son rôle est simple : produire un score de risque lorsqu’un trop-perçu potentiel dépasse 600 euros sur six mois. Rien de plus. La décision finale revient toujours à un contrôleur humain. « Ces dossiers restent minoritaires dans notre activité », insiste Thomas Desmoulins, responsable du contrôle à la CNAF. Autre élément clé : ce que l’algorithme ne regarde pas. Les données sensibles — nationalité, sexe, adresse précise, quartier — sont exclues. Les comportements aussi : fréquence de connexion, appels à la CAF, retards administratifs ou contrôles passés n’entrent pas en ligne de compte. L’objectif est clair : éviter toute stigmatisation ou effet boule de neige.Ce que le modèle analyse, en revanche, ce sont des éléments factuels : situation professionnelle, composition du foyer, montants perçus, changements récents de statut. Le tout repose sur une méthode statistique classique, la régression logistique, compréhensible et explicable. Pas de boîte noire, donc. Pour la première fois, chacun peut consulter le code et comprendre comment un score est calculé.
Le Congrès américain sauve la NASA et son budget ?
02:38|Difficile, ces derniers mois, d’entrevoir un rayon de soleil dans le paysage politique américain. Et pourtant, contre toute attente, le budget fédéral 2026 adopté par le Congrès offre un répit bienvenu au monde de la recherche. Les parlementaires ont choisi de préserver les grands programmes scientifiques, en particulier ceux de la NASA, mais aussi d’autres agences fédérales clés. Une décision qui tranche nettement avec les intentions initiales de l’administration Trump.Au printemps 2025, la Maison-Blanche avait présenté un projet de budget drastique, taillant dans les crédits de l’astrophysique, de l’exploration planétaire ou encore des sciences de la Terre. Autant de domaines jugés coûteux et non prioritaires. Mais au fil des débats, Sénat et Chambre des représentants ont largement revu la copie.Résultat : la NASA se voit finalement attribuer environ 24,4 milliards de dollars pour 2026, un niveau de financement qui permet de maintenir l’essentiel des missions prévues, des instruments en cours de construction et des programmes scientifiques déjà engagés. Cette enveloppe garantit une continuité précieuse. Les projets en préparation ne sont pas stoppés, les calendriers restent globalement inchangés et les équipes peuvent travailler sans la crainte d’une interruption brutale. Les programmes d’exploration planétaire, qu’il s’agisse de Mars, des lunes glacées ou des astéroïdes, conservent leurs moyens. En astrophysique, les crédits nécessaires au développement de l’observatoire spatial Nancy Grace Roman sont maintenus, tout comme ceux dédiés à l’étude des exoplanètes et de la cosmologie.La décision du Congrès dépasse le seul périmètre de la NASA. La National Science Foundation conserve des financements cohérents avec ses missions de recherche fondamentale et appliquée. La NOAA préserve ses crédits pour la surveillance climatique et les satellites d’observation de la Terre, tandis que le NIST poursuit ses travaux sur les normes et la métrologie, indispensables à l’innovation technologique. Les textes votés encadrent toutefois strictement l’usage de ces fonds. Les agences devront rendre compte de l’avancement des projets, du respect des échéances et de la justification des dépenses. Une contrainte assumée, qui offre en contrepartie une visibilité budgétaire essentielle. Dans un contexte international tendu, ce budget 2026 agit comme un garde-fou : il sécurise la continuité des missions scientifiques américaines et préserve la crédibilité des États-Unis dans les grandes collaborations de recherche mondiales.
Meta : le rachat de la startup Manus va mal finir ?
03:12|Quand Meta a mis 2 milliards de dollars sur la table pour racheter Manus, le groupe californien a aussitôt tenté d’éteindre l’incendie politique. Message adressé à Washington : aucun actionnaire chinois ne resterait au capital et les services seraient purement et simplement coupés en Chine. Une opération de déminage diplomatique en règle. Problème : Pékin n’a jamais été consulté. Et selon TechCrunch, le ministère chinois du Commerce s’est désormais saisi du dossier pour vérifier si cette acquisition respecte les règles nationales sur l’exportation de technologies sensibles. Ce qui devait être une formalité s’annonce soudain beaucoup plus complexe.Sur le papier, tout semblait pourtant bien ficelé. L’été dernier, Manus avait discrètement déplacé son siège à Singapour. La start-up, née en Chine, avait réduit ses effectifs à une quarantaine de personnes après une levée de fonds de 75 millions de dollars menée par Benchmark. Une migration express devenue si courante qu’elle porte désormais un surnom dans la tech : le « Singapore washing ». L’idée est simple : quitter la Chine pour contourner les restrictions américaines visant les investissements dans les technologies jugées stratégiques. Mais ce raisonnement se heurte aujourd’hui au droit chinois. Les autorités se demandent si le transfert de Manus – équipes, logiciels et propriété intellectuelle compris – n’aurait pas dû faire l’objet d’une licence d’exportation. En clair, Pékin cherche à savoir si des technologies considérées comme sensibles ont quitté le territoire sans autorisation. Le professeur Cui Fan, spécialiste du commerce international, est même allé jusqu’à évoquer sur WeChat un risque de « responsabilité pénale » en cas de violation avérée. L’examen n’en est qu’à ses débuts, et pourrait s’arrêter là. Mais son existence même offre à la Chine un levier de pression non négligeable.Cette affaire illustre le piège dans lequel se retrouvent désormais les grandes manœuvres technologiques entre la Chine et les États-Unis. À Washington, certains saluent le rachat comme un succès : la preuve que les restrictions américaines poussent les talents chinois vers l’écosystème occidental. À Pékin, la lecture est exactement inverse. Comme le résume Winston Ma, professeur à la New York University School of Law, laisser passer l’opération créerait un précédent dangereux, encourageant les jeunes pousses chinoises de l’IA à s’exiler avec leurs technologies.La Chine a déjà montré qu’elle savait utiliser ses règles d’exportation comme arme juridique, notamment face aux tentatives américaines de bloquer TikTok sous la présidence de Donald Trump. Ni Meta ni Manus n’ont, pour l’instant, commenté publiquement cette revue réglementaire. Mais une chose est sûre : l’acquisition, estimée entre 2 et 3 milliards de dollars, pourrait bien s’enliser, voire être renégociée sous la pression de Pékin. Dans la guerre technologique actuelle, même les rachats les plus soigneusement emballés restent des terrains minés.
Mistral AI, équipe désormais les armées françaises ?
02:26|Peut-on y voir un véritable tournant pour la défense française ? Ce jeudi 8 janvier 2026, le ministère des Armées et des Anciens combattants a officialisé la notification d’un accord-cadre stratégique avec Mistral AI. Objectif affiché : doter l’ensemble des forces armées françaises d’outils d’intelligence artificielle générative de très haut niveau. Un signal fort, dans un contexte de compétition technologique mondiale où l’IA devient un multiplicateur de puissance militaire.Concrètement, cet accord ouvre l’accès, pour toutes les armées, directions et services du ministère, aux modèles, logiciels et prestations développés par l’entreprise cofondée par Arthur Mensch. Il ne s’agit plus de projets pilotes ou d’expérimentations isolées : l’État assume un déploiement large et structurant. L’IA générative entre ainsi dans le quotidien des forces françaises, qu’il s’agisse d’analyse de données, d’aide à la décision, de planification ou de traitement de l’information opérationnelle. Le périmètre du partenariat dépasse d’ailleurs le strict cadre militaire. Plusieurs établissements publics placés sous la tutelle du ministère sont également concernés : le Commissariat à l'énergie atomique et aux énergies alternatives, l’Office national d'études et de recherches aérospatiales, ou encore le Service hydrographique et océanographique de la marine. Autant d’acteurs clés de la recherche stratégique et de l’innovation de défense.La mise en place de cet accord revient à l’Agence ministérielle pour l'intelligence artificielle de défense, créée précisément pour accélérer l’adoption de l’IA dans les armées. Son directeur, Bertrand Rondepierre, résume l’enjeu : intégrer les technologies les plus avancées pour préparer les forces aux conflits de demain. Aux yeux du ministère, Mistral AI s’impose aujourd’hui comme l’un des champions mondiaux de l’IA générative, doté d’une équipe de recherche de tout premier plan. Peu importe, affirme-t-on, ses collaborations industrielles avec des acteurs étrangers comme NVIDIA : le cœur du dispositif reste sous contrôle français. C’est là l’argument central : garantir une maîtrise souveraine des technologies critiques. À travers cet accord-cadre, la France affirme une ligne claire : faire de son excellence en intelligence artificielle un pilier de sa souveraineté militaire. Une manière de réduire les dépendances technologiques, tout en transformant l’IA en levier stratégique durable pour la défense nationale.
La justice est-elle hostile à l’usage de l’IA ?
02:26|C’est une décision peu banale rendue par le tribunal administratif de Grenoble, qui éclaire d’un jour très concret les limites de l’intelligence artificielle face au droit. Le 3 décembre 2025, les juges ont rejeté le recours d’un habitant de Saint-Cergues, sanctionné pour dépôt sauvage d’un carton. Particularité de l’affaire : la requête avait été rédigée à l’aide d’un outil d’IA générative. Un choix qui n’a manifestement pas convaincu la juridiction.Retour en arrière. En mai 2025, cet habitant se rend aux conteneurs de tri de sa commune. Les bennes sont pleines. Faute de mieux, il pose son carton à côté. La mairie y voit un dépôt sauvage et lui inflige une amende de 500 euros. Plutôt que de consulter un avocat ou une association d’aide juridique, l’homme décide de contester la sanction avec un texte généré par intelligence artificielle. Mauvaise pioche. Les magistrats estiment que le document manque de clarté, empile des références jurisprudentielles « fantaisistes » et répète le même argument juridique sous plusieurs formulations. Verdict sans appel : l’outil utilisé est jugé « totalement inadapté » à cet usage.Que des juges mentionnent explicitement l’emploi d’une IA dans leur décision est rare. Mais le signal est clair. De plus en plus de citoyens tentent de s’appuyer sur ces outils pour rédiger des recours administratifs, souvent au prix d’erreurs grossières. Le message implicite du tribunal : on ne devient pas juriste à coups de prompts. À ces faiblesses de fond s’ajoutent des fautes de procédure. Le requérant demandait l’annulation d’une décision… sans joindre ladite décision à son dossier. Une lacune rédhibitoire. Le tribunal lui a pourtant laissé une chance, via une demande de régularisation envoyée en octobre par le téléservice Télérecours Citoyens. Aucune réponse dans les délais. Les juges ont finalement considéré qu’il contestait l’avis de paiement reçu en juin. Sur le fond, les arguments ne tiennent pas davantage. L’homme invoquait un vice de procédure, affirmant ne pas avoir eu le temps de se défendre. Problème : il avait refusé de retirer le courrier recommandé qui l’en informait. Quant à l’excuse des conteneurs saturés, elle n’a pas suffi à convaincre. Conclusion : l’amende de 500 euros est confirmée. Une affaire qui rappelle que, face au droit, l’IA peut aider à comprendre… mais pas remplacer une vraie défense.
La Nasa abandonne ses échantillons de Mars à la Chine ?
02:34|C’était l’un des paris scientifiques les plus ambitieux de l’exploration martienne. Avec le rover Perseverance, la NASA voulait accomplir une première historique : rapporter sur Terre des échantillons de sol martien pour les analyser avec les outils les plus sophistiqués dont disposent nos laboratoires. Objectif ultime : trancher, enfin, la question d’une vie passée sur Mars. Mais aujourd’hui, ce rêve se heurte brutalement à une réalité bien terrestre : celle des budgets.Le programme Mars Sample Return, censé récupérer les 35 tubes soigneusement collectés par Perseverance, est au bord de l’abandon. Le budget voté par la Chambre des représentants américaine, pourtant plus généreux que celui initialement envisagé par l’administration Trump, ne prévoit que 650 millions de dollars pour MSR. Une somme dérisoire face aux quelque 11 milliards estimés pour mener la mission à son terme. Le texte doit encore passer devant le Sénat, mais le signal est clair : l’argent ne suivra pas.Il faut dire que MSR est un casse-tête technologique. Un atterrisseur sur Mars, une fusée capable de décoller depuis la planète rouge — une première —, un rendez-vous orbital, puis une capsule de retour vers la Terre. Une chaîne d’opérations complexe, longue, coûteuse. L’administration Trump avait déjà qualifié le projet « d’inabordable ». L’Agence spatiale européenne, ESA, partenaire du programme, a reconnu ne pas pouvoir poursuivre seule. Dans les coulisses, le changement de cap est radical. Washington pousse désormais la NASA à se tourner vers des solutions commerciales, en sollicitant des acteurs privés comme SpaceX ou Blue Origin, dans l’espoir de réduire les coûts. Problème : sans financement massif supplémentaire, aucun industriel n’est prêt à relever le défi aujourd’hui. Résultat : les échantillons pourraient rester sur Mars pendant des décennies.Pendant ce temps, la Chine avance ses pions. Sa mission Tianwen-3, prévue pour la fin de la décennie, devient mécaniquement favorite pour réussir le premier retour d’échantillons martiens. Une stratégie plus simple, plus directe, déjà éprouvée sur la Lune. Si Pékin y parvient avant 2030, le coup sera rude pour les États-Unis : scientifique, symbolique et diplomatique. L’exploration spatiale redevient un terrain de rivalités, où l’audace ne suffit plus sans les moyens de la financer.
Vos conversations avec l’IA revendues en secret ?
03:13|Pendant longtemps, Internet a entretenu l’idée rassurante d’une séparation nette entre la vie publique et la sphère privée. On écrit, on cherche, on questionne, persuadé que ces échanges restent confinés à l’écran. Les assistants conversationnels ont renforcé ce sentiment, avec leur ton calme, presque empathique, et la promesse implicite de confidentialité. Mais cette frontière supposée se fissure dès qu’on regarde ce qui se cache derrière certaines extensions installées en toute confiance.Depuis des mois, des millions d’utilisateurs dialoguent avec des IA comme OpenAI via ChatGPT ou Anthropic avec Claude, livrant parfois des fragments très intimes de leur existence : soucis de santé, dilemmes personnels, informations professionnelles sensibles. En face, une machine disponible en permanence, qui ne juge pas et semble tenir sa langue. Sauf que cette confiance repose souvent sur une illusion. Derrière l’interface, chaque mot peut être aspiré, analysé… voire revendu. C’est là qu’intervient Urban VPN Proxy. Présentée comme un outil gratuit de protection, cette extension a séduit plus de six millions d’utilisateurs. Une enquête du média Koi a pourtant mis en lumière un tout autre fonctionnement. L’extension injecte des scripts invisibles dans les pages des principaux services d’IA — ChatGPT, Claude, Gemini, Perplexity ou Grok — afin d’intercepter les requêtes, les réponses, les horaires de connexion et diverses métadonnées. Ces données sont ensuite compressées, envoyées vers les serveurs d’Urban VPN, puis transmises à des partenaires tiers.Le plus troublant, c’est l’absence totale de contrôle. La collecte démarre dès l’installation, continue même lorsque le VPN est désactivé et ne peut pas être interrompue par l’utilisateur. Selon Forbes, cette fonctionnalité aurait été ajoutée en juillet 2025 via une mise à jour silencieuse. Officiellement, l’éditeur, Urban Cyber Security Inc., affirme agir pour la « protection de l’utilisateur ». Mais sa politique de confidentialité indique clairement que les données sont partagées avec BiScience, une société spécialisée dans l’analyse comportementale. Autre élément dérangeant : l’extension bénéficie d’un badge « Featured » sur le Chrome Web Store de Google. Ce label suggère une validation manuelle et une conformité aux bonnes pratiques. Pourtant, l’outil intercepte aussi des données issues de Gemini, le chatbot maison de Google. Pour Futurism, cette situation interroge sérieusement la rigueur des processus de validation et la responsabilité des grandes plateformes. Au final, le constat est brutal. On installe un VPN pour se protéger, et l’on se retrouve surveillé. On parle à une IA comme à un confident, et l’on alimente une économie discrète de la donnée. Derrière le discours rassurant de la sécurité numérique, la logique reste la même : celle d’une surveillance bien huilée, souvent invisible, et rarement consentie.
Starlink panique pour la sécurité de ses satellites ?
03:08|Starlink s’apprête à faire descendre une partie significative de sa constellation. Environ 4 400 satellites vont voir leur altitude abaissée, une décision présentée comme une mesure de sécurité. L’annonce a été faite par Michael Nicolls, vice-président de l’ingénierie chez Starlink, dans un message publié sur X. Derrière ce choix technique se cache une réalité souvent méconnue : en orbite basse, l’environnement n’est jamais figé. Le Soleil, lui aussi, influence les règles du jeu.Concrètement, l’opérateur prévoit de faire passer ses satellites d’environ 550 kilomètres d’altitude à 480 kilomètres, à partir de 2026. L’objectif affiché est double : réduire le risque de collision en se positionnant dans une zone jugée moins encombrée, et surtout accélérer la désorbitation des satellites en cas de panne. En toile de fond, l’arrivée du minimum solaire, une phase du cycle du Soleil marquée par une baisse d’activité. Résultat : l’atmosphère terrestre se contracte légèrement, ce qui diminue les frottements et rallonge la durée de vie des objets en orbite basse. À 550 kilomètres, un satellite hors service peut ainsi rester en orbite pendant plus de quatre ans avant de retomber naturellement. Trop longtemps, estime Starlink. Selon Michael Nicolls, descendre à 480 kilomètres permettrait de réduire de plus de 80 % le temps de décroissance balistique, le faisant passer de plusieurs années à seulement quelques mois durant le minimum solaire. Autrement dit, un satellite « mort » disparaîtrait bien plus vite, limitant son statut de débris incontrôlable.Sur le papier, la manœuvre peut sembler contre-intuitive. Abaisser l’altitude de milliers de satellites donne l’impression de concentrer encore davantage la circulation spatiale. Mais Starlink ne raisonne pas en densité locale : l’entreprise parle de couloir orbital. En dessous de 500 kilomètres, il y aurait moins d’objets en circulation et moins de projets concurrents. Il ne s’agit donc pas de fluidifier une zone saturée, mais de déplacer la constellation vers un étage jugé plus « calme ». Le véritable enjeu, toutefois, n’est pas la manœuvre, mais la panne. Tant qu’un satellite fonctionne, il peut corriger sa trajectoire et éviter les collisions. Lorsqu’il cesse de répondre, il devient un projectile passif livré aux lois de la gravité. Plus il reste longtemps en orbite, plus le risque d’accident augmente.Ce choix a aussi une dimension politique. À mesure que les méga-constellations se multiplient, la question des débris spatiaux revient avec insistance dans les débats réglementaires. En abaissant l’altitude de ses satellites, SpaceX se dote d’un argument simple : en cas de problème, ses engins quittent l’orbite plus vite. Reste une interrogation de fond : si 480 kilomètres devient demain l’étage privilégié de l’industrie, l’embouteillage ne fera que changer de niveau. Une chose est sûre : en orbite basse, la marge d’erreur se réduit à vue d’œil, et même les plans dits « de sécurité » ressemblent de plus en plus à des stratégies de survie.
Grok : la France enquête sur des deepfakes de mineurs ?
03:07|Les ennuis judiciaires s’accumulent pour la galaxie d’Elon Musk. Cette fois, on ne parle ni de polémiques sur la modération, ni de débats idéologiques autour de la liberté d’expression. Les autorités françaises et malaisiennes viennent d’ouvrir, presque simultanément, des enquêtes visant la plateforme X et son intelligence artificielle Grok. Le motif est d’une tout autre gravité : la diffusion de contenus pédopornographiques générés par IA.Les faits sont glaçants. Des utilisateurs ont montré qu’il suffisait de formuler certaines requêtes pour obtenir, via Grok, des images hyperréalistes représentant des mineurs dans des tenues explicitement sexualisées, parfois entièrement nus. Là où d’autres systèmes d’IA bloquent strictement ce type de demandes, l’outil développé par xAI a laissé passer ces requêtes. La réponse officielle évoque des « défaillances dans les garde-fous ». Une justification jugée bien légère au regard de la gravité des contenus produits.En France, la réaction a été rapide. Le parquet de Paris, par l’intermédiaire de sa section spécialisée dans la cybercriminalité, a ouvert une enquête pour diffusion d’images pédopornographiques. Cette procédure vient s’ajouter à d’autres dossiers déjà en cours visant X et Grok, notamment pour des dérapages de contenu signalés fin 2024. Mais le changement de nature est radical : ici, il n’est plus question d’opinions ou de désinformation, mais de protection de l’enfance. Un domaine où la tolérance des autorités est proche de zéro et où le statut de plateforme technologique n’offre que peu d’abris juridiques. Ce scandale met surtout en lumière les conséquences concrètes de la doctrine défendue par Elon Musk : une liberté d’expression quasi absolue, obtenue au prix du démantèlement des équipes de modération, d’éthique et de sécurité. En retirant ces garde-fous, xAI a laissé une IA puissante évoluer sans limites claires. Le résultat est aujourd’hui sous les yeux des enquêteurs.La situation est d’autant plus explosive en Malaisie. Le pays vient tout juste de signer un partenariat pour intégrer Grok comme outil éducatif dans les écoles publiques. À Kuala Lumpur, les autorités doivent désormais rassurer des parents stupéfaits : comment expliquer qu’un logiciel présenté comme un assistant scolaire puisse produire certains des contenus les plus illégaux du web ? L’affaire dépasse largement le cadre d’un incident technique. Elle prend désormais des allures de crise politique, judiciaire et de santé numérique, avec des répercussions internationales qui pourraient durablement fragiliser l’empire Musk.