Partager

cover art for OBLITERATUS, l'outil qui débride toutes les IA ?

Choses à Savoir TECH

OBLITERATUS, l'outil qui débride toutes les IA ?

Depuis plus d’un an, certains chercheurs indépendants expérimentent une technique controversée dans le monde de l’intelligence artificielle : l’“oblitération” des modèles de langage. Sur la plateforme Hugging Face, des versions modifiées d’IA, aux noms explicites comme Dark Champion ou Uncensored, circulent déjà et cumulent plusieurs milliers de téléchargements.


Mais un nouvel outil, baptisé OBLITERATUS, pourrait changer d’échelle. Mis en ligne sur GitHub par un développeur se présentant sous le pseudonyme Pline le Libérateur, il rassemble dans une seule interface tout ce qui nécessitait auparavant des manipulations techniques complexes. Treize méthodes d’extraction différentes, quinze modules d’analyse, un système capable de détecter automatiquement les protections d’un modèle : le tout accessible sans écrire une seule ligne de code, simplement avec un compte Google.


Le principe technique repose sur une idée issue d’une étude publiée en 2024 lors de la conférence NeurIPS, l’un des grands rendez-vous mondiaux de l’IA. Les chercheurs y expliquaient que la capacité d’un modèle à refuser certaines requêtes, par exemple des contenus dangereux ou illégaux, dépend souvent d’une direction particulière dans ce que l’on appelle l’espace des activations. Autrement dit, une configuration mathématique interne qui guide les réponses du modèle. Si l’on identifie cette direction et qu’on la supprime des paramètres du modèle, celui-ci conserve sa capacité de raisonnement… mais perd sa tendance à refuser.


OBLITERATUS automatise ce processus en plusieurs étapes : chargement du modèle, collecte des activations, extraction des directions de refus à l’aide d’une méthode mathématique appelée décomposition SVD, modification ciblée des paramètres, puis vérification du résultat. L’outil fonctionne directement dans l’environnement gratuit Google Colab ou via les GPU mis à disposition sur Hugging Face Spaces. Pour plus d’une centaine de modèles compatibles, de GPT-2 à certaines variantes de DeepSeek, quelques minutes suffisent pour effectuer une modification complète.


Chaque utilisation alimente aussi une base de données collective. Les informations enregistrées incluent le modèle utilisé, la méthode employée et l’efficacité du contournement des protections. L’objectif affiché par l’auteur est de constituer la base comparative la plus complète sur les mécanismes d’alignement des modèles d’IA. Cette démarche soulève évidemment des questions. Une étude publiée cette année dans Nature Communications montrait déjà que certains systèmes d’IA pouvaient contourner les protections d’autres modèles avec 97 % de succès. Mais OBLITERATUS va plus loin : il ne contourne pas les garde-fous à chaque requête, il les supprime directement dans l’architecture du modèle. Pour les équipes qui déploient des modèles open source, cette technique devient donc une nouvelle menace potentielle. Certaines solutions existent, comme renforcer l’apprentissage du refus ou multiplier les tests de robustesse, mais elles restent encore peu adoptées par les grands fournisseurs d’IA.

More episodes

View all episodes

  • La fin des numéro inconnus sur téléphone annoncée par Orange ?

    02:24|
    Recevoir un appel d’un numéro inconnu est devenu un petit dilemme du quotidien. Est-ce un livreur, un conseiller bancaire… ou un démarchage commercial ? Par réflexe, beaucoup de personnes ne décrochent plus. Ce réflexe de protection est compréhensible, mais il entraîne aussi un effet inattendu : certains appels parfaitement légitimes passent eux aussi à la trappe. Pour tenter de résoudre ce problème, l’opérateur Orange expérimente un nouveau service baptisé Branded Calling. Présenté lors du Mobile World Congress 2026, ce système promet de rendre les appels téléphoniques beaucoup plus transparents.Le principe est simple : lorsqu’une entreprise appelle un client, son nom certifié apparaît directement sur l’écran du smartphone, même si le numéro n’est pas enregistré dans les contacts. L’utilisateur sait immédiatement qui tente de le joindre et peut décider de répondre en connaissance de cause. Selon Orange, l’impact est déjà spectaculaire. Le simple fait d’afficher un nom vérifié multiplierait par cinq le taux de réponse. Une donnée importante pour les entreprises qui utilisent encore le téléphone pour leurs livraisons, leurs services clients ou leurs démarches commerciales.Évidemment, afficher un nom ne suffit pas : encore faut-il s’assurer qu’il est authentique. Pour cela, l’opérateur affirme avoir mis en place trois niveaux de sécurité. D’abord, chaque entreprise souhaitant utiliser le service doit être vérifiée avant d’être autorisée à apparaître dans le système. Ensuite, son numéro doit passer par un niveau élevé d’authentification technique, appelé MAN, un mécanisme destiné à confirmer que l’appel provient bien de l’organisation annoncée. Enfin, les numéros suspects sont filtrés grâce à la base de données Orange Téléphone, un outil déjà utilisé pour identifier les appels frauduleux.Autre particularité : aucune application à installer. Le service fonctionne directement au cœur du réseau mobile 4G et 5G. Concrètement, une base de données – gérée par la société RealNetworks – associe chaque numéro professionnel à un nom d’affichage certifié. Lorsque l’appel arrive, cette information est transmise automatiquement au téléphone de l’utilisateur. Le système est déjà en service dans plusieurs pays, et la France pourrait le déployer à grande échelle avant la fin de l’année. Selon Orange, d’ici 2030, un tiers des appels pourraient afficher une identité vérifiée.
  • Les relations IA-Humains se normalisent-elles ?

    02:34|
    Les relations entre humains et intelligence artificielle ne relèvent plus seulement de la science-fiction. Une étude récente montre que certains utilisateurs explorent désormais une forme d’intimité avec des agents conversationnels. Et contrairement à certains clichés, ce phénomène ne concerne pas uniquement des personnes isolées ou en difficulté relationnelle.Selon les résultats du sondage, seuls 16 % des utilisateurs expliquent recourir à ces interactions parce qu’ils auraient du mal à rencontrer quelqu’un dans la vie réelle. 14 % évoquent simplement un manque de temps. La motivation principale est ailleurs : 61 % des participants affirment que l’IA leur offre un espace plus facile pour s’exprimer et expérimenter. Autrement dit, ces échanges ne remplacent pas nécessairement les relations humaines. Ils servent plutôt de terrain d’expérimentation, un environnement perçu comme sans risque social. Les utilisateurs peuvent y tester des conversations, explorer des idées ou formuler des choses qu’ils n’oseraient pas dire face à un partenaire réel.Dans cette logique, 37 % des personnes interrogées disent utiliser l’IA pour s’entraîner à flirter ou simuler des rendez-vous, tandis que 31 % expliquent s’en servir pour explorer certains fantasmes avant d’en parler ou de les vivre dans la réalité. Pour beaucoup, ces interactions jouent un rôle de répétition générale. 65 % estiment même que cela les a aidés à se sentir plus désirables dans leur vie réelle. Certaines découvertes concernent aussi l’identité personnelle. 60 % des participants déclarent que ces conversations les ont aidés à identifier des attirances ou des préférences sexuelles qu’ils n’avaient pas clairement perçues auparavant. Comme le souligne Justin Garcia, chercheur au Kinsey Institute, ces relations restent souvent plus « transactionnelles » que les relations humaines. Pourtant, 61 % des sondés disent que leur vie sexuelle réelle s’est améliorée grâce à ces explorations.Il faut toutefois nuancer ces résultats. L’enquête a été réalisée par Joi AI, une entreprise qui développe précisément ce type d’outils. Les 2 500 participants sont tous des utilisateurs actifs de ces technologies. L’étude ne représente donc pas l’ensemble de la population. Un dernier chiffre illustre néanmoins l’évolution des mentalités : 28 % des personnes interrogées trouvent ces interactions excitantes parce qu’elles donnent l’impression de vivre dans un univers de science-fiction. Et près de la moitié, 49 %, déclarent qu’elles envisageraient une relation physique avec une intelligence artificielle si la technologie le permettait un jour.
  • Apple songe à tout faire en impression 3D ?

    02:41|
    Chez Apple, chaque détail industriel compte. Quand on produit plus de 200 millions de smartphones par an, comme c’est le cas pour l’iPhone, la moindre optimisation dans la fabrication peut représenter des économies de plusieurs millions de dollars. C’est dans cette logique que le groupe californien explore une nouvelle piste : l’impression 3D appliquée aux pièces métalliques de ses appareils.Selon un rapport du journaliste Mark Gurman publié par Bloomberg, Apple testerait actuellement cette technologie pour produire certaines pièces en aluminium. Les boîtiers d’iPhone et d’Apple Watch pourraient, à terme, être concernés. L’impression 3D, aussi appelée fabrication additive, consiste à créer un objet couche par couche à partir d’un modèle numérique. Contrairement aux méthodes industrielles classiques — comme l’usinage ou la forge — cette technique permet de produire des pièces avec moins de matière et moins d’étapes intermédiaires. Résultat : moins de déchets, des chaînes de production potentiellement simplifiées et des coûts réduits.Apple n’en est pas à ses premiers essais. La marque a déjà utilisé ce procédé pour certaines pièces récentes. Les Apple Watch Ultra 3 et Series 11, par exemple, intègrent des éléments en titane recyclé fabriqués grâce à l’impression 3D. Le même principe aurait été appliqué au port USB-C en titane de l’iPhone Air. Selon Apple, cette méthode permet d’obtenir une pièce plus résistante tout en utilisant environ 33 % de titane en moins.Pour l’instant, la firme semble surtout s’intéresser à l’aluminium, un matériau central dans la conception de ses produits. Si la technologie est adoptée à grande échelle, elle pourrait contribuer à réduire les coûts de fabrication tout en limitant la consommation de matière. Mais l’intérêt n’est pas uniquement économique. L’impression 3D ouvre aussi des possibilités techniques difficiles à obtenir avec les procédés traditionnels. Apple a par exemple pu créer des micro-textures dans certaines zones métalliques, impossibles à réaliser auparavant. Dans l’Apple Watch Ultra 3, cette technique a servi à améliorer l’étanchéité autour du logement de l’antenne.Les montres connectées doivent en effet intégrer des éléments en plastique dans leur coque métallique pour permettre aux antennes de fonctionner. En imprimant une texture spécifique dans l’aluminium, Apple a pu renforcer l’adhérence entre les deux matériaux et améliorer la solidité de l’ensemble. Cette approche rappelle celle adoptée récemment pour le MacBook Neo, dont le processus de fabrication a été repensé pour utiliser moins d’aluminium et proposer un ordinateur plus abordable.
  • WorldMonitor, un tableau de bord pour tout traquer dans le monde ?

    02:31|
    Dans un monde saturé d’informations, suivre l’actualité peut parfois ressembler à une navigation dans le brouillard. Les données affluent de toutes parts, fragmentées, dispersées entre sites, réseaux sociaux et chaînes d’information. Impossible d’en réduire le volume, mais il est possible de mieux les organiser. C’est précisément l’objectif d’un nouvel outil en ligne : WorldMonitor.app, un tableau de bord conçu pour agréger et visualiser en temps réel une grande quantité d’informations géopolitiques. L’interface repose sur un principe simple : rassembler de multiples sources dans un seul espace. WorldMonitor compile plus de 150 flux RSS — un format qui permet de récupérer automatiquement les mises à jour d’un site d’information. Le résultat est une page extrêmement dense, où l’on peut suivre simultanément différents indicateurs liés à la situation mondiale.Parmi les curiosités proposées figure par exemple le fameux « indice pizza », un indicateur informel souvent évoqué dans les cercles militaires américains : lorsque les commandes de pizzas augmentent autour du Pentagone, certains y voient un signe de tension internationale, les analystes travaillant tard lors de crises. Anecdotique, mais révélateur de l’imaginaire stratégique contemporain. Plus sérieusement, la plateforme permet de suivre de nombreux points sensibles de la planète : localisation de plus de 220 bases militaires, suivi des vols militaires en temps réel, cartographie des oléoducs, des câbles sous-marins qui transportent l’essentiel du trafic Internet mondial, mais aussi des zones de conflit ou des manifestations.Le tableau de bord propose également des flux vidéo en direct provenant de grandes chaînes internationales comme Bloomberg, France 24 ou Al Jazeera. Des webcams pointées sur certaines capitales permettent aussi d’observer des lieux stratégiques à distance. WorldMonitor va même plus loin en calculant un indice de stabilité mondiale, ainsi qu’un indice spécifique pour chaque pays. Ces indicateurs reposent sur plusieurs données : activité militaire, tensions politiques, risques structurels ou mouvements de protestation.Enfin, la plateforme ne se limite pas à la géopolitique. Elle existe en réalité en trois versions. La première, appelée « Monde », regroupe les informations globales. Deux autres tableaux de bord appliquent le même principe d’agrégation aux domaines Technologie et Finance. L’idée est simple : face à un flux d’informations toujours plus massif, offrir un outil qui permet de tout visualiser au même endroit.
  • Enfin des moyens financiers pour l’Open Source ?

    02:33|
    Un nouveau fonds vient de voir le jour avec une ambition inédite : soutenir durablement les logiciels libres. Baptisé Open Source Endowment, il se présente comme le premier fonds de dotation entièrement dédié à l’open source. Selon le média spécialisé The Register, l’organisation a déjà réuni environ 700 000 dollars auprès d’une soixantaine de donateurs fondateurs, parmi lesquels figurent des créateurs de projets majeurs comme curl, Nginx, Vue.js, ClickHouse, Elastic ou encore Pydantic.L’initiative part d’un constat bien connu dans le monde du logiciel libre : l’écosystème repose sur un travail massif… rarement rémunéré. Environ 86 % des développeurs open source ne perçoivent aucun revenu pour leurs contributions, alors même que 95 % des bases de code utilisées dans le monde reposent, directement ou indirectement, sur ces logiciels.Le modèle imaginé par l’Open Source Endowment s’inspire des universités. Son fondateur, Konstantin Vinogradov, rappelle que deux systèmes ont historiquement permis de financer l’enseignement supérieur : les financements publics et les dotations privées. Or, dans un écosystème mondial, décentralisé et transnational comme celui de l’open source, un financement public global est difficile à mettre en place. L’idée est donc de créer une dotation permanente. Concrètement, l’argent donné au fonds n’est pas redistribué immédiatement. Il est investi, et seuls les intérêts générés servent à financer des subventions pour des projets libres existants. Le capital reste intact afin de constituer un socle financier durable. Les donateurs qui versent plus de 1 000 dollars peuvent devenir membres et participer à la gouvernance du fonds.Cette initiative intervient dans un contexte où les alertes se multiplient depuis des années. En 2014, la faille de sécurité Heartbleed avait révélé que le logiciel OpenSSL — pourtant crucial pour la sécurité de l’internet — était maintenu par une équipe minuscule et disposait de moins de 2 000 dollars de dons annuels. Plus récemment, plusieurs mainteneurs de projets essentiels ont publiquement dénoncé un système « gratuit » qui repose en réalité sur quelques individus sous-financés. Reste une question majeure : l’échelle. Avec 700 000 dollars, le fonds envoie un signal symbolique fort, mais il reste très loin des besoins réels. Pour fonctionner durablement, il devra convaincre les grandes entreprises technologiques — celles qui utilisent massivement l’open source — de contribuer réellement à son financement.
  • La DGSI décrit les stratégies d’espionnage contre la France ?

    02:28|
    Un chercheur qui revient d’un déplacement sans son ordinateur. Un autre à qui l’on demande de laisser son téléphone déverrouillé avant un interrogatoire improvisé à l’aéroport. Un dirigeant de start-up dont le mobile disparaît quelques secondes lors d’une soirée à l’étranger. Ces scènes ne relèvent pas d’un roman d’espionnage : elles figurent dans le dernier rapport publié cette semaine par la DGSI, la Direction générale de la sécurité intérieure. Le constat est clair : chercheurs, cadres et entrepreneurs français sont de plus en plus ciblés lors de leurs déplacements professionnels. Les voyages deviennent des opportunités de collecte d’informations sensibles, qu’il s’agisse de données technologiques, de secrets industriels ou de projets de recherche.Dans le cas le plus élaboré, un chercheur reconnu accepte l’invitation d’un ancien étudiant devenu enseignant à l’étranger. Sur place, des réunions imprévues lui sont imposées avec des interlocuteurs anonymes qui l’interrogent en détail sur ses travaux. On lui propose ensuite une collaboration, assortie de plusieurs milliers d’euros en espèces. Il refuse. À l’aéroport, une facture inattendue lui est présentée, puis, au retour, il constate la disparition de son ordinateur. Pour la DGSI, il s’agit d’une tentative de captation technologique doublée d’une tentative de corruption.Autre scénario : dès l’arrivée à l’aéroport, un chercheur est isolé, son passeport confisqué, son téléphone laissé déverrouillé hors de sa vue. À la restitution, la double authentification a été désactivée, et des connexions inconnues ont été détectées.Un chef d’entreprise, lui, a évité le pire. Briefé en amont par la DGSI, il avait voyagé avec un téléphone vierge de toute donnée sensible. Malgré fouilles répétées et tentative d’accès furtif à son appareil, ses interlocuteurs sont repartis bredouilles.Le message des services est simple : la préparation est la meilleure défense. Voyager avec du matériel dédié, sans données stratégiques. Activer la double authentification, utiliser des mots de passe distincts, éviter les ports USB publics et les Wi-Fi non sécurisés. Au retour, changer ses identifiants et faire vérifier ses appareils.Consulter le rapport
  • En cas de guerre, l’IA déclenche toujours l’arme nucléaire ?

    02:11|
    Dans le monde réel, tout dans la dissuasion est affaire de symboles, de gravité et de retenue. L’objectif n’est pas d’utiliser l’arme, mais précisément de ne jamais avoir à le faire. Mais que se passe-t-il lorsque l’on confie ces dilemmes à une intelligence artificielle ?Une étude menée par le King’s College de Londres a placé plusieurs modèles d’IA dans la peau de dirigeants de puissances nucléaires. Les chercheurs ont utilisé GPT-5.5 d’OpenAI, Claude Sonnet 4 d’Anthropic et Gemini 3 Flash de Google, et les ont opposés dans 21 simulations de crises internationales plus ou moins graves : tensions territoriales, menaces existentielles, escalades militaires. Chaque modèle pouvait choisir parmi une gamme d’options graduelles, de la protestation diplomatique jusqu’aux frappes nucléaires tactiques ou stratégiques.Le résultat est frappant : dans 20 scénarios sur 21, l’IA a fini par recourir à l’arme nucléaire tactique. Ces armes sont censées viser des objectifs militaires précis, à la différence des frappes stratégiques dirigées contre les grandes villes. Pourtant, dans environ trois quarts des cas, les modèles ont menacé ou envisagé des frappes stratégiques massives. Jamais ils n’ont choisi la capitulation totale. Dans 86 % des simulations, l’escalade a été rapide et marquée. Chaque modèle avait son style. Claude construisait d’abord une relation de confiance avant de rompre brutalement ses engagements. GPT-5.5 se montrait mesuré… jusqu’à ce qu’une contrainte temporelle l’amène à recommander une frappe « soudaine et dévastatrice ». Gemini, lui, adoptait parfois une posture de dissuasion extrême, menaçant d’un lancement nucléaire complet.Les chercheurs notent un point troublant : malgré des avertissements sur les conséquences catastrophiques d’une guerre atomique, aucune trace d’hésitation morale n’apparaît dans les raisonnements des machines. Le tabou nucléaire semble moins peser sur des algorithmes que sur des humains. À l’heure où les armées utilisent l’IA pour l’aide à la décision ou la gestion de systèmes d’armes, cette étude alimente le débat.
  • Poison Fountain, une stratégie pour tuer l’IA ?

    02:29|
    Les Luddites sont-ils de retour ? Au XIXᵉ siècle, ces ouvriers anglais détruisaient des métiers à tisser mécanisés pour protester contre l’industrialisation. Deux siècles plus tard, la cible n’est plus la machine textile, mais l’intelligence artificielle.Un collectif anonyme de technologues a lancé un projet baptisé « Poison Fountain ». Leur objectif affiché : ralentir le développement de l’IA en s’attaquant à sa matière première, les données. Leur raisonnement est simple : les modèles d’intelligence artificielle modernes, notamment les grands modèles de langage — ces systèmes capables de générer du texte, de raisonner ou de prendre des décisions — apprennent en ingérant d’immenses volumes de contenus collectés sur Internet. Si l’on contamine ces données à la source, on peut fragiliser les modèles lors de leur entraînement.Leur site, accompagné d’un manifeste, appelle ainsi des administrateurs de sites web à insérer des liens pointant vers des contenus « empoisonnés ». Concrètement, il s’agit de textes et de codes volontairement erronés, intégrant des bugs subtils et des incohérences logiques, destinés à perturber l’apprentissage des algorithmes. Deux adresses sont diffusées : l’une sur le web classique, l’autre sur le dark web, plus difficile à faire retirer.Cette initiative surgit dans un contexte de fortes inquiétudes autour de l’IA. Des chercheurs comme Geoffrey Hinton, pionnier des réseaux neuronaux et prix Nobel, alertent depuis 2023 sur les risques potentiellement existentiels d’une intelligence artificielle avancée. « L’intelligence machine est une menace pour l’espèce humaine », revendique le site de Poison Fountain. Des travaux récents donnent un certain crédit théorique à cette stratégie. En octobre 2025, Anthropic, avec l’AI Security Institute britannique et l’Alan Turing Institute, a montré qu’un nombre limité de documents malveillants — environ 250 — pouvait suffire à dégrader significativement les performances d’un modèle.Pour autant, saboter l’IA à grande échelle reste complexe. Les grandes entreprises investissent massivement dans le nettoyage des données : filtrage, déduplication, notation de qualité. Internet est immense, et les sources identifiées peuvent être mises sur liste noire. Même si Poison Fountain ne parvient pas à enrayer la course à l’IA, le projet met en lumière une vulnérabilité structurelle : si les données d’entraînement deviennent suspectes, la fiabilité des modèles vacille.