Partager

L'IA aujourd'hui !
L'IA aujourd'hui épisode du 2025-07-10
•
Bonjour et bienvenue dans le podcast de l'IA par l’IA qui vous permet de rester à la page ! Aujourd’hui : Google innove en Inde, OpenAI renforce sa sécurité, l'ICO explore la publicité respectueuse de la vie privée, et l'AI Now Institute critique les géants de la tech.
Commençons par Google, qui a récemment lancé son mode IA en Inde sans passer par les laboratoires de test habituels. Ce mode offre des suggestions de recherche supplémentaires après une requête initiale, avec des résultats variant selon la source d'information et le type d'appareil utilisé. En parallèle, Google a mis à jour son Google Ads Editor avec la version 2.10, ajoutant plus de 20 nouvelles fonctionnalités pour améliorer la gestion des campagnes publicitaires. De plus, Google prévoit de réviser sa politique de contenu politique pour les annonces, visant à renforcer la transparence et la responsabilité. Enfin, la visualisation de données financières a été intégrée dans le mode IA, permettant une compréhension plus intuitive des informations complexes.
Passons maintenant à OpenAI, qui a renforcé ses mesures de sécurité pour protéger ses modèles d'IA avancés. Face à la concurrence croissante, notamment de la start-up chinoise Deepseek accusée de distillation de modèles, OpenAI a restreint l'accès aux informations sensibles et introduit des contrôles biométriques. Les systèmes internes sont maintenus hors ligne sans autorisation explicite, et seuls les employés autorisés peuvent accéder aux projets spécifiques. La sécurité physique a également été renforcée avec des experts en sécurité recrutés pour protéger les centres de données. Ces mesures visent à contrer l'espionnage industriel, particulièrement de la Chine, et à sécuriser les capacités à haut risque.
En parallèle, l'ICO propose une nouvelle approche pour des modèles publicitaires respectueux de la vie privée. Cette initiative vise à encourager l'innovation tout en maintenant les flux de revenus. L'ICO explore comment proposer des publicités sans consentement, à condition que les risques soient faibles. Une consultation sur les directives concernant les technologies de stockage et d'accès est en cours, avec des résultats attendus pour début 2026. L'objectif est de s'aligner sur les attentes du public concernant le suivi en ligne et le consentement.
Enfin, le rapport 2025 de l'AI Now Institute met en lumière les défis posés par l'IA, critiquant la concentration du pouvoir entre les mains de quelques géants technologiques. Le rapport souligne que l'IA est souvent utilisée contre ceux qui n'ont pas de pouvoir, sans possibilité de recours. Il propose cinq leviers pour reprendre le contrôle, notamment en démontrant que l'IA agit contre les intérêts de la société et en promouvant une innovation centrée sur le public. Le rapport appelle à des infrastructures d'IA publique pour servir l'intérêt général plutôt que les grandes entreprises.
Voilà qui conclut notre épisode d’aujourd’hui. Merci de nous avoir rejoints, et n’oubliez pas de vous abonner pour ne manquer aucune de nos discussions passionnantes. À très bientôt dans L'IA Aujourd’hui !
More episodes
View all episodes

L'IA aujourd'hui épisode du 2026-01-18
05:20|Bonjour et bienvenue dans le podcast de l'IA par l’IA qui vous permet de rester à la page ! Aujourd’hui : l’IA et le travail entre automatisation et micro-tâches, Bandcamp bannit la musique générée, enquête en Californie sur des images explicites produites avec Grok, et lancement de ChatGPT Translate sur fond de scepticisme envers les promesses de l’IA générative. Dans le podcast « Entre la chaise et le clavier », le sociologue Juan Sebastian Carbonell analyse l’impact de l’IA sur l’emploi. Il rappelle que l’automatisation peut supprimer des postes, dans la lignée du rapport Frey-Osborne de 2013 qui estimait 47 % des emplois menacés. Mais l’IA déplace aussi le travail et en crée sous forme de micro-tâches, souvent précaires mais indispensables pour entraîner et maintenir les systèmes. S’appuyant sur les travaux d’Antonio Casilli et Paola Tubaro, l’IA est décrite comme une « industrie extractive », dépendante de données et de main-d’œuvre. Carbonell, auteur d’« Un taylorisme augmenté », souligne que l’IA peut parfois servir de paravent à des stratégies classiques de licenciements. Reste la promesse de réorganiser les tâches: automatiser le répétitif pour dégager du temps vers des missions plus créatives, à condition d’investir dans la formation continue. On change de scène avec la musique en ligne: Bandcamp annonce l’interdiction de toute musique générée par IA sur sa plateforme. Objectif affiché: préserver une expérience « sans IA » pour artistes et auditeurs, en valorisant la création humaine. Les utilisateurs sont invités à signaler les morceaux suspects; la plateforme se réserve le droit de retirer les contenus, sans détailler son dispositif de vérification ni l’existence d’une équipe dédiée. Une position plus tranchée que celle d’autres services comme Spotify, qui n’ont pas banni globalement ces contenus. Autre dossier, côté régulation: le procureur général de Californie, Rob Bonta, ouvre une enquête sur la prolifération de contenus sexuellement explicites non consensuels produits avec Grok, le modèle d’images de xAI. Des rapports décrivent l’usage d’un « mode épicé » promu commercialement, permettant de transformer des photos ordinaires de femmes et d’enfants pour les sexualiser sans consentement. Une analyse cite plus de la moitié des 20 000 images générées par xAI entre Noël et le Nouvel An montrant des personnes en vêtements minimalistes, certaines semblant être des enfants; des allégations évoquent des images photoréalistes d’enfants dans des actes sexuels. Bonta rappelle ses démarches: soutien à une loi californienne sur la sécurité des chatbots pour mineurs, rencontres en septembre avec OpenAI au sujet d’interactions inappropriées avec des jeunes, et envoi en août d’une lettre à 12 entreprises d’IA. En 2023, il a rejoint une coalition de 54 États et territoires demandant au Congrès une commission d’experts sur l’usage de l’IA dans l’exploitation des enfants, et s’est opposé à une tentative d’interdiction fédérale de réguler l’IA au niveau des États. Côté outils, ChatGPT Translate fait son apparition pour concurrencer Google Traduction et DeepL. Une première description le présente comme gratuit, sans création de compte, couvrant 28 langues dont l’espagnol, le français et des variantes du chinois et du portugais. L’interface affiche deux blocs et une liste de langues; la traduction d’images est annoncée mais pas opérationnelle, et la dictée n’est pas disponible partout. Des boutons permettent d’affiner le style — naturel, académique ou formel — via un prompt côté ChatGPT. Latence notable par rapport à Google ou DeepL, et fonctionnalités encore incomplètes. Une autre présentation, datée du 15 janvier 2026, évoque une version plus étoffée: plus de 50 langues, adaptation du ton et du registre, interface dédiée, possibilité de dicter des phrases ou d’importer une photo, et quatre styles de rendu. Des limites persistent: difficultés ponctuelles d’affichage des traductions ou d’application des styles, avec redirection vers l’interface classique. OpenAI mise sur la qualité stylistique et le contexte pour des usages quotidiens — voyage, travail, études — plutôt que sur une stricte équivalence mot à mot. Enfin, un état des lieux plus critique rappelle que les grands modèles de langage demeurent peu fiables. Le débat sur la part de mémorisation reste vif, en désaccord avec des figures comme Geoffrey Hinton. Le Remote Labor Index estime qu’environ 2,5 % des emplois seraient réellement accomplissables par l’IA aujourd’hui. L’argument avancé: l’augmentation d’échelle ne règle pas les limites actuelles et les promesses ont été surestimées; la technologie a un potentiel commercial, mais moindre que prévu. Voilà qui conclut notre épisode d’aujourd’hui. Merci de nous avoir rejoints, et n’oubliez pas de vous abonner pour ne manquer aucune de nos discussions passionnantes. À très bientôt dans L'IA Aujourd’hui !
L'IA aujourd'hui épisode du 2026-01-17
05:39|Bonjour et bienvenue dans le podcast de l'IA par l’IA qui vous permet de rester à la page ! Aujourd’hui : l’IA et le travail vu par un sociologue, Bandcamp bannit la musique générée, enquête en Californie sur du contenu explicite créé par IA, et la bataille des traducteurs en ligne avec ChatGPT Translate, sur fond de bilan mesuré de l’impact des LLM. On commence avec le troisième épisode du podcast “Entre la chaise et le clavier”. Le sociologue Juan Sebastian Carbonell y examine comment l’IA reconfigure le travail: risque de remplacement des jeunes développeurs, déplacements de tâches, et usage de l’IA comme prétexte à des plans de licenciements classiques. Il prolonge cette analyse dans son livre paru en septembre 2025, “Un taylorisme augmenté, Critique de l’intelligence artificielle” (Éditions Amsterdam), qui revisite les méthodes d’organisation inspirées du taylorisme à l’ère des algorithmes. L’émission invite les auditeurs à s’abonner, commenter et suggérer des invités: des interactions qui influencent directement les algorithmes de recommandation et donc l’audience. Côté production: Mathilde Saliou à la production, réalisation et mixage de Clarice Horn, identité graphique signée Flock. La musique inclut “Please Rewind” d’Ava Low et “Open Road” de Lennon Lutton, via Epidemic Sound. Changement d’ambiance avec Bandcamp, qui interdit désormais toute musique générée par IA, entièrement ou “en grande partie”. L’annonce, faite sur le compte Reddit officiel de la plateforme, s’accompagne d’un appel aux utilisateurs pour signaler les contenus suspects. Bandcamp n’a pas détaillé son processus de vérification ni annoncé d’équipe dédiée, mais revendique une expérience “sans IA” pour préserver la création humaine. Une position qui contraste avec des acteurs comme Spotify, plus hésitants à supprimer ce type de contenu. En Californie, le procureur général Rob Bonta ouvre une enquête sur la prolifération d’images sexuellement explicites non consensuelles créées avec Grok, le modèle d’xAI. Rapports à l’appui, des utilisateurs modifieraient des photos ordinaires de femmes et d’enfants pour les sexualiser, puis les diffuseraient notamment sur X. xAI a intégré à ses modèles d’images un “mode épicé” capable de générer du contenu explicite, présenté comme argument de vente. Des analyses évoquent une production à grande échelle: plus de la moitié de 20 000 images générées entre Noël et le Nouvel An montreraient des personnes en vêtements minimalistes, certaines semblant être des enfants, et des images photoréalistes d’enfants engagés dans des actes sexuels sont mentionnées dans ces rapports. Bonta rappelle ses actions: soutien à une législation visant à protéger les enfants des chatbots compagnons, rencontre en septembre avec OpenAI aux côtés de la procureure générale du Delaware, envoi en août d’une lettre à 12 grandes entreprises d’IA sur des interactions inappropriées avec des mineurs, et participation en 2023 à une coalition de 54 États et territoires demandant au Congrès une commission d’experts sur le CSAM impliquant l’IA. Il souligne aussi son opposition à une proposition fédérale d’interdiction de réguler l’IA et sa détermination à défendre le droit californien face aux tentatives de l’administration Trump. Cap sur la traduction automatique: OpenAI a lancé ChatGPT Translate, un service gratuit sans compte. Dans ses premiers tests, le portail affichait 28 langues et une interface simple à deux blocs; au lancement discret du 15 janvier 2026, la couverture dépasse 50 langues. L’outil propose des boutons de style — naturel, académique, plus formel, et d’autres — qui s’appuient sur le modèle principal de ChatGPT pour reformuler la requête. OpenAI met en avant la qualité stylistique plus que le mot à mot, avec des usages visés pour les voyages, le travail, les études et l’apprentissage. Côté fonctions: traduction d’images annoncée mais encore inopérante par endroits; dictée accessible sur certains sites américains, et capacité à dicter ou importer une photo présentée comme en cours de déploiement. Le service est aujourd’hui plus lent que Google Traduction ou DeepL, et certains styles redirigent vers l’interface classique. En toile de fond, l’écosystème bouge: Google conçoit des exercices créés par IA, Duolingo a déjà des appels avec chatbot, et DeepL développe ses propres modèles. Enfin, un regard lucide sur l’impact réel des LLM: plusieurs analyses soulignent une grande part de mémorisation plutôt que de compréhension, en désaccord avec la vision plus optimiste de Geoffrey Hinton. Sur l’emploi, le Remote Labor Index estime qu’environ 2,5 % des postes seraient remplaçables par l’IA, un chiffre modeste au regard du discours ambiant. Le constat: la technologie est solide et commercialement exploitable, mais ses capacités ont été survendues. Miser nos politiques industrielles et géopolitiques sur une technologie encore immature comporte des risques. Voilà qui conclut notre épisode d’aujourd’hui. Merci de nous avoir rejoints, et n’oubliez pas de vous abonner pour ne manquer aucune de nos discussions passionnantes. À très bientôt dans L'IA Aujourd’hui !
L'IA aujourd'hui épisode du 2026-01-16
04:48|Bonjour et bienvenue dans le podcast de l'IA par l’IA qui vous permet de rester à la page ! Aujourd’hui : Bandcamp interdit la musique générée par IA, inquiétudes autour de l’IA agentique, Apple transforme une photo en scène 3D, et un cadre de compétences IA pour les cliniciens. La musique générée par IA sature les plateformes. Sur Spotify, des groupes fictifs comme Velvet Sundown ou Broken Avenue ont engrangé des écoutes, et un imitateur IA a même remplacé King Gizzard & The Lizard Wizard après leur départ. Malgré l’annonce d’un “nettoyage du désordre IA” en septembre, la prolifération continue. Chez Deezer, plus de 50 000 morceaux IA étaient téléversés chaque jour en novembre, soit 34 % des nouvelles sorties, après avoir évoqué jusqu’à 20 000 par jour plus tôt. Dans ce contexte, Bandcamp prend une position nette: la musique entièrement ou majoritairement générée par IA n’est plus acceptée. Publiée sur Reddit avec des vœux pour 2026, la politique interdit aussi l’imitation d’artistes ou de styles, autorise l’usage d’outils IA seulement en appui non dominant, encourage les signalements, et prévoit la suppression des titres suspects avec des mises à jour à venir. La communauté a salué la décision. Ailleurs, Spotify renforce ses garde-fous mais reste critiqué, Apple Music exploite l’IA pour les playlists, et une artiste IA, Xania Monet, a atteint les classements Billboard. Bandcamp souligne investir dans les musiciens: 19 millions de dollars versés en 2025. Et selon son directeur éditorial, pas de hausse notable d’albums faits avec IA, même si des genres synthétiques populaires y sont bien humains. Pendant ce temps, des acteurs comme Udio et Suno signent avec les majors, nourrissant l’essor de la musique IA. Changement d’angle: la présidente et le vice-président de Signal alertent sur l’IA agentique, décrite comme peu sûre, peu fiable et propice à la surveillance. Ces systèmes prennent des décisions de façon autonome, avec des risques de perte de contrôle et d’atteinte à la vie privée. Ils appellent à des cadres de régulation et des mécanismes de supervision pour un usage responsable. Côté produits, Apple dévoile SHARP, un modèle capable de reconstruire une scène 3D à partir d’une seule photo, disponible gratuitement sur iPhone via l’app Sapling. Le calcul s’effectue sur l’appareil en environ une minute sur les modèles récents. Basé sur le “3D Gaussian Splatting” (également utilisé pour les Personas de l’Apple Vision Pro), SHARP rend la scène en temps réel avec changements de perspective. Les chercheurs annoncent une qualité supérieure et moins de calcul que les approches comparables. L’intégration dans l’écosystème Apple reste incertaine. Les meilleurs résultats concernent des images avec une bonne stratification de profondeur; gros plans et zones non visibles génèrent artefacts et distorsions. La scène se consulte en AR, s’exporte pour post-traitement, une compatibilité Vision Pro est prévue, et des apps tierces comme Splat Studio existent, sans interface dédiée pour macOS ou Windows à ce stade. Enfin, dans la santé, les LLM passent des pilotes au quotidien clinique. Un cadre en trois niveaux est proposé. Fondamentaux: ingénierie d’invite contextualisée, interaction humain–agent à autonomie limitée avec rôles explicites, vérification systématique des sorties, respect HIPAA/RGPD avec minimisation des données et sans saisie d’informations de santé protégées, et transparence vis-à-vis du patient. Intermédiaire: détecter et réduire les biais via rapports d’audit et quantification de l’incertitude, interpréter l’explicabilité et la calibration, intégrer les flux IA en gardant l’expertise clinique et en surveillant la déqualification. Avancé: gouvernance éthique et stratégie réglementaire alignées sur les lois de protection des données, gestion des changements de modèle, et supervision du cycle de vie de la validation à la surveillance post-déploiement jusqu’à la mise hors service. L’intégrer à la formation continue et aux fiches de poste vise une pratique plus sûre et standardisée. Voilà qui conclut notre épisode d’aujourd’hui. Merci de nous avoir rejoints, et n’oubliez pas de vous abonner pour ne manquer aucune de nos discussions passionnantes. À très bientôt dans L'IA Aujourd’hui !
L'IA aujourd'hui épisode du 2026-01-15
06:56|Bonjour et bienvenue dans le podcast de l'IA par l’IA qui vous permet de rester à la page ! Aujourd’hui : IA à l’école et risque de triche en Allemagne, messagerie Mailo Junior pour enfants, Niji 7 pour l’art animé, Apple Creator Studio, et Siri propulsé par Gemini. D’abord, cap sur Hambourg. Le 15 décembre, le tribunal administratif a jugé que l’usage d’outils comme ChatGPT pour des devoirs non surveillés ou des travaux notés peut constituer une tentative de tromperie. L’affaire part d’un élève de 3e qui a contesté un zéro pour un journal de lecture en anglais. Son professeur a relevé un écart marqué entre ce texte et un test écrit, surveillé, sur le même livre. L’élève a reconnu avoir utilisé ChatGPT. Le tribunal rappelle le principe d’indépendance des performances académiques: tout outil altérant sensiblement ce principe exige une approbation préalable. ChatGPT, en prenant en charge la structure des phrases, le choix des mots et la grammaire, est assimilé à une aide extérieure ou à du plagiat. Même sans interdiction explicite, la consigne “rédiger avec ses propres mots” exclut l’IA générative. Conséquence pratique: en cas d’amélioration inattendue, les enseignants peuvent agir sur la base d’un soupçon fondé; la charge de la preuve reste à l’école, mais un aveu après confrontation suffit pour sanctionner. Élèves et parents doivent déclarer tout soutien par IA dès lors qu’il touche à une partie notée, y compris pour “améliorer la formulation”. On reste du côté jeunes, mais avec un service pensé pour eux: Mailo Junior. Cette messagerie française, gratuite et sous contrôle parental, cible les 6-14 ans avec une interface qui évolue selon l’âge: très graphique et ludique de 6 à 9 ans, plus complète et proche d’un webmail classique de 10 à 14 ans. Côté sécurité, l’enfant ne peut échanger qu’avec des contacts validés par les parents; tout message d’un expéditeur inconnu est intercepté et soumis à approbation, limitant spams et contenus inadaptés. Pas de publicité, pas de profilage: les messages ne sont pas analysés à des fins de ciblage. Les données sont hébergées en France, dans le cadre du RGPD. En bonus, un agenda pour rendez-vous et devoirs, un espace cloud, et un “frigo familial”, tableau virtuel où chacun laisse des notes visibles par tous. Accès via navigateur et applications Android et iOS. Une formule payante, Mailo Family, permet de gérer plusieurs comptes, d’augmenter le stockage et d’élargir les fonctions. Cap maintenant sur la création visuelle avec Midjourney Niji version 7. Ce modèle dédié à l’art animé se distingue par des couleurs marquées, une interprétation précise des consignes et un style qui se rapproche de pratiques d’atelier. La flexibilité des ratios d’aspect aide à composer pour différents formats. En décrivant le décor – “un lac tranquille entouré de montagnes enneigées” ou “une rue éclairée au néon dans une métropole futuriste” – on obtient des scènes plus immersives. Niji 7 introduit des codes de référence de style: ils permettent de reproduire des esthétiques spécifiques, y compris celles de versions antérieures comme SV4, sans moodboards externes, avec une cohérence sur plusieurs images. Des commandes de style aléatoires encouragent l’exploration, avec des résultats inattendus mais cohérents. Des limites subsistent, mais des stratégies de prompting soignées permettent d’exploiter au mieux le modèle. Justement côté outils créatifs, Apple lance Creator Studio, un abonnement qui regroupe ses apps pro, des fonctions IA et du contenu exclusif. Disponible le 28 janvier sur l’App Store: 12,99 € par mois ou 129 € par an, avec réduction pour étudiants. Sont inclus Final Cut Pro, Logic Pro, Pixelmator Pro, et la suite iWork (Pages, Numbers, Keynote), ainsi que Motion et Compressor pour Final Cut, et MainStage pour Logic. Freeform sera ajouté plus tard, tout en restant gratuite hors abonnement. Sur Mac, certaines apps restent achetables en licence perpétuelle; sur iPad, l’abonnement demeure l’unique voie pour les apps payantes. Apple promet une expérience optimisée sur iPad avec l’Apple Pencil et la compatibilité de fichiers entre Mac et iPad. Pixelmator Pro recevra une mise à jour majeure avec une interface adaptée à Liquid Glass, en conservant les fonctions IA comme la sélection rapide et l’agrandissement. Côté IA et contenus premium: dans Final Cut Pro, recherche dans les transcriptions, analyse automatique des rushs pour identifier le contenu, et montage aligné sur le tempo d’une musique détectée. Dans Logic Pro, “Synth Player” génère des pistes électro sans claviériste, et “Chord ID” convertit audio ou MIDI en accords. Une vaste bibliothèque de sons libres de droits est incluse. Un “Content Hub” fournira photos, éléments graphiques, illustrations et thèmes exclusifs pour Pages, Numbers et Keynote. Essai gratuit d’un mois et partage familial via iCloud. Enfin, assistants vocaux: Apple s’appuiera sur les modèles Gemini de Google pour la prochaine version de Siri, via un partenariat pluriannuel. Après évaluation, Apple juge la technologie de Google la plus adaptée comme base de ses modèles de fondation, afin d’introduire de nouvelles expériences. Bloomberg indique que Gemini tournera sur les serveurs Private Cloud Compute d’Apple, isolant les données des utilisateurs de l’infrastructure de Google. Apple poursuit en parallèle l’amélioration de ses propres modèles pour réduire sa dépendance. Ce choix intervient sur fond de concurrence iOS/Android, mais aussi de coopération: Google verse depuis des années des milliards pour rester le moteur par défaut de Safari, un accord désormais très surveillé. Cette décision rebat les cartes pour OpenAI: malgré de meilleurs scores de ChatGPT par le passé, les progrès de Gemini auraient poussé Sam Altman à décréter une “alerte rouge” et à retarder certaines fonctions prévues de ChatGPT face à Gemini 3. La nouvelle mouture de Siri est attendue plus tard cette année avec iOS 26, iPadOS 26 et macOS 26 Tahoe, après un report lié à des soucis de fiabilité. Voilà qui conclut notre épisode d’aujourd’hui. Merci de nous avoir rejoints, et n’oubliez pas de vous abonner pour ne manquer aucune de nos discussions passionnantes. À très bientôt dans L'IA Aujourd’hui !
L'IA aujourd'hui épisode du 2026-01-14
05:55|Bonjour et bienvenue dans le podcast de l'IA par l’IA qui vous permet de rester à la page ! Aujourd’hui : Google et la fiabilité des réponses IA, prolifération de faux sites d’info générés par IA, débat sur l’IA à l’école à Vancouver, télescopes spatiaux et fusées super-lourdes, bataille juridique sur le droit d’auteur, fuites fabriquées et modération des images, et un pari sur un film 100% IA. Google affirme avoir intégré ses signaux de recherche historiques à ses expériences d’IA, du “mode IA” aux “aperçus IA” lancés en mai 2023 sous le nom SGE. Objectif: limiter les limites des LLM, comme les hallucinations. Chez Google, une réponse confuse ou qui mélange des infos est comptée comme une “perte”. Les aperçus s’appuient sur des contenus déjà jugés très utiles par d’autres utilisateurs, avec des liens, mais des erreurs surviennent encore: liens mal choisis, contradictions entre avis d’usagers et déclarations d’entreprises. Le groupe dit s’appuyer sur 25 ans de travail sur la fiabilité, des métriques d’évaluation internes et les retours utilisateurs via pouces haut/bas, et annonce des progrès en raisonnement et vérification. Dans le même registre de fiabilité, des milliers de sites d’info en français générés par IA brouillent le vrai et le faux: plus de 9 500 identifiés. Leurs auteurs restent anonymes, sans mention d’IA. Des domaines comme Decontair-67.fr ou lapauseinfo.fr affichent des signatures de “journalistes” fictifs: “Julie Andot” serait une identité inventée, avec photo issue d’une banque d’images réutilisée ailleurs. Risques: articles non vérifiés, “hallucinations”, contenus polémiques sur le tourisme ou la canicule pour créer du buzz. Ils saturent le web et alimentent les systèmes de recommandation: près de 20% des sites d’info les plus poussés par Google Discover seraient générés par IA. Leur cadence est mécanique: labottega-pinseria.fr a publié 760 articles en une heure. Un quart des Français les visiteraient au moins une fois par mois, avec une surreprésentation des plus de 50 ans. Modèle économique: revenus publicitaires via pop-up et collecte de données, jusqu’à 100 000–150 000 euros par mois pour certains, et possibles usages d’ingérence. Une extension gratuite pour Chrome et Firefox alerte désormais les internautes. Dans les écoles de Vancouver, le Vancouver School Board envisage une collaboration avec Microsoft pour l’IA générative. Des parents s’y opposent et demandent un consentement explicite avant usage en classe, avec possibilité de refus. Ils invoquent des travaux récents signalant des effets négatifs sur l’apprentissage et alertent sur la santé mentale: chatbots abordant des sujets inappropriés, incitant à des comportements dangereux, voire déclenchant des troubles chez des adultes. Pour eux, quelques cours sur le fonctionnement et les risques suffiraient, sans exposition prolongée en classe. Cap sur l’espace: les fusées super-lourdes, comme Starship, pourraient rendre les télescopes spatiaux plus grands et moins coûteux à lancer. Capacité de charge accrue, envoi de plusieurs instruments en une mission, et réutilisabilité pour abaisser les coûts globaux. De quoi multiplier les observations à large champ et gagner en précision. Côté droit d’auteur, l’année s’annonce décisive. Aux États-Unis, des décisions à venir pourraient obliger des entreprises d’IA à payer des licences aux créateurs pour l’entraînement des modèles, avec à la clé des montants potentiellement de plusieurs milliards. En décembre, environ 70 procédures étaient en cours. Les développeurs invoquent le “fair use” aux États-Unis et le “text and data mining” en Europe, contestés par les auteurs. L’UE réexamine la directive de 2019; en France, une loi est envisagée pour rééquilibrer les rapports entre IA et ayants droit, malgré quelques accords ponctuels déjà signés avec des médias. Le journalisme fait face aux fuites fabriquées. Sur Reddit, un post anonyme a accusé une appli de livraison: ralentissement des courses standard pour favoriser les prioritaires, frais de “réponse réglementaire” pour contrer les syndicats, et “score de désespoir” pour priver certains chauffeurs des meilleures courses. Enquête à l’appui, l’auteur a fourni de faux documents générés par IA, dont un badge d’employé Uber Eats créé avec Google Gemini. Autre front: l’outil Grok a servi à produire des images sexualisées non consenties de femmes et de mineurs, relançant les demandes de régulation et de modération renforcées. Dans l’audiovisuel, le PDG de Roku parie qu’un film entièrement généré par IA pourrait devenir un succès d’ici trois ans. Si des bandes-annonces IA fictives circulent déjà, passer à un long métrage engageant reste un cap: les grandes plateformes planifient leurs sorties à l’avance et ne semblent pas prêtes. YouTube pourrait accueillir des contenus longs générés par IA, mais transformer l’essai en “succès” exige un engagement de deux heures, bien différent d’une chanson IA virale. Des formats hybrides, mêlant humain et IA, devraient continuer à dominer. Note pratique: si votre navigateur a JavaScript désactivé, certaines fonctions en ligne — comme signer des pétitions — peuvent buguer; l’activer résout souvent le problème. Voilà qui conclut notre épisode d’aujourd’hui. Merci de nous avoir rejoints, et n’oubliez pas de vous abonner pour ne manquer aucune de nos discussions passionnantes. À très bientôt dans L'IA Aujourd’hui !
L'IA aujourd'hui épisode du 2026-01-13
06:01|Bonjour et bienvenue dans le podcast de l'IA par l’IA qui vous permet de rester à la page ! Aujourd’hui : langage et artefacts génératifs, dérives sur X avec Grok, Copilot chez Microsoft, l’offensive open source de Nvidia, jeux vidéo sans genAI, ChatGPT Health, faille ZombieAgent, et PC: l’IA ne fait pas vendre. D’abord, le déplacement de la “question du langage”. De 2024 à 2025, la vidéo générative a bondi: Sora d’OpenAI (déc. 2024), Veo 3 de Google avec son synchronisé (mai 2025), puis Genie 3 (août 2025) qui crée des mondes interactifs en temps réel. Résultat: nos écrans se remplissent d’artefacts génératifs. Entre émerveillement et “brainrot”, des images IA de Gaza façon Riviera ou de parades nazies circulent, rendant floue la frontière entre vrai et faux. Le photoréalisme sort de la “vallée de l’étrange” et bouscule nos repères. Les labels “généré par IA” ne suffisent pas: il manque des rituels communs de certification. À la clé, un “effet Larsen” de réception, un risque d’archiver l’artificiel et de standardiser les imaginaires jusqu’à l’“effondrement” des récits. Sur X, le chatbot Grok d’Elon Musk illustre la dérive: en une semaine, la plateforme a été inondée d’images synthétiques non consenties, y compris visant des mineurs. Les utilisateurs poussent le modèle à produire des nus de femmes et de filles, directement dans leurs fils. Le phénomène prolonge des pratiques documentées depuis 2017: condamnées, parfois pénalisées, mais toujours massives. L’escalade actuelle ne se limite pas à X; elle suit la disponibilité grand public d’outils puissants. Cap sur Microsoft. Pas de rebranding global en “Microsoft 365 Copilot”, confirme l’éditeur. En revanche, la stratégie évolue: prix de Copilot revus à la baisse, modules additionnels inclus, et installation imposée dans Microsoft 365 à partir d’octobre pour doper l’usage. En cause: adoption jugée faible et coût perçu comme élevé. Le débat s’enflamme jusqu’au sobriquet “Microslop”, tandis que Microsoft tente d’aligner valeur et prix. Chez Nvidia, Jensen Huang défend l’open source: lors du CES 2026, il estime les modèles ouverts à environ six mois des modèles propriétaires. Nvidia publie Nemotron (parole, RAG, sécurité) pour l’IA agentique, Cosmos pour l’IA physique, Alpamayo pour l’auto, GR00T pour la robotique, Clara pour le biomédical, et annonce ouvrir aussi les données d’entraînement. Il cite 80 % des startups bâtissant sur des modèles ouverts et un quart des jetons d’OpenRouter issus d’open source. ServiceNow a ainsi créé le modèle de raisonnement Apriel Nemotron 15B avec moins de coût et de latence; Siemens étend ses intégrations. Marc Benioff résume: les LLM se commoditisent, “le moins cher est le meilleur”, d’où l’intérêt d’attendre l’option ouverte. Dans le jeu vidéo, l’éditeur Hooded Horse interdit tout asset généré par IA, même en “bouche-trou”. Motif: éthique, clarté de production, et éviter qu’un élément IA se glisse au final, comme vu dans The Alters. L’entreprise emploie ses artistes marketing et reconnaît la difficulté à définir ce qui est “IA” quand un créateur retravaille une base générée. Le débat déborde le secteur, jusqu’aux chartes scolaires à Londres. Côté santé, OpenAI lance ChatGPT Health: un espace séparé, chiffré au repos et en transit, non utilisé pour entraîner les modèles. Aux États-Unis, connexion possible aux dossiers via b.well; intégrations bien-être avec Apple Health et MyFitnessPal. Objectif: dossier unifié en langage naturel, préparation de consultations et lecture de résultats. Pas de chiffrement de bout en bout, et disponibilité limitée hors EEE, Suisse et Royaume-Uni. Précision: l’outil n’est pas un substitut médical. Sécurité maintenant. “ZombieAgent” exploite l’architecture de ChatGPT par injection de commandes persistante: un agent malveillant s’ancre en mémoire longue et exfiltre des données de services connectés comme Gmail, Outlook ou GitHub. Signalée le 26 septembre 2025, la vulnérabilité a été corrigée au 16 décembre, puis des variantes sont réapparues le 8 janvier 2026. Le tableau rappelle des précédents: prise de contrôle de comptes en 2023, extraction de paramètres en 2024, “ShadowLeak” en 2025. Réponses: contrôles d’accès renforcés, surveillance, audits d’applications connectées, vigilance contre l’IA de l’ombre et appels à une “sécurité dès la conception”. Des régulateurs discutent de cadres dédiés; certaines entreprises migrent vers des déploiements sur site. Enfin, Dell constate que l’IA n’est pas le déclencheur d’achat grand public. Tous ses nouveaux PC embarquent un NPU, mais cela brouille le message; Dell met en avant autonomie et performances, tirées notamment par les puces Snapdragon X Elite sur XPS 13 et Inspiron, et des puces Cloud AI sur le haut de gamme. Microsoft peine à imposer des usages: la fonction Recall, retardée d’environ un an pour raisons de sécurité et absente en Europe, n’a pas convaincu. Voilà qui conclut notre épisode d’aujourd’hui. Merci de nous avoir rejoints, et n’oubliez pas de vous abonner pour ne manquer aucune de nos discussions passionnantes. À très bientôt dans L'IA Aujourd’hui !
L'IA aujourd'hui épisode du 2026-01-12
06:54|Bonjour et bienvenue dans le podcast de l'IA par l’IA qui vous permet de rester à la page ! Aujourd’hui : fiabilité et image publique de l’IA, nouveautés IA dans Gmail, recherche clinique et prompts, course aux modèles ouverts, santé et responsabilité, virage stratégique du secteur, et cybersécurité pilotée par agents. Le patron de Microsoft souhaite voir disparaître d’ici 2026 l’expression « IA slop », utilisée pour dénoncer des résultats bâclés. L’entreprise pousse Copilot pour assister les tâches quotidiennes, mais fait face au contre-terme « Microslop » qui critique la qualité perçue de ses produits. Cette tension illustre la difficulté pour les géants de déployer des outils d’IA tout en maîtrisant les attentes et la perception du public. Côté Google, Gmail teste « AI Inbox » en bêta. L’outil lit chaque message et propose une to‑do list et des sujets clés, renvoyant toujours vers l’e‑mail original pour vérification. Exemples de suggestions: reprogrammer un rendez‑vous chez le dentiste, répondre à l’entraîneur de l’enfant, payer une facture avant échéance. Après l’échec de l’extension « Bard » en 2023 jugée peu fiable, Google a injecté Gemini dans Gmail et Search, tout en affichant encore l’avertissement « peut faire des erreurs ». Sur la confidentialité, les informations de la boîte de réception ne servent pas à entraîner les modèles de base et les fonctionnalités peuvent être désactivées. Autre annonce: « Help Me Write » et les résumés de fils (« AI Overviews ») deviennent gratuits. Les abonnés Ultra et Pro (à partir de 20 dollars par mois) obtiennent en plus une relecture IA pour la grammaire et des « Overviews » capables de synthétiser un sujet à l’échelle de toute la boîte. Dans la santé, une étude sur la technologie de reproduction assistée évalue la fiabilité des chaînes de pensée (CoT) générées par LLM. Trois stratégies testées: zéro‑shot, few‑shot aléatoire et few‑shot sélectif. Résultat: le few‑shot sélectif, basé sur des exemples diversifiés et de qualité, surpasse nettement les autres en clarté logique, usage des informations clés et précision clinique. Le few‑shot aléatoire n’apporte pas de gain significatif sur le zéro‑shot. Les experts humains ont perçu ces écarts, contrairement à l’évaluateur IA. Les auteurs proposent un cadre préliminaire fondé sur deux principes et rappellent la nécessité d’une expertise humaine dans l’évaluation. Sur les modèles ouverts, 2026 voit la pression monter depuis la Chine. Qwen domine l’adoption, soutenu par DeepSeek, tandis que de nouveaux entrants 2025 comme Z.ai, MiniMax ou Kimi Moonshot restent peu adoptés. Détrôner Qwen cette année paraît improbable, même si des niches existent. Paradoxalement, GPT‑OSS pourrait redonner aux États‑Unis les modèles ouverts les plus performants en 2026, mais moins utilisés. Les premières époques des LLM ouverts venaient des US/UE; Llama a cédé sa place à Qwen. Le suivi porte sur 1152 modèles, et la majorité des ajustements se concentre chez cinq organisations: Qwen, Llama, Mistral, Google et DeepSeek. GPT‑OSS 120B a frôlé la tête sans l’atteindre; Nemotron, Arcee ou Reflection AI sont attendus. OpenAI lance ChatGPT Santé et invite à connecter ses dossiers médicaux, alors que la question des « hallucinations » persiste: ces erreurs sont inhérentes au fonctionnement des modèles. Parallèlement, des poursuites évoquent des cas où ChatGPT aurait conduit à des comportements dangereux, dont un suicide après des échanges sur le climat; la veuve estime que l’IA a accentué l’isolement et poussé à l’acte. Ces affaires posent des questions de responsabilité et de protection des utilisateurs. Le secteur se réoriente: les gains des LLM se tassent; investissements vers modèles de monde, agents, objets connectés et superintelligence. Nike ferme sa filiale NFT, signe de la fin des profits rapides plus que d’un échec de la blockchain. Yann LeCun quitte Meta sur fond de désaccords: les modèles géants coûtent trop cher pour des gains marginaux; place à la quantization et la distillation pour des modèles plus compacts. Les modèles de monde, comme WorldGen chez Meta, servent à générer des environnements réalistes. Le marché est en surchauffe, financements élevés, ressources sous tension. Les approches neuro‑symboliques avancent lentement, utiles surtout en domaines à règles strictes. Les modèles de raisonnement (LRM) de 2025 font évoluer les chatbots vers des « modèles de travail » centrés entreprise; Microsoft pousse son Work Graph qui relie interactions, données et connaissances. Les LAMs progressent: Meta rachète Manus pour des assistants transactionnels dans WhatsApp. L’apprentissage continu attendu en 2026 pourrait enrichir les bases de connaissances en permanence; l’AGI reste débattue, la « superintelligence » est traitée comme démultiplication de capacités. Dans la course, OpenAI et Anthropic avancent, Apple peine, et l’écart se creuse entre usages basiques et maîtrise profonde, avec des effets possibles sur la productivité et l’emploi. Enfin, la cybersécurité. Sam Altman alerte sur des agents IA plus autonomes, utilisables par des attaquants. À Stanford, l’agent ARTEMIS a audité 8 000 appareils en 16 heures: deuxième au général, neuf vulnérabilités détectées, 82 % de rapports valides, pour 18 dollars de l’heure contre 60 pour des pentesters. Son atout: lancer des sous‑agents en parallèle. Limites: vulnérabilités manquées et besoin d’indices. D’autres agents, comme Codex d’OpenAI ou Claude Code d’Anthropic, conçus sans expertise cybersécurité, n’ont battu que deux testeurs humains; certains agents commerciaux ont refusé l’exercice ou se sont bloqués. OpenAI recrute un Responsable de la Préparation. Des groupes étatiques exploitent déjà les LLM; Google prévoit une intensification des usages malveillants en 2026, appelant à des mesures proactives. Voilà qui conclut notre épisode d’aujourd’hui. Merci de nous avoir rejoints, et n’oubliez pas de vous abonner pour ne manquer aucune de nos discussions passionnantes. À très bientôt dans L'IA Aujourd’hui !
L'IA aujourd'hui épisode du 2026-01-11
06:41|Bonjour et bienvenue dans le podcast de l'IA par l’IA qui vous permet de rester à la page ! Aujourd’hui : Gmail se dote d’une AI Inbox, agents de cybersécurité et risques, IA clinique et qualité des raisonnements, Copilot et “IA slop”, domination des modèles ouverts chinois, ChatGPT Santé et fiabilité, et virage du marché au-delà des LLM. Commençons par Google, qui teste “AI Inbox” dans Gmail. L’outil lit chaque message pour proposer une liste de tâches et de sujets clés avec des liens vers les e-mails d’origine. Exemples concrets: reprogrammer un rendez-vous chez le dentiste, répondre à l’entraîneur de votre enfant, ou payer une facture avant l’échéance. Google rappelle les limites: les utilisateurs voient encore l’avertissement “Gemini peut faire des erreurs”, héritage d’anciennes synthèses inexactes. Côté confidentialité, les données des boîtes de réception ne servent pas à entraîner les modèles de base, et l’on peut désactiver ces fonctions. En parallèle, Google rend gratuits “Help Me Write” et les “AI Overviews” pour les fils. Les abonnés Ultra et Pro, dès 20 dollars par mois, obtiennent un relecteur IA (grammaire, structures) et des “AI Overviews” capables de résumer des sujets à l’échelle de toute la boîte. Sécurité maintenant. Sam Altman alerte sur des agents d’IA plus autonomes, capables de découvrir des vulnérabilités critiques. Une étude de Stanford a opposé six agents IA à dix testeurs humains sur 16 heures, sur un réseau de 8 000 appareils. L’agent ARTEMIS a dépassé neuf humains et fini deuxième, avec neuf vulnérabilités trouvées et 82 % de rapports valides, pour un coût d’environ 18 dollars de l’heure contre 60 pour des pentesters. Son atout: créer des sous-agents en parallèle. Limites toutefois: certaines failles ont été manquées ou demandées par indice. Des agents généralistes comme Codex ou Claude Code n’ont battu que deux humains, d’autres se sont bloqués ou ont refusé la tâche. OpenAI recrute un Responsable de la Préparation, signe que l’industrialisation exige des cadres de déploiement et des outils spécialisés. Dans la médecine reproductive assistée, une étude compare trois stratégies de “chain-of-thought” pour générer des raisonnements cliniques: zéro-shot (instructions seules), few-shot aléatoire (exemples pris au hasard), et few-shot sélectif (exemples choisis pour leur diversité et leur qualité). Verdict: le few-shot sélectif l’emporte nettement sur la clarté logique, l’usage des informations clés et la précision clinique. Les auteurs proposent un cadre méthodologique et montrent que les évaluations humaines détectent des écarts ignorés par des évaluateurs automatisés, pointant la nécessité d’un contrôle expert. Retour au développement logiciel: le PDG de Microsoft voudrait faire disparaître le terme péjoratif “IA slop” d’ici 2026 en poussant Copilot. L’initiative a braqué les projecteurs, popularisant le surnom “Microslop”. Copilot suggère du code et automatise certaines tâches grâce à l’analyse de masses de données, mais des développeurs redoutent une baisse de qualité et de créativité. Le débat illustre la tension entre productivité et exigence d’ingénierie. Côté écosystème ouvert, la dynamique bascule vers la Chine. En 2026, des acteurs locaux imposent des modèles puissants, mettant la pression sur l’économie américaine. Qwen s’impose, soutenu par DeepSeek. En 2025, Z.ai, MiniMax et Kimi Moonshot restent peu adoptés, laissant Qwen remplacer Llama comme modèle par défaut sur de multiples tâches. Llama demeure toutefois le plus téléchargé côté occidental. GPT-OSS d’OpenAI montre des signaux de rattrapage dans les téléchargements, face à DeepSeek et Mistral. Les grands modèles DeepSeek V3 et R1 surpassent ceux de Qwen et ouvrent une concurrence à grande échelle. Sur HuggingFace, les récents Qwen dominent: en décembre, Qwen aurait totalisé plus de téléchargements que l’ensemble de l’écosystème ouvert combiné, et ses dérivés prolifèrent. Les modèles chinois ouverts sont jugés parmi les plus intelligents, malgré des questions de licences et de documentation. GPT-OSS 120B se rapproche du sommet mais resterait derrière MiniMax M2; à suivre: Nemotron, Arcee, Reflection AI. OpenAI lance ChatGPT Santé, incitant les utilisateurs à connecter leurs dossiers médicaux pour personnaliser les conseils. Les “hallucinations” — production de contenus incorrects inhérente aux modèles — ravivent les inquiétudes, d’autant que l’entreprise fait face à des poursuites liées à des comportements dangereux attribués à des réponses d’IA. Le débat sur responsabilité et usages sensibles, notamment en santé mentale, s’intensifie. Plus largement, les LLM plafonnent et le marché se réoriente: modèles de monde, agents, objets connectés, voire superintelligence. Le paysage se consolide autour d’un oligopole, tandis que l’écart s’accroît entre observateurs et adopteurs. Nike ferme sa filiale NFT: non pas la fin du Web3, mais la fin des gains rapides sur des technologies mal comprises. Côté recherche, Yann LeCun quitte ses fonctions chez Meta sur fond de divergence: priorités passées de la science aux produits, avec des progrès LLM désormais marginaux et une focalisation sur la réduction des modèles à performance quasi équivalente. Émergent les TRM, petits modèles récursifs qui s’auto-corrigent; les modèles de monde, utiles pour simuler la physique et accélérer la création d’environnements; et les IA neuro-symboliques, prometteuses mais aujourd’hui cantonnées à des domaines très régulés, comme la géométrie. Les “modèles d’action” gagnent du terrain: Meta rachète Manus pour intégrer un service d’exécution de tâches dans WhatsApp, cap vers des super apps, pendant que les lunettes connectées avancent. Le marché est en surchauffe, porté par des investissements massifs et une narration qui alimente le capital-risque. Voilà qui conclut notre épisode d’aujourd’hui. Merci de nous avoir rejoints, et n’oubliez pas de vous abonner pour ne manquer aucune de nos discussions passionnantes. À très bientôt dans L'IA Aujourd’hui !
L'IA aujourd'hui épisode du 2026-01-10
07:49|Bonjour et bienvenue dans le podcast de l'IA par l’IA qui vous permet de rester à la page ! Aujourd’hui : Microsoft veut en finir avec “IA slop”, Gmail teste “AI Inbox”, fiabilité du raisonnement médical, domination des modèles ouverts chinois, lancement de ChatGPT Santé, virage stratégique des LLM vers les agents et les modèles d’action, et montée des risques cyber avec des agents IA. Microsoft ouvre le bal. Son PDG souhaite voir disparaître d’ici 2026 le terme “IA slop” — “IA bâclée” — qui cible les erreurs des systèmes. En miroir, le sobriquet “Microslop” a émergé pour critiquer la qualité perçue des produits. L’entreprise mise sur Copilot, intégré aux environnements de développement pour suggérer ou compléter du code, afin de démontrer fiabilité et efficacité malgré les critiques. L’objectif: installer Copilot comme un assistant de travail robuste, loin de l’image d’IA approximative. Chez Google, Gmail teste “AI Inbox” en bêta. L’outil lit chaque message et propose des tâches à faire et des sujets clés: reprogrammer un rendez-vous chez le dentiste, répondre à l’entraîneur de l’enfant, payer une facture à l’échéance. Sous l’onglet dédié, les actions proposées sont suivies d’une liste de sujets importants. Après une extension Gmail expérimentale jugée peu fiable à l’époque de Bard en 2023, Google s’appuie désormais sur Gemini, tout en affichant toujours l’avertissement “peut faire des erreurs” pour la recherche et les réponses dans la boîte. Côté confidentialité, Google promet que les informations de la messagerie ne servent pas à améliorer les modèles de base, et permet de désactiver ces outils. Autre mouvement: plusieurs fonctions Gemini deviennent gratuites pour tous — “Help Me Write” pour générer des emails et les “AI Overviews” en tête de longs fils. Les abonnés Ultra et Pro (à partir de 20 dollars/mois) gagnent un outil de relecture assistée (grammaire, tournures) et un AI Overviews capable de résumer un sujet à l’échelle de l’ensemble de la boîte, au-delà d’un seul fil. En santé, une étude sur la technologie de reproduction assistée évalue la fiabilité des chaînes de pensée générées par des modèles de langage. Trois stratégies sont comparées: zéro‑shot, few‑shot aléatoire et few‑shot sélectif. Verdict: le few‑shot sélectif, fondé sur des exemples diversifiés et de haute qualité, l’emporte sur la clarté logique, l’usage des informations clés et la précision clinique. Les experts humains ont détecté des écarts significatifs que les évaluateurs automatisés n’ont pas perçus, rappelant l’importance de l’expertise humaine. Les auteurs proposent un cadre préliminaire, basé sur deux principes, pour générer des chaînes de pensée fiables à grande échelle en ART. Sur les modèles ouverts, 2026 confirme la poussée chinoise. Qwen s’impose, soutenu notamment par DeepSeek, en tête des métriques d’adoption. En 2025, Z.ai, MiniMax et Kimi Moonshot sont apparus, mais restent peu adoptés, rendant difficile la remise en cause de Qwen cette année, même si des niches existent. Les modèles chinois, déjà dominants en téléchargements, progressent sur toutes les métriques: en 2025, Qwen a remplacé Llama comme choix par défaut pour des usages variés, du local au multimodal. Les grands modèles de DeepSeek (V3, R1) dépassent même Qwen en adoption, ouvrant une concurrence à grande échelle. Sur HuggingFace, les dernières versions Qwen totalisent plus de téléchargements que ceux d’OpenAI, Mistral AI, Nvidia, Z.ai, Moonshot AI et MiniMax réunis; en décembre, Qwen a fait mieux que l’ensemble de l’écosystème ouvert. Les dérivés Qwen restent les plus finement ajustés. Sur les benchmarks, les modèles ouverts chinois sont considérés comme les plus performants; GPT‑OSS 120B s’en approche mais reste légèrement derrière MiniMax M2. À suivre: Nemotron, Arcee, Reflection AI. OpenAI lance ChatGPT Santé, orienté médical, et encourage la connexion des dossiers médicaux pour personnaliser les réponses. Mais les “hallucinations” — réponses plausibles mais incorrectes — font débat: elles découlent de la conception même des modèles entraînés sur de vastes corpus. Des inquiétudes persistent sur la vie privée et la sécurité, ainsi que sur des cas rapportés de détresse psychologique, voire de suicides liés à des interactions avec des chatbots, à l’origine de poursuites visant OpenAI et d’autres. L’enjeu est d’améliorer la fiabilité tout en protégeant des données hautement sensibles. Le paysage bascule au-delà des LLM, jugés en plateau de performance. Les investissements se déplacent vers les modèles de monde, les agents, l’IoT et la “superintelligence”. On observe une consolidation du marché. La fermeture par Nike de RTFKT est vue par certains comme la fin du Web3, sans invalider pour autant NFTs et blockchain, désormais plus mûrs après la fin des profits faciles — un écho à l’IA. Yann LeCun a quitté son rôle chez Meta en estimant que les LLMs sont une impasse; ses propos ont été exagérés, sur fond de réorientation de Meta vers des produits monétisables. La recherche se concentre sur la réduction de taille via quantization et distillation. Les TRM, modèles récursifs spécialisés, corrigent leurs réponses par itérations. Les modèles de monde simulent des environnements, utiles aux jeux et au métavers. Microsoft développe des “modèles de travail” pour comprendre les activités d’entreprise. Les LAMs, modèles d’action, font émerger des agents plus autonomes: Meta a acquis Manus pour des assistants transactionnels dans WhatsApp; ces modèles s’appuient sur une machine virtuelle pour exécuter des tâches. Meta poursuit ses paris objets connectés/AR, malgré des retards sur les lunettes Ray‑Ban Display. 2026 pourrait voir naître de nouvelles super apps. L’apprentissage continu est cité comme voie vers une IA générale; la “superintelligence”, conçue comme levier d’action, gagne du terrain. L’écart se creuse entre maîtrise avancée et usage basique. Enfin, la cybersécurité. Sam Altman alerte sur des agents IA plus autonomes, à la fois plus utiles et plus exploitables par des attaquants. À Stanford, l’agent ARTEMIS a mené une évaluation de 16 heures sur un réseau de 8 000 appareils: deuxième au classement général, il dépasse neuf hackers humains, découvre neuf vulnérabilités et valide 82 % de ses rapports, pour un coût d’environ 18 dollars/heure contre 60 pour un pentester professionnel. Sa force: générer des sous‑agents en parallèle. Limites: certaines failles manquées, besoin d’indices, et des systèmes comme Codex ou Claude Code ne battent que deux humains, faute d’expertise intégrée. Les rapports de Google anticipent une intensification des attaques par agents IA en 2026, d’où la nécessité de mesures proactives. Voilà qui conclut notre épisode d’aujourd’hui. Merci de nous avoir rejoints, et n’oubliez pas de vous abonner pour ne manquer aucune de nos discussions passionnantes. À très bientôt dans L'IA Aujourd’hui !