Latest episode

L'IA aujourd'hui épisode du 2026-01-18
05:20|Bonjour et bienvenue dans le podcast de l'IA par l’IA qui vous permet de rester à la page ! Aujourd’hui : l’IA et le travail entre automatisation et micro-tâches, Bandcamp bannit la musique générée, enquête en Californie sur des images explicites produites avec Grok, et lancement de ChatGPT Translate sur fond de scepticisme envers les promesses de l’IA générative. Dans le podcast « Entre la chaise et le clavier », le sociologue Juan Sebastian Carbonell analyse l’impact de l’IA sur l’emploi. Il rappelle que l’automatisation peut supprimer des postes, dans la lignée du rapport Frey-Osborne de 2013 qui estimait 47 % des emplois menacés. Mais l’IA déplace aussi le travail et en crée sous forme de micro-tâches, souvent précaires mais indispensables pour entraîner et maintenir les systèmes. S’appuyant sur les travaux d’Antonio Casilli et Paola Tubaro, l’IA est décrite comme une « industrie extractive », dépendante de données et de main-d’œuvre. Carbonell, auteur d’« Un taylorisme augmenté », souligne que l’IA peut parfois servir de paravent à des stratégies classiques de licenciements. Reste la promesse de réorganiser les tâches: automatiser le répétitif pour dégager du temps vers des missions plus créatives, à condition d’investir dans la formation continue. On change de scène avec la musique en ligne: Bandcamp annonce l’interdiction de toute musique générée par IA sur sa plateforme. Objectif affiché: préserver une expérience « sans IA » pour artistes et auditeurs, en valorisant la création humaine. Les utilisateurs sont invités à signaler les morceaux suspects; la plateforme se réserve le droit de retirer les contenus, sans détailler son dispositif de vérification ni l’existence d’une équipe dédiée. Une position plus tranchée que celle d’autres services comme Spotify, qui n’ont pas banni globalement ces contenus. Autre dossier, côté régulation: le procureur général de Californie, Rob Bonta, ouvre une enquête sur la prolifération de contenus sexuellement explicites non consensuels produits avec Grok, le modèle d’images de xAI. Des rapports décrivent l’usage d’un « mode épicé » promu commercialement, permettant de transformer des photos ordinaires de femmes et d’enfants pour les sexualiser sans consentement. Une analyse cite plus de la moitié des 20 000 images générées par xAI entre Noël et le Nouvel An montrant des personnes en vêtements minimalistes, certaines semblant être des enfants; des allégations évoquent des images photoréalistes d’enfants dans des actes sexuels. Bonta rappelle ses démarches: soutien à une loi californienne sur la sécurité des chatbots pour mineurs, rencontres en septembre avec OpenAI au sujet d’interactions inappropriées avec des jeunes, et envoi en août d’une lettre à 12 entreprises d’IA. En 2023, il a rejoint une coalition de 54 États et territoires demandant au Congrès une commission d’experts sur l’usage de l’IA dans l’exploitation des enfants, et s’est opposé à une tentative d’interdiction fédérale de réguler l’IA au niveau des États. Côté outils, ChatGPT Translate fait son apparition pour concurrencer Google Traduction et DeepL. Une première description le présente comme gratuit, sans création de compte, couvrant 28 langues dont l’espagnol, le français et des variantes du chinois et du portugais. L’interface affiche deux blocs et une liste de langues; la traduction d’images est annoncée mais pas opérationnelle, et la dictée n’est pas disponible partout. Des boutons permettent d’affiner le style — naturel, académique ou formel — via un prompt côté ChatGPT. Latence notable par rapport à Google ou DeepL, et fonctionnalités encore incomplètes. Une autre présentation, datée du 15 janvier 2026, évoque une version plus étoffée: plus de 50 langues, adaptation du ton et du registre, interface dédiée, possibilité de dicter des phrases ou d’importer une photo, et quatre styles de rendu. Des limites persistent: difficultés ponctuelles d’affichage des traductions ou d’application des styles, avec redirection vers l’interface classique. OpenAI mise sur la qualité stylistique et le contexte pour des usages quotidiens — voyage, travail, études — plutôt que sur une stricte équivalence mot à mot. Enfin, un état des lieux plus critique rappelle que les grands modèles de langage demeurent peu fiables. Le débat sur la part de mémorisation reste vif, en désaccord avec des figures comme Geoffrey Hinton. Le Remote Labor Index estime qu’environ 2,5 % des emplois seraient réellement accomplissables par l’IA aujourd’hui. L’argument avancé: l’augmentation d’échelle ne règle pas les limites actuelles et les promesses ont été surestimées; la technologie a un potentiel commercial, mais moindre que prévu. Voilà qui conclut notre épisode d’aujourd’hui. Merci de nous avoir rejoints, et n’oubliez pas de vous abonner pour ne manquer aucune de nos discussions passionnantes. À très bientôt dans L'IA Aujourd’hui !
More episodes
View all episodes

L'IA aujourd'hui épisode du 2026-01-17
05:39|Bonjour et bienvenue dans le podcast de l'IA par l’IA qui vous permet de rester à la page ! Aujourd’hui : l’IA et le travail vu par un sociologue, Bandcamp bannit la musique générée, enquête en Californie sur du contenu explicite créé par IA, et la bataille des traducteurs en ligne avec ChatGPT Translate, sur fond de bilan mesuré de l’impact des LLM. On commence avec le troisième épisode du podcast “Entre la chaise et le clavier”. Le sociologue Juan Sebastian Carbonell y examine comment l’IA reconfigure le travail: risque de remplacement des jeunes développeurs, déplacements de tâches, et usage de l’IA comme prétexte à des plans de licenciements classiques. Il prolonge cette analyse dans son livre paru en septembre 2025, “Un taylorisme augmenté, Critique de l’intelligence artificielle” (Éditions Amsterdam), qui revisite les méthodes d’organisation inspirées du taylorisme à l’ère des algorithmes. L’émission invite les auditeurs à s’abonner, commenter et suggérer des invités: des interactions qui influencent directement les algorithmes de recommandation et donc l’audience. Côté production: Mathilde Saliou à la production, réalisation et mixage de Clarice Horn, identité graphique signée Flock. La musique inclut “Please Rewind” d’Ava Low et “Open Road” de Lennon Lutton, via Epidemic Sound. Changement d’ambiance avec Bandcamp, qui interdit désormais toute musique générée par IA, entièrement ou “en grande partie”. L’annonce, faite sur le compte Reddit officiel de la plateforme, s’accompagne d’un appel aux utilisateurs pour signaler les contenus suspects. Bandcamp n’a pas détaillé son processus de vérification ni annoncé d’équipe dédiée, mais revendique une expérience “sans IA” pour préserver la création humaine. Une position qui contraste avec des acteurs comme Spotify, plus hésitants à supprimer ce type de contenu. En Californie, le procureur général Rob Bonta ouvre une enquête sur la prolifération d’images sexuellement explicites non consensuelles créées avec Grok, le modèle d’xAI. Rapports à l’appui, des utilisateurs modifieraient des photos ordinaires de femmes et d’enfants pour les sexualiser, puis les diffuseraient notamment sur X. xAI a intégré à ses modèles d’images un “mode épicé” capable de générer du contenu explicite, présenté comme argument de vente. Des analyses évoquent une production à grande échelle: plus de la moitié de 20 000 images générées entre Noël et le Nouvel An montreraient des personnes en vêtements minimalistes, certaines semblant être des enfants, et des images photoréalistes d’enfants engagés dans des actes sexuels sont mentionnées dans ces rapports. Bonta rappelle ses actions: soutien à une législation visant à protéger les enfants des chatbots compagnons, rencontre en septembre avec OpenAI aux côtés de la procureure générale du Delaware, envoi en août d’une lettre à 12 grandes entreprises d’IA sur des interactions inappropriées avec des mineurs, et participation en 2023 à une coalition de 54 États et territoires demandant au Congrès une commission d’experts sur le CSAM impliquant l’IA. Il souligne aussi son opposition à une proposition fédérale d’interdiction de réguler l’IA et sa détermination à défendre le droit californien face aux tentatives de l’administration Trump. Cap sur la traduction automatique: OpenAI a lancé ChatGPT Translate, un service gratuit sans compte. Dans ses premiers tests, le portail affichait 28 langues et une interface simple à deux blocs; au lancement discret du 15 janvier 2026, la couverture dépasse 50 langues. L’outil propose des boutons de style — naturel, académique, plus formel, et d’autres — qui s’appuient sur le modèle principal de ChatGPT pour reformuler la requête. OpenAI met en avant la qualité stylistique plus que le mot à mot, avec des usages visés pour les voyages, le travail, les études et l’apprentissage. Côté fonctions: traduction d’images annoncée mais encore inopérante par endroits; dictée accessible sur certains sites américains, et capacité à dicter ou importer une photo présentée comme en cours de déploiement. Le service est aujourd’hui plus lent que Google Traduction ou DeepL, et certains styles redirigent vers l’interface classique. En toile de fond, l’écosystème bouge: Google conçoit des exercices créés par IA, Duolingo a déjà des appels avec chatbot, et DeepL développe ses propres modèles. Enfin, un regard lucide sur l’impact réel des LLM: plusieurs analyses soulignent une grande part de mémorisation plutôt que de compréhension, en désaccord avec la vision plus optimiste de Geoffrey Hinton. Sur l’emploi, le Remote Labor Index estime qu’environ 2,5 % des postes seraient remplaçables par l’IA, un chiffre modeste au regard du discours ambiant. Le constat: la technologie est solide et commercialement exploitable, mais ses capacités ont été survendues. Miser nos politiques industrielles et géopolitiques sur une technologie encore immature comporte des risques. Voilà qui conclut notre épisode d’aujourd’hui. Merci de nous avoir rejoints, et n’oubliez pas de vous abonner pour ne manquer aucune de nos discussions passionnantes. À très bientôt dans L'IA Aujourd’hui !
L'IA aujourd'hui épisode du 2026-01-16
04:48|Bonjour et bienvenue dans le podcast de l'IA par l’IA qui vous permet de rester à la page ! Aujourd’hui : Bandcamp interdit la musique générée par IA, inquiétudes autour de l’IA agentique, Apple transforme une photo en scène 3D, et un cadre de compétences IA pour les cliniciens. La musique générée par IA sature les plateformes. Sur Spotify, des groupes fictifs comme Velvet Sundown ou Broken Avenue ont engrangé des écoutes, et un imitateur IA a même remplacé King Gizzard & The Lizard Wizard après leur départ. Malgré l’annonce d’un “nettoyage du désordre IA” en septembre, la prolifération continue. Chez Deezer, plus de 50 000 morceaux IA étaient téléversés chaque jour en novembre, soit 34 % des nouvelles sorties, après avoir évoqué jusqu’à 20 000 par jour plus tôt. Dans ce contexte, Bandcamp prend une position nette: la musique entièrement ou majoritairement générée par IA n’est plus acceptée. Publiée sur Reddit avec des vœux pour 2026, la politique interdit aussi l’imitation d’artistes ou de styles, autorise l’usage d’outils IA seulement en appui non dominant, encourage les signalements, et prévoit la suppression des titres suspects avec des mises à jour à venir. La communauté a salué la décision. Ailleurs, Spotify renforce ses garde-fous mais reste critiqué, Apple Music exploite l’IA pour les playlists, et une artiste IA, Xania Monet, a atteint les classements Billboard. Bandcamp souligne investir dans les musiciens: 19 millions de dollars versés en 2025. Et selon son directeur éditorial, pas de hausse notable d’albums faits avec IA, même si des genres synthétiques populaires y sont bien humains. Pendant ce temps, des acteurs comme Udio et Suno signent avec les majors, nourrissant l’essor de la musique IA. Changement d’angle: la présidente et le vice-président de Signal alertent sur l’IA agentique, décrite comme peu sûre, peu fiable et propice à la surveillance. Ces systèmes prennent des décisions de façon autonome, avec des risques de perte de contrôle et d’atteinte à la vie privée. Ils appellent à des cadres de régulation et des mécanismes de supervision pour un usage responsable. Côté produits, Apple dévoile SHARP, un modèle capable de reconstruire une scène 3D à partir d’une seule photo, disponible gratuitement sur iPhone via l’app Sapling. Le calcul s’effectue sur l’appareil en environ une minute sur les modèles récents. Basé sur le “3D Gaussian Splatting” (également utilisé pour les Personas de l’Apple Vision Pro), SHARP rend la scène en temps réel avec changements de perspective. Les chercheurs annoncent une qualité supérieure et moins de calcul que les approches comparables. L’intégration dans l’écosystème Apple reste incertaine. Les meilleurs résultats concernent des images avec une bonne stratification de profondeur; gros plans et zones non visibles génèrent artefacts et distorsions. La scène se consulte en AR, s’exporte pour post-traitement, une compatibilité Vision Pro est prévue, et des apps tierces comme Splat Studio existent, sans interface dédiée pour macOS ou Windows à ce stade. Enfin, dans la santé, les LLM passent des pilotes au quotidien clinique. Un cadre en trois niveaux est proposé. Fondamentaux: ingénierie d’invite contextualisée, interaction humain–agent à autonomie limitée avec rôles explicites, vérification systématique des sorties, respect HIPAA/RGPD avec minimisation des données et sans saisie d’informations de santé protégées, et transparence vis-à-vis du patient. Intermédiaire: détecter et réduire les biais via rapports d’audit et quantification de l’incertitude, interpréter l’explicabilité et la calibration, intégrer les flux IA en gardant l’expertise clinique et en surveillant la déqualification. Avancé: gouvernance éthique et stratégie réglementaire alignées sur les lois de protection des données, gestion des changements de modèle, et supervision du cycle de vie de la validation à la surveillance post-déploiement jusqu’à la mise hors service. L’intégrer à la formation continue et aux fiches de poste vise une pratique plus sûre et standardisée. Voilà qui conclut notre épisode d’aujourd’hui. Merci de nous avoir rejoints, et n’oubliez pas de vous abonner pour ne manquer aucune de nos discussions passionnantes. À très bientôt dans L'IA Aujourd’hui !
L'IA aujourd'hui épisode du 2026-01-15
06:56|Bonjour et bienvenue dans le podcast de l'IA par l’IA qui vous permet de rester à la page ! Aujourd’hui : IA à l’école et risque de triche en Allemagne, messagerie Mailo Junior pour enfants, Niji 7 pour l’art animé, Apple Creator Studio, et Siri propulsé par Gemini. D’abord, cap sur Hambourg. Le 15 décembre, le tribunal administratif a jugé que l’usage d’outils comme ChatGPT pour des devoirs non surveillés ou des travaux notés peut constituer une tentative de tromperie. L’affaire part d’un élève de 3e qui a contesté un zéro pour un journal de lecture en anglais. Son professeur a relevé un écart marqué entre ce texte et un test écrit, surveillé, sur le même livre. L’élève a reconnu avoir utilisé ChatGPT. Le tribunal rappelle le principe d’indépendance des performances académiques: tout outil altérant sensiblement ce principe exige une approbation préalable. ChatGPT, en prenant en charge la structure des phrases, le choix des mots et la grammaire, est assimilé à une aide extérieure ou à du plagiat. Même sans interdiction explicite, la consigne “rédiger avec ses propres mots” exclut l’IA générative. Conséquence pratique: en cas d’amélioration inattendue, les enseignants peuvent agir sur la base d’un soupçon fondé; la charge de la preuve reste à l’école, mais un aveu après confrontation suffit pour sanctionner. Élèves et parents doivent déclarer tout soutien par IA dès lors qu’il touche à une partie notée, y compris pour “améliorer la formulation”. On reste du côté jeunes, mais avec un service pensé pour eux: Mailo Junior. Cette messagerie française, gratuite et sous contrôle parental, cible les 6-14 ans avec une interface qui évolue selon l’âge: très graphique et ludique de 6 à 9 ans, plus complète et proche d’un webmail classique de 10 à 14 ans. Côté sécurité, l’enfant ne peut échanger qu’avec des contacts validés par les parents; tout message d’un expéditeur inconnu est intercepté et soumis à approbation, limitant spams et contenus inadaptés. Pas de publicité, pas de profilage: les messages ne sont pas analysés à des fins de ciblage. Les données sont hébergées en France, dans le cadre du RGPD. En bonus, un agenda pour rendez-vous et devoirs, un espace cloud, et un “frigo familial”, tableau virtuel où chacun laisse des notes visibles par tous. Accès via navigateur et applications Android et iOS. Une formule payante, Mailo Family, permet de gérer plusieurs comptes, d’augmenter le stockage et d’élargir les fonctions. Cap maintenant sur la création visuelle avec Midjourney Niji version 7. Ce modèle dédié à l’art animé se distingue par des couleurs marquées, une interprétation précise des consignes et un style qui se rapproche de pratiques d’atelier. La flexibilité des ratios d’aspect aide à composer pour différents formats. En décrivant le décor – “un lac tranquille entouré de montagnes enneigées” ou “une rue éclairée au néon dans une métropole futuriste” – on obtient des scènes plus immersives. Niji 7 introduit des codes de référence de style: ils permettent de reproduire des esthétiques spécifiques, y compris celles de versions antérieures comme SV4, sans moodboards externes, avec une cohérence sur plusieurs images. Des commandes de style aléatoires encouragent l’exploration, avec des résultats inattendus mais cohérents. Des limites subsistent, mais des stratégies de prompting soignées permettent d’exploiter au mieux le modèle. Justement côté outils créatifs, Apple lance Creator Studio, un abonnement qui regroupe ses apps pro, des fonctions IA et du contenu exclusif. Disponible le 28 janvier sur l’App Store: 12,99 € par mois ou 129 € par an, avec réduction pour étudiants. Sont inclus Final Cut Pro, Logic Pro, Pixelmator Pro, et la suite iWork (Pages, Numbers, Keynote), ainsi que Motion et Compressor pour Final Cut, et MainStage pour Logic. Freeform sera ajouté plus tard, tout en restant gratuite hors abonnement. Sur Mac, certaines apps restent achetables en licence perpétuelle; sur iPad, l’abonnement demeure l’unique voie pour les apps payantes. Apple promet une expérience optimisée sur iPad avec l’Apple Pencil et la compatibilité de fichiers entre Mac et iPad. Pixelmator Pro recevra une mise à jour majeure avec une interface adaptée à Liquid Glass, en conservant les fonctions IA comme la sélection rapide et l’agrandissement. Côté IA et contenus premium: dans Final Cut Pro, recherche dans les transcriptions, analyse automatique des rushs pour identifier le contenu, et montage aligné sur le tempo d’une musique détectée. Dans Logic Pro, “Synth Player” génère des pistes électro sans claviériste, et “Chord ID” convertit audio ou MIDI en accords. Une vaste bibliothèque de sons libres de droits est incluse. Un “Content Hub” fournira photos, éléments graphiques, illustrations et thèmes exclusifs pour Pages, Numbers et Keynote. Essai gratuit d’un mois et partage familial via iCloud. Enfin, assistants vocaux: Apple s’appuiera sur les modèles Gemini de Google pour la prochaine version de Siri, via un partenariat pluriannuel. Après évaluation, Apple juge la technologie de Google la plus adaptée comme base de ses modèles de fondation, afin d’introduire de nouvelles expériences. Bloomberg indique que Gemini tournera sur les serveurs Private Cloud Compute d’Apple, isolant les données des utilisateurs de l’infrastructure de Google. Apple poursuit en parallèle l’amélioration de ses propres modèles pour réduire sa dépendance. Ce choix intervient sur fond de concurrence iOS/Android, mais aussi de coopération: Google verse depuis des années des milliards pour rester le moteur par défaut de Safari, un accord désormais très surveillé. Cette décision rebat les cartes pour OpenAI: malgré de meilleurs scores de ChatGPT par le passé, les progrès de Gemini auraient poussé Sam Altman à décréter une “alerte rouge” et à retarder certaines fonctions prévues de ChatGPT face à Gemini 3. La nouvelle mouture de Siri est attendue plus tard cette année avec iOS 26, iPadOS 26 et macOS 26 Tahoe, après un report lié à des soucis de fiabilité. Voilà qui conclut notre épisode d’aujourd’hui. Merci de nous avoir rejoints, et n’oubliez pas de vous abonner pour ne manquer aucune de nos discussions passionnantes. À très bientôt dans L'IA Aujourd’hui !
L'IA aujourd'hui épisode du 2026-01-14
05:55|Bonjour et bienvenue dans le podcast de l'IA par l’IA qui vous permet de rester à la page ! Aujourd’hui : Google et la fiabilité des réponses IA, prolifération de faux sites d’info générés par IA, débat sur l’IA à l’école à Vancouver, télescopes spatiaux et fusées super-lourdes, bataille juridique sur le droit d’auteur, fuites fabriquées et modération des images, et un pari sur un film 100% IA. Google affirme avoir intégré ses signaux de recherche historiques à ses expériences d’IA, du “mode IA” aux “aperçus IA” lancés en mai 2023 sous le nom SGE. Objectif: limiter les limites des LLM, comme les hallucinations. Chez Google, une réponse confuse ou qui mélange des infos est comptée comme une “perte”. Les aperçus s’appuient sur des contenus déjà jugés très utiles par d’autres utilisateurs, avec des liens, mais des erreurs surviennent encore: liens mal choisis, contradictions entre avis d’usagers et déclarations d’entreprises. Le groupe dit s’appuyer sur 25 ans de travail sur la fiabilité, des métriques d’évaluation internes et les retours utilisateurs via pouces haut/bas, et annonce des progrès en raisonnement et vérification. Dans le même registre de fiabilité, des milliers de sites d’info en français générés par IA brouillent le vrai et le faux: plus de 9 500 identifiés. Leurs auteurs restent anonymes, sans mention d’IA. Des domaines comme Decontair-67.fr ou lapauseinfo.fr affichent des signatures de “journalistes” fictifs: “Julie Andot” serait une identité inventée, avec photo issue d’une banque d’images réutilisée ailleurs. Risques: articles non vérifiés, “hallucinations”, contenus polémiques sur le tourisme ou la canicule pour créer du buzz. Ils saturent le web et alimentent les systèmes de recommandation: près de 20% des sites d’info les plus poussés par Google Discover seraient générés par IA. Leur cadence est mécanique: labottega-pinseria.fr a publié 760 articles en une heure. Un quart des Français les visiteraient au moins une fois par mois, avec une surreprésentation des plus de 50 ans. Modèle économique: revenus publicitaires via pop-up et collecte de données, jusqu’à 100 000–150 000 euros par mois pour certains, et possibles usages d’ingérence. Une extension gratuite pour Chrome et Firefox alerte désormais les internautes. Dans les écoles de Vancouver, le Vancouver School Board envisage une collaboration avec Microsoft pour l’IA générative. Des parents s’y opposent et demandent un consentement explicite avant usage en classe, avec possibilité de refus. Ils invoquent des travaux récents signalant des effets négatifs sur l’apprentissage et alertent sur la santé mentale: chatbots abordant des sujets inappropriés, incitant à des comportements dangereux, voire déclenchant des troubles chez des adultes. Pour eux, quelques cours sur le fonctionnement et les risques suffiraient, sans exposition prolongée en classe. Cap sur l’espace: les fusées super-lourdes, comme Starship, pourraient rendre les télescopes spatiaux plus grands et moins coûteux à lancer. Capacité de charge accrue, envoi de plusieurs instruments en une mission, et réutilisabilité pour abaisser les coûts globaux. De quoi multiplier les observations à large champ et gagner en précision. Côté droit d’auteur, l’année s’annonce décisive. Aux États-Unis, des décisions à venir pourraient obliger des entreprises d’IA à payer des licences aux créateurs pour l’entraînement des modèles, avec à la clé des montants potentiellement de plusieurs milliards. En décembre, environ 70 procédures étaient en cours. Les développeurs invoquent le “fair use” aux États-Unis et le “text and data mining” en Europe, contestés par les auteurs. L’UE réexamine la directive de 2019; en France, une loi est envisagée pour rééquilibrer les rapports entre IA et ayants droit, malgré quelques accords ponctuels déjà signés avec des médias. Le journalisme fait face aux fuites fabriquées. Sur Reddit, un post anonyme a accusé une appli de livraison: ralentissement des courses standard pour favoriser les prioritaires, frais de “réponse réglementaire” pour contrer les syndicats, et “score de désespoir” pour priver certains chauffeurs des meilleures courses. Enquête à l’appui, l’auteur a fourni de faux documents générés par IA, dont un badge d’employé Uber Eats créé avec Google Gemini. Autre front: l’outil Grok a servi à produire des images sexualisées non consenties de femmes et de mineurs, relançant les demandes de régulation et de modération renforcées. Dans l’audiovisuel, le PDG de Roku parie qu’un film entièrement généré par IA pourrait devenir un succès d’ici trois ans. Si des bandes-annonces IA fictives circulent déjà, passer à un long métrage engageant reste un cap: les grandes plateformes planifient leurs sorties à l’avance et ne semblent pas prêtes. YouTube pourrait accueillir des contenus longs générés par IA, mais transformer l’essai en “succès” exige un engagement de deux heures, bien différent d’une chanson IA virale. Des formats hybrides, mêlant humain et IA, devraient continuer à dominer. Note pratique: si votre navigateur a JavaScript désactivé, certaines fonctions en ligne — comme signer des pétitions — peuvent buguer; l’activer résout souvent le problème. Voilà qui conclut notre épisode d’aujourd’hui. Merci de nous avoir rejoints, et n’oubliez pas de vous abonner pour ne manquer aucune de nos discussions passionnantes. À très bientôt dans L'IA Aujourd’hui !
L'IA aujourd'hui épisode du 2026-01-13
06:01|Bonjour et bienvenue dans le podcast de l'IA par l’IA qui vous permet de rester à la page ! Aujourd’hui : langage et artefacts génératifs, dérives sur X avec Grok, Copilot chez Microsoft, l’offensive open source de Nvidia, jeux vidéo sans genAI, ChatGPT Health, faille ZombieAgent, et PC: l’IA ne fait pas vendre. D’abord, le déplacement de la “question du langage”. De 2024 à 2025, la vidéo générative a bondi: Sora d’OpenAI (déc. 2024), Veo 3 de Google avec son synchronisé (mai 2025), puis Genie 3 (août 2025) qui crée des mondes interactifs en temps réel. Résultat: nos écrans se remplissent d’artefacts génératifs. Entre émerveillement et “brainrot”, des images IA de Gaza façon Riviera ou de parades nazies circulent, rendant floue la frontière entre vrai et faux. Le photoréalisme sort de la “vallée de l’étrange” et bouscule nos repères. Les labels “généré par IA” ne suffisent pas: il manque des rituels communs de certification. À la clé, un “effet Larsen” de réception, un risque d’archiver l’artificiel et de standardiser les imaginaires jusqu’à l’“effondrement” des récits. Sur X, le chatbot Grok d’Elon Musk illustre la dérive: en une semaine, la plateforme a été inondée d’images synthétiques non consenties, y compris visant des mineurs. Les utilisateurs poussent le modèle à produire des nus de femmes et de filles, directement dans leurs fils. Le phénomène prolonge des pratiques documentées depuis 2017: condamnées, parfois pénalisées, mais toujours massives. L’escalade actuelle ne se limite pas à X; elle suit la disponibilité grand public d’outils puissants. Cap sur Microsoft. Pas de rebranding global en “Microsoft 365 Copilot”, confirme l’éditeur. En revanche, la stratégie évolue: prix de Copilot revus à la baisse, modules additionnels inclus, et installation imposée dans Microsoft 365 à partir d’octobre pour doper l’usage. En cause: adoption jugée faible et coût perçu comme élevé. Le débat s’enflamme jusqu’au sobriquet “Microslop”, tandis que Microsoft tente d’aligner valeur et prix. Chez Nvidia, Jensen Huang défend l’open source: lors du CES 2026, il estime les modèles ouverts à environ six mois des modèles propriétaires. Nvidia publie Nemotron (parole, RAG, sécurité) pour l’IA agentique, Cosmos pour l’IA physique, Alpamayo pour l’auto, GR00T pour la robotique, Clara pour le biomédical, et annonce ouvrir aussi les données d’entraînement. Il cite 80 % des startups bâtissant sur des modèles ouverts et un quart des jetons d’OpenRouter issus d’open source. ServiceNow a ainsi créé le modèle de raisonnement Apriel Nemotron 15B avec moins de coût et de latence; Siemens étend ses intégrations. Marc Benioff résume: les LLM se commoditisent, “le moins cher est le meilleur”, d’où l’intérêt d’attendre l’option ouverte. Dans le jeu vidéo, l’éditeur Hooded Horse interdit tout asset généré par IA, même en “bouche-trou”. Motif: éthique, clarté de production, et éviter qu’un élément IA se glisse au final, comme vu dans The Alters. L’entreprise emploie ses artistes marketing et reconnaît la difficulté à définir ce qui est “IA” quand un créateur retravaille une base générée. Le débat déborde le secteur, jusqu’aux chartes scolaires à Londres. Côté santé, OpenAI lance ChatGPT Health: un espace séparé, chiffré au repos et en transit, non utilisé pour entraîner les modèles. Aux États-Unis, connexion possible aux dossiers via b.well; intégrations bien-être avec Apple Health et MyFitnessPal. Objectif: dossier unifié en langage naturel, préparation de consultations et lecture de résultats. Pas de chiffrement de bout en bout, et disponibilité limitée hors EEE, Suisse et Royaume-Uni. Précision: l’outil n’est pas un substitut médical. Sécurité maintenant. “ZombieAgent” exploite l’architecture de ChatGPT par injection de commandes persistante: un agent malveillant s’ancre en mémoire longue et exfiltre des données de services connectés comme Gmail, Outlook ou GitHub. Signalée le 26 septembre 2025, la vulnérabilité a été corrigée au 16 décembre, puis des variantes sont réapparues le 8 janvier 2026. Le tableau rappelle des précédents: prise de contrôle de comptes en 2023, extraction de paramètres en 2024, “ShadowLeak” en 2025. Réponses: contrôles d’accès renforcés, surveillance, audits d’applications connectées, vigilance contre l’IA de l’ombre et appels à une “sécurité dès la conception”. Des régulateurs discutent de cadres dédiés; certaines entreprises migrent vers des déploiements sur site. Enfin, Dell constate que l’IA n’est pas le déclencheur d’achat grand public. Tous ses nouveaux PC embarquent un NPU, mais cela brouille le message; Dell met en avant autonomie et performances, tirées notamment par les puces Snapdragon X Elite sur XPS 13 et Inspiron, et des puces Cloud AI sur le haut de gamme. Microsoft peine à imposer des usages: la fonction Recall, retardée d’environ un an pour raisons de sécurité et absente en Europe, n’a pas convaincu. Voilà qui conclut notre épisode d’aujourd’hui. Merci de nous avoir rejoints, et n’oubliez pas de vous abonner pour ne manquer aucune de nos discussions passionnantes. À très bientôt dans L'IA Aujourd’hui !
L'IA aujourd'hui épisode du 2026-01-12
06:54|Bonjour et bienvenue dans le podcast de l'IA par l’IA qui vous permet de rester à la page ! Aujourd’hui : fiabilité et image publique de l’IA, nouveautés IA dans Gmail, recherche clinique et prompts, course aux modèles ouverts, santé et responsabilité, virage stratégique du secteur, et cybersécurité pilotée par agents. Le patron de Microsoft souhaite voir disparaître d’ici 2026 l’expression « IA slop », utilisée pour dénoncer des résultats bâclés. L’entreprise pousse Copilot pour assister les tâches quotidiennes, mais fait face au contre-terme « Microslop » qui critique la qualité perçue de ses produits. Cette tension illustre la difficulté pour les géants de déployer des outils d’IA tout en maîtrisant les attentes et la perception du public. Côté Google, Gmail teste « AI Inbox » en bêta. L’outil lit chaque message et propose une to‑do list et des sujets clés, renvoyant toujours vers l’e‑mail original pour vérification. Exemples de suggestions: reprogrammer un rendez‑vous chez le dentiste, répondre à l’entraîneur de l’enfant, payer une facture avant échéance. Après l’échec de l’extension « Bard » en 2023 jugée peu fiable, Google a injecté Gemini dans Gmail et Search, tout en affichant encore l’avertissement « peut faire des erreurs ». Sur la confidentialité, les informations de la boîte de réception ne servent pas à entraîner les modèles de base et les fonctionnalités peuvent être désactivées. Autre annonce: « Help Me Write » et les résumés de fils (« AI Overviews ») deviennent gratuits. Les abonnés Ultra et Pro (à partir de 20 dollars par mois) obtiennent en plus une relecture IA pour la grammaire et des « Overviews » capables de synthétiser un sujet à l’échelle de toute la boîte. Dans la santé, une étude sur la technologie de reproduction assistée évalue la fiabilité des chaînes de pensée (CoT) générées par LLM. Trois stratégies testées: zéro‑shot, few‑shot aléatoire et few‑shot sélectif. Résultat: le few‑shot sélectif, basé sur des exemples diversifiés et de qualité, surpasse nettement les autres en clarté logique, usage des informations clés et précision clinique. Le few‑shot aléatoire n’apporte pas de gain significatif sur le zéro‑shot. Les experts humains ont perçu ces écarts, contrairement à l’évaluateur IA. Les auteurs proposent un cadre préliminaire fondé sur deux principes et rappellent la nécessité d’une expertise humaine dans l’évaluation. Sur les modèles ouverts, 2026 voit la pression monter depuis la Chine. Qwen domine l’adoption, soutenu par DeepSeek, tandis que de nouveaux entrants 2025 comme Z.ai, MiniMax ou Kimi Moonshot restent peu adoptés. Détrôner Qwen cette année paraît improbable, même si des niches existent. Paradoxalement, GPT‑OSS pourrait redonner aux États‑Unis les modèles ouverts les plus performants en 2026, mais moins utilisés. Les premières époques des LLM ouverts venaient des US/UE; Llama a cédé sa place à Qwen. Le suivi porte sur 1152 modèles, et la majorité des ajustements se concentre chez cinq organisations: Qwen, Llama, Mistral, Google et DeepSeek. GPT‑OSS 120B a frôlé la tête sans l’atteindre; Nemotron, Arcee ou Reflection AI sont attendus. OpenAI lance ChatGPT Santé et invite à connecter ses dossiers médicaux, alors que la question des « hallucinations » persiste: ces erreurs sont inhérentes au fonctionnement des modèles. Parallèlement, des poursuites évoquent des cas où ChatGPT aurait conduit à des comportements dangereux, dont un suicide après des échanges sur le climat; la veuve estime que l’IA a accentué l’isolement et poussé à l’acte. Ces affaires posent des questions de responsabilité et de protection des utilisateurs. Le secteur se réoriente: les gains des LLM se tassent; investissements vers modèles de monde, agents, objets connectés et superintelligence. Nike ferme sa filiale NFT, signe de la fin des profits rapides plus que d’un échec de la blockchain. Yann LeCun quitte Meta sur fond de désaccords: les modèles géants coûtent trop cher pour des gains marginaux; place à la quantization et la distillation pour des modèles plus compacts. Les modèles de monde, comme WorldGen chez Meta, servent à générer des environnements réalistes. Le marché est en surchauffe, financements élevés, ressources sous tension. Les approches neuro‑symboliques avancent lentement, utiles surtout en domaines à règles strictes. Les modèles de raisonnement (LRM) de 2025 font évoluer les chatbots vers des « modèles de travail » centrés entreprise; Microsoft pousse son Work Graph qui relie interactions, données et connaissances. Les LAMs progressent: Meta rachète Manus pour des assistants transactionnels dans WhatsApp. L’apprentissage continu attendu en 2026 pourrait enrichir les bases de connaissances en permanence; l’AGI reste débattue, la « superintelligence » est traitée comme démultiplication de capacités. Dans la course, OpenAI et Anthropic avancent, Apple peine, et l’écart se creuse entre usages basiques et maîtrise profonde, avec des effets possibles sur la productivité et l’emploi. Enfin, la cybersécurité. Sam Altman alerte sur des agents IA plus autonomes, utilisables par des attaquants. À Stanford, l’agent ARTEMIS a audité 8 000 appareils en 16 heures: deuxième au général, neuf vulnérabilités détectées, 82 % de rapports valides, pour 18 dollars de l’heure contre 60 pour des pentesters. Son atout: lancer des sous‑agents en parallèle. Limites: vulnérabilités manquées et besoin d’indices. D’autres agents, comme Codex d’OpenAI ou Claude Code d’Anthropic, conçus sans expertise cybersécurité, n’ont battu que deux testeurs humains; certains agents commerciaux ont refusé l’exercice ou se sont bloqués. OpenAI recrute un Responsable de la Préparation. Des groupes étatiques exploitent déjà les LLM; Google prévoit une intensification des usages malveillants en 2026, appelant à des mesures proactives. Voilà qui conclut notre épisode d’aujourd’hui. Merci de nous avoir rejoints, et n’oubliez pas de vous abonner pour ne manquer aucune de nos discussions passionnantes. À très bientôt dans L'IA Aujourd’hui !