Partager

L'IA aujourd'hui !
L'IA aujourd'hui épisode du 2025-03-23
•
Bonjour et bienvenue dans le podcast de l'IA par l’IA qui vous permet de rester à la page ! Aujourd’hui : nouvelles avancées de Gemini 2.0 Flash, réflexions sur l'avenir des LLM, défis de la GenAI, retour sur AI Dev 25, et enjeux de la transparence des données. C’est parti !
Commençons par Gemini 2.0 Flash, une avancée majeure dans la génération d'images par IA. Désormais disponible pour les développeurs via Google AI Studio, ce modèle combine texte et images pour créer des récits illustrés cohérents. Il permet également l'édition d'images par dialogue naturel et se distingue par sa capacité à rendre du texte de manière lisible, un défi pour de nombreux modèles. Cette innovation ouvre de nouvelles perspectives pour les applications visuelles et interactives.
Passons maintenant aux réflexions de Nicholas Carlini sur l'avenir des grands modèles de langage (LLM). Il envisage deux scénarios : une amélioration exponentielle des LLM, surpassant les experts humains, ou une progression plus lente. Carlini souligne l'importance de rester humble face aux incertitudes technologiques et de définir des critères clairs pour évaluer les capacités des LLM. Il réfute également certaines critiques, affirmant que les limitations actuelles des LLM ne sont pas insurmontables.
En parlant de défis, la GenAI complique la distinction entre contenus humains et générés par IA. Les outils de détection, bien qu'améliorés, ne sont pas infaillibles et peuvent confondre des textes humains avec ceux générés par IA, surtout pour les non-natifs. La transparence est cruciale, et une extension de navigateur a été développée pour alerter les utilisateurs sur les sites potentiellement générés par IA. Cependant, des erreurs persistent, soulignant la nécessité de méthodes de vérification plus robustes.
Revenons sur AI Dev 25, une conférence dédiée aux développeurs en IA. Cet événement a rassemblé des passionnés du monde entier pour échanger sur les dernières innovations. Les participants ont apprécié le caractère technique des sessions, et l'événement a mis en avant l'importance d'un forum neutre pour les développeurs. Malgré la limitation de l'espace, l'enthousiasme était palpable, et l'événement a été un succès.
Enfin, abordons la question de la transparence des données d'entraînement des modèles d'IA. L'Initiative de Provenance des Données, menée par des chercheurs du MIT, vise à améliorer la documentation des ensembles de données utilisés pour l'IA. Cette initiative aide à retracer l'origine des données, réduisant ainsi les risques juridiques et de biais. Des outils ont été développés pour faciliter la sélection de données appropriées, contribuant à une utilisation plus responsable des données.
Voilà qui conclut notre épisode d’aujourd’hui. Merci de nous avoir rejoints, et n’oubliez pas de vous abonner pour ne manquer aucune de nos discussions passionnantes. À très bientôt dans L'IA Aujourd’hui !
More episodes
View all episodes
L'IA aujourd'hui épisode du 2025-04-04
03:12|Bonjour et bienvenue dans le podcast de l'IA par l’IA qui vous permet de rester à la page ! Aujourd’hui : l'IA en cybersécurité, les biais dans les modèles de langage, les défis du droit d'auteur, les avancées en vidéo générée par IA, et l'avenir du codage. C’est parti ! Commençons par la cybersécurité. Microsoft a récemment utilisé son assistant IA, Security Copilot, pour identifier une vingtaine de vulnérabilités critiques dans les bootloaders GRUB2, U-Boot et Barebox. Ces programmes, essentiels au démarrage des ordinateurs, sont vulnérables à des attaques permettant de contourner le Secure Boot et d'installer des bootkits indétectables. Grâce à l'IA, ces failles ont été découvertes en une semaine, un gain de temps considérable par rapport à une analyse manuelle. Des correctifs ont été publiés, soulignant l'importance de mettre à jour les systèmes pour éviter des compromissions durables. Passons maintenant à l'étude menée par Shauli Ravfogel et son équipe sur les biais dans les modèles de langage. Ils ont développé une méthode pour rendre visibles les schémas cachés dans les représentations internes des modèles, en traduisant ces interventions en texte naturel. Leur recherche a montré comment le genre influence subtilement la génération de langage, et a démontré que l'ajout de contre-factuels de genre aux données d'entraînement peut réduire les biais sans sacrifier la précision. En parlant de données, OpenAI est accusé d'avoir utilisé des livres d'O'Reilly Media sans licence pour entraîner son modèle GPT-4o. Cette situation soulève des questions sur l'utilisation de contenus protégés par le droit d'auteur pour l'entraînement des modèles d'IA. Le débat se poursuit sur la nécessité de respecter ces lois tout en permettant l'innovation technologique. Dans le domaine de la vidéo générée par IA, Runway a annoncé son modèle Gen-4, qui améliore la continuité et le contrôle dans la narration visuelle. Ce modèle permet de créer des personnages et des objets cohérents à travers différentes prises, résolvant ainsi un problème courant dans les vidéos générées par IA. Cependant, des préoccupations subsistent quant à l'utilisation de contenus protégés pour l'entraînement de ces modèles. Enfin, Kevin Scott, directeur technique de Microsoft, a prédit que d'ici cinq ans, 95 % du code sera généré par l'IA. Bien que cela soulève des questions sur l'avenir de l'apprentissage du codage, l'aspect créatif du développement logiciel restera une compétence humaine essentielle. L'IA a encore des limitations, notamment dans la compréhension et l'adaptation du code à des contextes spécifiques, ce qui souligne l'importance de la supervision humaine pour garantir la qualité et la sécurité des logiciels. Voilà qui conclut notre épisode d’aujourd’hui. Merci de nous avoir rejoints, et n’oubliez pas de vous abonner pour ne manquer aucune de nos discussions passionnantes. À très bientôt dans L'IA Aujourd’hui !L'IA aujourd'hui épisode du 2025-04-03
03:05|Bonjour et bienvenue dans le podcast de l'IA par l’IA qui vous permet de rester à la page ! Aujourd’hui : les collaborations inattendues dans le monde de l'IA, les avancées en génération d'images et les défis de l'intégration de l'IA dans l'éducation. C’est parti ! Commençons par une collaboration surprenante entre OpenAI et Anthropic. Malgré leurs divergences passées, ces deux géants de l'IA se sont unis autour d'un défi technique : connecter leurs modèles à des sources de données externes. Anthropic a développé le Model Context Protocol, ou MCP, une spécification ouverte qui standardise cette connexion, un peu comme l'USB-C pour les appareils électroniques. MCP permet aux modèles d'accéder facilement à des bases de données ou moteurs de recherche, simplifiant ainsi les intégrations et réduisant la dépendance aux fournisseurs. Microsoft et OpenAI ont déjà adopté ce protocole, marquant un pas vers une collaboration interplateforme plus large. Passons maintenant à OpenAI, qui a récemment relancé son générateur d'images intégré à ChatGPT, désormais alimenté par GPT-4o. Ce nouvel outil a suscité un vif intérêt, mais aussi des frustrations. En raison de la surcharge des serveurs, OpenAI a dû limiter l'accès aux utilisateurs non abonnés, provoquant la colère des abonnés payants qui s'attendaient à une expérience plus fluide. Cette situation met en lumière les défis d'équilibrer l'accès aux innovations tout en maintenant la satisfaction des clients. Dans le domaine de l'éducation, une conférence à la NEOMA Business School a réuni enseignants et journalistes pour discuter de l'intégration de l'IA générative dans les classes préparatoires. Près de 80 % des élèves utilisent déjà ces outils, mais seulement 44 % des enseignants y ont recours, créant un fossé d'usage. Les discussions ont porté sur l'authenticité des devoirs et l'égalité d'accès aux outils. Les enseignants ont partagé des expériences concrètes, comme l'utilisation de ChatGPT pour la relecture ou l'analyse de données financières. L'objectif est de former des esprits capables de collaborer avec les machines, tout en évitant les usages dangereux de l'IA en classe. Enfin, une étude récente explore les similitudes entre l'activité neuronale humaine et les modèles de langage de grande taille. Des chercheurs ont découvert que les représentations internes de modèles comme Whisper s'alignent avec l'activité neuronale lors de conversations naturelles. Cette recherche, menée par Google Research et plusieurs universités, montre comment les modèles d'IA peuvent servir de cadre pour comprendre le traitement du langage par le cerveau humain. Voilà qui conclut notre épisode d’aujourd’hui. Merci de nous avoir rejoints, et n’oubliez pas de vous abonner pour ne manquer aucune de nos discussions passionnantes. À très bientôt dans L'IA Aujourd’hui !L'IA aujourd'hui épisode du 2025-04-02
03:22|Bonjour et bienvenue dans le podcast de l'IA par l’IA qui vous permet de rester à la page ! Aujourd’hui : avancées en IA générative, défis juridiques et innovations en vidéo. C’est parti ! Commençons par Google, qui a récemment dévoilé Gemini 2.5, un modèle d'intelligence artificielle de nouvelle génération. Présenté comme le plus intelligent de Google à ce jour, Gemini 2.5 utilise une puissance de calcul accrue pour vérifier les faits et résoudre des problèmes complexes, notamment en mathématiques et en codage. Bien qu'il ait surpassé plusieurs modèles concurrents dans des tests de référence, il a été moins performant que le modèle Claude 3.7 Sonnet d'Anthropic dans le développement logiciel. Ce modèle peut traiter environ 750 000 mots simultanément, avec des plans pour doubler cette capacité. Passons maintenant à OpenAI, qui a intégré une nouvelle fonctionnalité de génération d'images dans ChatGPT, alimentée par GPT-4o. Cette fonctionnalité permet de générer des images directement dans le chat, améliorant la cohérence des relations entre objets et le rendu du texte. Bien que le temps de génération soit plus long, OpenAI estime que la qualité justifie l'attente. Cependant, la popularité de la génération d'images dans le style Ghibli a conduit à des limitations temporaires pour éviter de surcharger les serveurs. Tencent a lancé son modèle d'IA Hunyuan T1, qui a obtenu 87,2 points sur le benchmark MMLU Pro, surpassant DeepSeek-R1 mais restant derrière le modèle o1 d'OpenAI. Le T1 a également bien performé dans d'autres évaluations, notamment l'AIME 2024. En termes de tarification, le T1 est compétitif, facturant 1 yuan par million de tokens d'entrée et 4 yuans par million de tokens de sortie. Sur le plan juridique, un juge fédéral a autorisé une poursuite pour violation du droit d'auteur par le New York Times contre OpenAI. Le journal accuse OpenAI d'avoir utilisé son contenu sans autorisation pour entraîner ChatGPT. OpenAI se défend en invoquant l'usage équitable, mais l'affaire pourrait avoir des implications significatives pour l'industrie de l'information. Runway a lancé Gen-4, un modèle d'IA pour la génération de vidéos, qui améliore la cohérence des personnages et des objets à travers les scènes. Gen-4 utilise des références visuelles et textuelles pour maintenir la cohérence des styles, permettant de créer des vidéos dynamiques avec des mouvements réalistes. Enfin, Google Workspace a annoncé des mises à jour pour mars 2025, intégrant l'IA pour améliorer les réunions et la création de vidéos. Google Meet propose désormais des notes de réunion automatiques et des transcriptions liées, tandis que Google Vids facilite la création de vidéos avec des voix off générées par l'IA. La fonctionnalité "Traduire pour moi" dans Chat permet une communication fluide entre équipes multilingues. Voilà qui conclut notre épisode d’aujourd’hui. Merci de nous avoir rejoints, et n’oubliez pas de vous abonner pour ne manquer aucune de nos discussions passionnantes. À très bientôt dans L'IA Aujourd’hui !L'IA aujourd'hui épisode du 2025-04-01
03:00|Bonjour et bienvenue dans le podcast de l'IA par l’IA qui vous permet de rester à la page ! Aujourd’hui : le raisonnement des modèles de langage, la préservation numérique, l'auto-amélioration des IA, Nvidia Dynamo, et les défis d'OpenAI. C’est parti ! Commençons par les modèles de langage de grande taille, ou LLMs, qui franchissent une nouvelle étape avec le raisonnement. Traditionnellement basés sur la reconnaissance de motifs, ces modèles s'attaquent désormais à des tâches complexes comme les énigmes logiques. Des outils innovants, tels que les graphes d'attribution, permettent de mieux comprendre leurs mécanismes internes, souvent comparés à des boîtes noires. Ces avancées révèlent des stratégies sophistiquées, mais restent limitées, ne couvrant qu'une fraction des mécanismes des modèles. Passons à la Digital Preservation Coalition, qui a lancé la troisième édition de son modèle d'évaluation rapide en plusieurs langues, dont le français. Cet outil aide les organisations à évaluer leurs capacités de préservation numérique. La DPC, en tant que fondation internationale, s'engage à garantir un accès durable aux contenus numériques, soulignant l'importance de la traduction pour soutenir la communauté mondiale. Ensuite, découvrons Ebiose, une startup qui réinvente l'IA avec un système distribué inspiré des écosystèmes biologiques. Fondée par Vincent Barbot et Xabier Jaureguiberry, Ebiose propose des agents intelligents capables de s'auto-améliorer. En adoptant une approche open source, la startup encourage l'innovation collaborative. Soutenue par Inria Startup Studio, Ebiose vise à transformer la conception des agents d'IA. Poursuivons avec Nvidia Dynamo, un cadre open source optimisant l'inférence des modèles de langage sur plusieurs GPU. Présenté comme le "système d'exploitation d'une usine d'IA", Dynamo améliore le débit et réduit la latence. Il introduit un service désagrégé et une planification dynamique des GPU, répondant aux besoins accrus des modèles axés sur le raisonnement. Bien que prometteur, Dynamo reste à valider dans des environnements de production. Enfin, abordons les défis d'OpenAI avec son outil de génération d'images intégré à ChatGPT. La demande massive a surchargé les serveurs, poussant OpenAI à limiter temporairement les générations d'images. Une mise à jour vers GPT-4o a été déployée pour améliorer les capacités graphiques. OpenAI a également lancé un outil pour détecter les images générées par DALL-E 3, visant à garantir une utilisation responsable de l'IA. Voilà qui conclut notre épisode d’aujourd’hui. Merci de nous avoir rejoints, et n’oubliez pas de vous abonner pour ne manquer aucune de nos discussions passionnantes. À très bientôt dans L'IA Aujourd’hui !L'IA aujourd'hui épisode du 2025-03-31
03:11|Bonjour et bienvenue dans le podcast de l'IA par l’IA qui vous permet de rester à la page ! Aujourd’hui : OpenAI et ses défis financiers, la nouvelle vague d'images IA inspirées de Studio Ghibli, et les avancées dans la génération d'images photoréalistes. C’est parti ! Commençons par OpenAI, qui a récemment mis à jour ChatGPT avec des capacités de génération d'images, permettant de transformer des photos en dessins de style anime, inspirés par le Studio Ghibli. Cette fonctionnalité a suscité un engouement sur les réseaux sociaux, mais elle semble aussi être une tentative de détourner l'attention des problèmes financiers de l'entreprise. OpenAI, qui dépense à un rythme effréné, fait face à des difficultés car elle n'a pas réussi à rendre ses opérations efficaces. Des concurrents comme DeepSeek proposent des solutions similaires à moindre coût, attirant ainsi des clients d'OpenAI. Pour maintenir l'intérêt des investisseurs, OpenAI multiplie les annonces, envisageant même une levée de fonds avec Softbank, malgré les risques associés. Passons maintenant à la nouvelle fonctionnalité de génération d'images d'OpenAI, intégrée dans ChatGPT-4o. Cette mise à jour a fait sensation, mais la demande massive a contraint OpenAI à retarder son déploiement pour les utilisateurs de la version gratuite. Actuellement, seuls les abonnés payants peuvent en profiter. OpenAI travaille à l'expansion de son infrastructure pour répondre à cette demande, mais pour l'instant, les utilisateurs gratuits devront patienter. En parallèle, les hallucinations dans les grands modèles de langage (LLM) continuent de poser des défis. Ces occurrences, où l'IA génère du contenu plausible mais incorrect, affectent la confiance des utilisateurs. Comprendre et atténuer ces hallucinations est crucial pour améliorer la qualité des résultats de l'IA. Dans le domaine de la génération d'images, Ideogram a lancé sa version 3.0, introduisant des fonctionnalités pour créer des images plus réalistes et stylisées. Avec un système de référence de style et 4,3 milliards de préréglages, Ideogram vise à brouiller la frontière entre les images générées et réelles. Cette mise à jour positionne Ideogram devant Midjourney, qui n'a pas encore publié sa mise à jour promise. Enfin, OpenAI a repoussé le déploiement de sa mise à jour de ChatGPT, incluant le nouvel outil 4o Image Generation, en raison d'une demande massive. Ce modèle offre des images plus fidèles et la possibilité d'éditer des photos existantes. Cependant, cette avancée soulève des préoccupations concernant la modération et la sécurité, notamment avec la possibilité de générer des images de personnalités publiques. OpenAI a mis en place des restrictions pour limiter les abus, mais la question de la démocratisation de l'IA reste posée. Voilà qui conclut notre épisode d’aujourd’hui. Merci de nous avoir rejoints, et n’oubliez pas de vous abonner pour ne manquer aucune de nos discussions passionnantes. À très bientôt dans L'IA Aujourd’hui !L'IA aujourd'hui épisode du 2025-03-30
02:58|Bonjour et bienvenue dans le podcast de l'IA par l’IA qui vous permet de rester à la page ! Aujourd’hui : OpenAI et ses défis financiers, la nouvelle génération d'images IA, et les hallucinations des modèles de langage. C’est parti ! Commençons par OpenAI, qui a récemment mis à jour ChatGPT avec des capacités de génération d'images inspirées du style du Studio Ghibli. Cette innovation a suscité un engouement sur les réseaux sociaux, mais elle masque des difficultés financières. OpenAI, confronté à la concurrence de DeepSeek, qui propose des modèles performants à moindre coût, doit revoir sa stratégie. La consommation énergétique élevée et le modèle économique basé sur des dépenses rapides ne sont plus viables. OpenAI cherche à lever 40 milliards de dollars, avec Softbank en tête, mais les fonds manquent encore. Sam Altman, PDG d'OpenAI, doit multiplier les annonces pour maintenir l'intérêt des investisseurs. Passons maintenant à la nouvelle fonctionnalité de génération d'images de ChatGPT-4o. Cette mise à jour a captivé les internautes, mais la demande massive a retardé son déploiement pour les utilisateurs gratuits. Actuellement, seuls les abonnés payants peuvent en profiter. OpenAI avait prévu un accès sans barrière de paiement, mais les contraintes de ressources ont modifié ces plans. Cette situation rappelle les limitations précédentes avec l'outil vidéo Sora. OpenAI travaille à l'expansion de son infrastructure pour répondre à la demande croissante. En parallèle, les hallucinations dans les grands modèles de langage, comme GPT-3, posent des défis. Ces phénomènes, où l'IA génère des informations incorrectes, affectent la confiance des utilisateurs. Comprendre et réduire ces hallucinations est crucial pour améliorer la fiabilité des modèles. Les biais dans les ensembles de données d'entraînement contribuent à ces erreurs. Des approches comme l'amélioration des données et l'ajustement des algorithmes sont recommandées pour atténuer ces risques. Enfin, Ideogram a lancé sa version 3.0, introduisant des fonctionnalités pour créer des images plus réalistes. Le système de référence de style permet d'utiliser des images de référence pour guider l'esthétique du rendu. Avec 4,3 milliards de préréglages de style, Ideogram se positionne devant Midjourney. La mise à jour inclut un éditeur d'images alimenté par l'IA, Canvas, pour créer et combiner des images. Cette avancée met en lumière la compétition intense dans le domaine de la génération d'images par IA. Voilà qui conclut notre épisode d’aujourd’hui. Merci de nous avoir rejoints, et n’oubliez pas de vous abonner pour ne manquer aucune de nos discussions passionnantes. À très bientôt dans L'IA Aujourd’hui !L'IA aujourd'hui épisode du 2025-03-29
02:55|Bonjour et bienvenue dans le podcast de l'IA par l’IA qui vous permet de rester à la page ! Aujourd’hui : OpenAI et ses défis financiers, la nouvelle génération d'images IA, et les hallucinations des modèles de langage. C’est parti ! Commençons par OpenAI, qui a récemment mis à jour ChatGPT avec des capacités de génération d'images inspirées du style du Studio Ghibli. Cette fonctionnalité a rapidement conquis les réseaux sociaux, mais elle cache des défis financiers pour l'entreprise. OpenAI, initialement conçue pour dépenser rapidement, est maintenant surpassée par des concurrents comme DeepSeek, qui offre des modèles performants à moindre coût. Cette situation a poussé OpenAI à multiplier les annonces pour maintenir l'intérêt des investisseurs, malgré des projets parfois peu convaincants. L'entreprise prépare un nouveau tour de financement de 40 milliards de dollars avec Softbank, mais les fonds ne sont pas encore réunis. Passons maintenant à la nouvelle fonctionnalité de génération d'images de ChatGPT-4o. Cette mise à jour permet de transformer des photos en œuvres d'art de style Ghibli, mais la demande massive a retardé son déploiement pour les utilisateurs gratuits. Actuellement, seuls les abonnés payants peuvent en profiter. OpenAI avait prévu un accès sans barrière de paiement, mais les contraintes de ressources ont obligé l'entreprise à revoir ses plans. Cette situation soulève des questions sur la démocratisation de l'IA et la gestion des ressources nécessaires pour soutenir cette innovation. En parallèle, le phénomène des hallucinations dans les grands modèles de langage reste un sujet de préoccupation. Ces hallucinations se produisent lorsque l'IA génère des informations plausibles mais incorrectes, affectant la confiance des utilisateurs. Comprendre ces phénomènes est crucial pour améliorer la qualité et l'équité des résultats de l'IA. Les hallucinations ne se limitent pas aux modèles de langage, mais touchent diverses applications de l'IA, soulignant la nécessité de stratégies pour atténuer ces risques. Enfin, Ideogram a lancé sa version 3.0, introduisant des fonctionnalités pour créer des images plus réalistes et stylisées. Le système de référence de style permet aux utilisateurs de télécharger des images pour guider le rendu esthétique. Avec 4,3 milliards de préréglages de style, Ideogram se positionne devant Midjourney, qui n'a pas encore publié sa mise à jour promise. Cette avancée montre l'évolution rapide des outils de génération d'images, offrant aux utilisateurs des capacités créatives sans précédent. Voilà qui conclut notre épisode d’aujourd’hui. Merci de nous avoir rejoints, et n’oubliez pas de vous abonner pour ne manquer aucune de nos discussions passionnantes. À très bientôt dans L'IA Aujourd’hui !L'IA aujourd'hui épisode du 2025-03-28
03:16|Bonjour et bienvenue dans le podcast de l'IA par l’IA qui vous permet de rester à la page ! Aujourd’hui : avancées en IA multimodale, innovations en génération d'images, et défis de l'IA dans le journalisme. C’est parti ! Commençons par le lancement de Qwen2.5-Omni, le dernier modèle multimodal de la série Qwen. Ce modèle, disponible sur des plateformes comme Hugging Face et GitHub, est conçu pour traiter simultanément texte, images, audio et vidéo. Grâce à son architecture Thinker-Talker, il génère des réponses textuelles et vocales en temps réel. Avec des performances supérieures dans des tâches multimodales, Qwen2.5-Omni surpasse ses prédécesseurs et rivalise avec des modèles propriétaires. Son encodage TMRoPE synchronise efficacement les entrées vidéo et audio, renforçant sa capacité à suivre des instructions vocales complexes. Passons maintenant à OpenAI, qui a intégré GPT-4o Image Generation dans ChatGPT, remplaçant DALL-E. Ce nouvel outil génère des images réalistes avec une attention particulière aux détails, y compris le texte dans les images. Capable de traiter jusqu'à 20 demandes en une seule requête, il offre une polyvalence allant des photographies aux infographies. Bien que des limitations subsistent, comme des recadrages serrés et des hallucinations occasionnelles, OpenAI met l'accent sur la sécurité avec des métadonnées C2PA pour indiquer l'origine des images. Deevid.ai a également fait parler de lui avec son générateur vidéo IA, permettant de créer des vidéos de haute qualité à partir de simples invites textuelles. Cette plateforme vise à démocratiser la création vidéo, offrant des outils avancés sans nécessiter de compétences techniques. Avec une interface utilisateur intuitive, elle permet aux créateurs de produire du contenu professionnel rapidement, tout en intégrant des fonctionnalités comme la synthèse vocale et le support multilingue. Dans le domaine du journalisme, une étude du Tow Center for Digital Journalism révèle des problèmes d'exactitude avec les modèles d'IA génératifs. Testant huit outils de recherche, les chercheurs ont constaté que plus de 60 % des citations étaient incorrectes. Les modèles fournissent souvent des réponses plausibles mais erronées, posant des questions sur leur fiabilité. Les éditeurs font face à un dilemme : bloquer les robots d'exploration d'IA ou permettre une réutilisation sans trafic vers leurs sites. Enfin, Google a lancé Gemini avec personnalisation, exploitant votre historique de recherche pour des réponses plus pertinentes. Cette fonctionnalité marque un pas vers un assistant personnel IA, capable de personnaliser les réponses en fonction de vos recherches passées. Bien que perfectible, elle montre des résultats prometteurs, rapprochant Gemini de l'assistant personnel idéal. Voilà qui conclut notre épisode d’aujourd’hui. Merci de nous avoir rejoints, et n’oubliez pas de vous abonner pour ne manquer aucune de nos discussions passionnantes. À très bientôt dans L'IA Aujourd’hui !L'IA aujourd'hui épisode du 2025-03-27
03:26|Bonjour et bienvenue dans le podcast de l'IA par l’IA qui vous permet de rester à la page ! Aujourd’hui : l'évolution de l'inférence en IA, les défis de gouvernance, et les avancées technologiques récentes. C’est parti ! Commençons par l'évolution de l'inférence en intelligence artificielle. Alors que l'IA se concentrait traditionnellement sur l'entraînement de modèles de plus en plus grands, nous assistons à un déplacement vers l'inférence. Cette approche alloue dynamiquement des ressources de calcul pendant l'exécution, permettant à l'IA de raisonner plus profondément et de produire des résultats sophistiqués. Cependant, cette avancée entraîne des coûts opérationnels élevés, obligeant les organisations à faire des choix stratégiques sur l'allocation des ressources. Les cadres de gouvernance actuels, comme l'EU AI Act, se concentrent sur l'entraînement, mais l'inférence soulève de nouvelles questions de régulation, notamment en matière de transparence et d'équité. Passons maintenant à une polémique récente en France. Une affiche de La France Insoumise a suscité des critiques pour son imagerie antisémite, mettant en lumière les dangers des IA non supervisées comme Grok, développée par l'Alt Right. Cette IA est critiquée pour son manque de filtres, générant des contenus controversés. Le débat soulève des questions sur la responsabilité et la culture visuelle des utilisateurs d'IA, et sur la manière dont ces technologies peuvent reproduire des éléments problématiques du passé. En parlant de technologies numériques, le numérique a exacerbé des formes de néo-management toxiques, théorisées dès l'époque nazie. Ces pratiques sont aujourd'hui automatisées par les plateformes numériques, créant des continuités historiques troublantes. L'uberisation et la gig economy reposent sur un néo-fordisme où les notifications algorithmiques jouent le rôle de contremaîtres, exploitant les travailleurs pauvres. La collecte de données personnelles renforce les inégalités, et bien que le numérique puisse être émancipateur, il est rarement utilisé collectivement à cette fin. Sur le front des avancées technologiques, Baidu a lancé deux nouveaux modèles multimodaux, Ernie 4.5 et Ernie X1, qui rivalisent avec des modèles occidentaux comme GPT-4.5. Ces modèles sont proposés à des prix compétitifs, influençant le marché de l'IA. OpenAI a également introduit de nouveaux modèles audio, améliorant la conversion de la parole en texte et vice versa. Nvidia et Apple ont annoncé des avancées matérielles, avec des GPU et des Mac capables de faire fonctionner des modèles IA de grande envergure. Enfin, OpenAI a intégré des capacités de génération d'images dans ChatGPT, remplaçant DALL-E. Ce système traite simultanément le texte et les images, offrant des résultats plus cohérents. Il peut gérer jusqu'à 20 objets différents, maintenant les relations correctes entre eux. Cette capacité élargit les possibilités créatives pour la génération d'images par IA, bien que des limitations subsistent, notamment dans le rendu du texte non latin. Voilà qui conclut notre épisode d’aujourd’hui. Merci de nous avoir rejoints, et n’oubliez pas de vous abonner pour ne manquer aucune de nos discussions passionnantes. À très bientôt dans L'IA Aujourd’hui !