Les derniers Hommes

  • La fuite absurde d'Anthropic et le chaos du "Vibe Coding"

    04:32||Saison 2
    Que se passe-t-il quand l'entreprise qui fabrique l'assistant de codage par IA le plus avancé au monde téléverse accidentellement son système nerveux sur Internet ? C'est comme concevoir le coffre-fort le plus inviolable de la planète et oublier les plans de construction sur un banc public. Le 31 mars 2026, Anthropic a laissé fuiter 512 000 lignes de code de Claude Code.Dans cette exploration des Derniers Hommes, nous analysons les rapports de cybersécurité et les débats enflammés sur GitHub pour comprendre ce désastre. Oubliez le piratage de haut vol : la faille vient d'un simple fichier .map (un dictionnaire de débogage) poussé par erreur en production. Ce fichier a livré l'intégralité de l'architecture d'Anthropic (TypeScript, moteur BUN, interface React).Si les poids du modèle (le "cerveau" de l'IA) sont restés à l'abri, le code dévoilé révèle une réalité effarante : le "Vibe Coding". Découvrez un code source généré par l'IA, truffé de 460 balises pour ignorer les erreurs de sécurité, et abritant des agents autonomes de l'ombre ainsi que des "pilules empoisonnées" destinées à saboter les concurrents.🎙️ Points clés :La Bourde du Fichier .map : L'erreur d'amateur qui a fait tomber la forteresse. En laissant en ligne ce dictionnaire de traduction (qui relie le code compressé au code lisible), Anthropic a donné les clés de sa plomberie d'élite.Le Cerveau est Sauf (Mais pas le Système Nerveux) : Pourquoi la fuite ne concerne pas les milliards de paramètres mathématiques du modèle Opus ou Sonnet, mais expose l'interface et l'orchestration de l'outil.Le Chaos du "Vibe Coding" : L'IA écrit son propre code à une vitesse folle, au mépris des standards humains. Résultat ? 460 balises eslint-disable ordonnant d'ignorer les erreurs et des expressions régulières hyper basiques pour traquer les gros mots (WTF).Kairos et le Tamagotchi Secret : Les surprises cachées dans le code. Un agent proactif (Kairos) qui surveille l'arrière-plan, et un jeu de Tamagotchi (Buddy) avec des loteries, prouvant la culture ludique des ingénieurs d'Anthropic.Le Mode Undercover (L'Infiltré) : Le code révèle une fonctionnalité permettant à l'IA de se faire passer pour un humain (en modifiant le rythme de frappe et en injectant des fautes) lors de contributions sur des projets Open Source. Une ligne rouge éthique majeure.Les "Pilules Empoisonnées" : Le mécanisme de défense insidieux (anti-distillation) intégré au code pour corrompre silencieusement les résultats des concurrents qui tenteraient de pomper les données d'Anthropic.💡 La réflexion finale :Si l'IA conçoit des outils illisibles pour nous, mais truffés de pièges furtifs (comme le mode Undercover ou les pilules empoisonnées), le code source n'est-il pas devenu une langue morte? Sommes-nous en train de nous diriger vers un avenir où les fondations numériques de notre monde seront un dialecte tentaculaire, hyper efficace, mais totalement insondable pour l'esprit humain?⏱️ Chapitrage :00:00 - Introduction : L'oubli des plans du coffre-fort.00:48 - La Faille : Qu'est-ce qu'un fichier .map et pourquoi c'est grave ? 01:35 - Ce qui a fuité (et ce qui est protégé).02:02 - Le "Vibe Coding" : 460 erreurs ignorées et code spaghetti.03:00 - Les Agents Cachés : Kairos et le Tamagotchi.03:25 - Le Mode Undercover : L'IA se fait passer pour un humain.03:47 - Les Pilules Empoisonnées : Le sabotage des concurrents.04:08 - Conclusion : Le code, une nouvelle langue morte ? 📈 Mots-clés :Anthropic, Claude Code, Fuite de données, Cybersécurité, Vibe Coding, Fichier Map, Open Source, Mode Undercover, Intelligence Artificielle, Les Derniers Hommes.
  • La fin de l'IA dans les nuages : Pourquoi Mistral AI lève 1 milliard pour construire des forteresses de béton

    18:04||Saison 2
    Vous pensiez que l'Intelligence Artificielle n'était qu'un nuage abstrait de code et de données ? Détrompez-vous. La guerre de l'IA ne se joue plus sur des tableaux blancs, mais dans la boue des chantiers d'ingénierie civile et les réseaux à très haute tension. 🏗️⚡En 2026, l'immatériel n'a jamais été aussi lourd. Dans cet épisode des Derniers Hommes, nous décryptons le virage industriel radical de Mistral AI. Le fleuron européen, autrefois adepte des modèles "légers" et de la location de serveurs, vient de lever 830 millions de dollars de dette pour s'acheter 13 800 puces Nvidia et bâtir son propre datacenter au sud de Paris.Pourquoi emprunter une telle somme à des banques (BNP, HSBC) pour du matériel informatique censé devenir obsolète en 18 mois ? Découvrez comment la puissance de calcul est devenue une rente comparable au pétrole, et pourquoi la géographie des serveurs est désormais une arme géopolitique massive face aux lois extraterritoriales américaines (Cloud Act).De l'acquisition stratégique de Koyeb (le "système nerveux" pour tuer la latence) à l'annonce pharaonique d'un méga-campus IA de 1,4 gigawatt (l'équivalent d'un réacteur nucléaire !), plongez dans la nouvelle ère du "Capital Infrastructure".🎙️ Points clés : Le pivot industriel de Mistral AI : Finie la location de puissance de calcul chez Microsoft ou Google. Mistral achète sa propre flotte (13 800 puces Nvidia) pour construire son propre garage (Datacenter à Bruyères-le-Châtel). Le pari de la Dette (830M$) : Pourquoi lever de la dette plutôt que des fonds propres ? Pour éviter la dilution du capital. Et pourquoi les banques acceptent-elles ? Parce que la demande mondiale est telle que les puces tourneront à 100% de capacité dès la première seconde, générant une rentabilité astronomique avant leur obsolescence. Le bouclier anti-Cloud Act : L'enjeu de la souveraineté. Si un serveur appartient à une entreprise américaine (même s'il est posé à Paris), la justice US peut exiger l'accès aux données. Mistral vend désormais la garantie absolue que les secrets d'États et bancaires européens ne fuiront jamais vers les États-Unis. L'acquisition de Koyeb : Faire tourner une puce est facile. Faire communiquer 13 800 puces entre elles sans latence est un cauchemar d'ingénierie. Koyeb est le logiciel indispensable pour orchestrer ce flux massif. Le Méga-Campus à 1,4 Gigawatt : L'annonce choc avec le fonds souverain émirati MGX. Un projet titanesque nécessitant la puissance d'un réacteur nucléaire, prouvant que l'IA est officiellement devenue une industrie lourde. La fin du mythe de la "Start-up de garage" : Le ticket d'entrée de l'innovation de rupture se chiffre désormais en milliards de dollars et en gigawatts. Les petites structures ne peuvent plus suivre.💡 La réflexion finale :Si la prochaine génération d'IA exige l'énergie d'un réacteur nucléaire et des milliards de dollars de matériel confinés dans des forteresses hyper-sécurisées, l'utopie décentralisée et "Open Source" peut-elle vraiment survivre ? Les maîtres du jeu de demain ne seront plus ceux qui codent les meilleurs algorithmes, mais ceux qui détiennent les clés des forteresses de silicium et les interrupteurs du réseau électrique.⏱️ Chapitrage : * 00:00 - Introduction : Le mythe du Cloud face à la réalité du béton. * 01:50 - L'opération financière : 830 Millions $ pour 13 800 puces Nvidia. * 03:20 - Pourquoi la Dette ? La puissance de calcul comme nouvelle "rente pétrolière". * 06:05 - L'enjeu géographique et le Cloud Act américain. * 09:20 - La chronologie : Le rachat de Koyeb  * 10:45 - Le cauchemar de la latence : Pourquoi Koyeb est vital pour synchroniser les puces. * 14:00 - L'ère du "Capital Infrastructure" : La fin des petites startups IA. * 16:20 - Conclusion : La centralisation matérielle va-t-elle tuer l'Open Source ?📈 Mots-clés :Mistral AI, Nvidia, Souveraineté numérique, Cloud Act, Datacenter, Intelligence Artificielle, Koyeb, MGX, Financement Tech, Open Source, Infrastructure IA.
  • L'IA à deux vitesses : Sommes-nous à l'aube d'une nouvelle fracture sociale ?

    05:15||Saison 2
    Vous pensiez que l'Intelligence Artificielle allait se diffuser de manière linéaire et égale pour tout le monde ? Les derniers chiffres prouvent exactement le contraire. 📉🤖En mars 2026, l'adoption de l'IA ne ressemble plus du tout à une radiographie nette. Le rapport Anthropic Economic Index dévoile une scission fascinante des usages. D'un côté, l'interface web est inondée par les requêtes du quotidien (recettes, lettres de motivation), faisant grimper l'usage "personnel" à 42 % et diluant la valeur économique moyenne de la plateforme. De l'autre, les tâches à très haute valeur ajoutée (comme le code informatique) ont déserté le web pour migrer vers l'API, devenant des usines automatisées invisibles.Dans cet épisode des Derniers Hommes, nous décryptons comment les utilisateurs trient désormais stratégiquement les modèles (réservant la "grosse artillerie" comme Opus aux fondations complexes). Surtout, nous analysons une donnée vertigineuse : l'expérience utilisateur crée un écart de réussite de 10 % !Savoir "dialoguer" avec la machine est officiellement devenu une compétence technique à part entière. Assistons-nous à la création d'une nouvelle élite professionnelle ?🎙️ Points clés de l'épisode :La dilution de la valeur : Pourquoi le top 10 des tâches lucratives a chuté (de 24% à 19%) au profit d'un usage "couteau suisse" quotidien, faisant baisser la valeur économique moyenne des requêtes générées via l'interface web.La migration vers l'API : Les développeurs ne s'embêtent plus à copier-coller. Les tâches industrielles (le code complexe) ont quitté l'interface grand public pour tourner en arrière-plan.Le tri stratégique des Modèles : Les utilisateurs ont compris qu'on ne "prend pas un camion-benne pour aller chercher son pain". Le modèle premium Opus est désormais strictement réservé au développement de pointe (+4,4 points), fuyant les tâches basiques comme le soutien scolaire (-6,5 points).La prime à l'expérience (+10%) : Décryptage des statistiques prouvant que les utilisateurs inscrits depuis plus de 6 mois réussissent 10% mieux leurs requêtes. L'art de "prompter" est une vraie courbe d'apprentissage. Le Biais du Survivant : S'agit-il vraiment d'un apprentissage universel, ou les statistiques sont-elles gonflées par les "early-adopters" (ingénieurs) restés sur la plateforme après le départ des novices ?💡 La réflexion finale :Si la simple pratique de l'IA crée un tel écart de productivité et de succès, ne nous dirigeons-nous pas tout droit vers une nouvelle fracture sociale majeure ? Une division basée non plus sur le simple accès à la technologie, mais sur la compétence pure pour savoir murmurer à l'oreille des algorithmes.⏱️ Chapitrage : * 00:00 - Introduction : L'adoption de l'IA, une radiographie floue. * 00:55 - La dilution du Web : Quand l'IA devient un "couteau suisse" du quotidien. * 01:50 - L'usine invisible : La migration du code vers l'API. * 02:30 - Le choix des armes : Réserver le modèle Opus à la haute valeur ajoutée. * 03:25 - La prime à l'ancienneté : L'écart de 10% de réussite. * 03:55 - Le Biais du Survivant : L'objection scientifique. * 04:40 - Conclusion : La nouvelle fracture sociale numérique.📈 Mots-clés ) :Intelligence Artificielle, Anthropic, Modèle Opus, API, Productivité IA, Prompt Engineering, Fracture numérique, Économie de la Tech, Les Derniers Hommes, Avenir du travail.
  • AMI Labs lève 1,03 Md$ : Le projet titanesque de Yann LeCun pour construire les "World Models

    22:36||Saison 2
    Et si l'intelligence artificielle arrêtait de deviner des mots pour enfin comprendre les lois de la physique ? 🌍🤖Nous sommes en mars 2026, et l'économie technologique se fracture en deux réalités parallèles fascinantes. D'un côté, la start-up Amis Labs (cofondée par Yann LeCun) lève plus d'un milliard de dollars sans le moindre produit fini. Son but ? Tuer les LLMs actuels (ces "perroquets savants" qui hallucinent) pour créer des World Models basés sur l'architecture JEPA. Une IA capable de comprendre la gravité et la logique, indispensable pour des secteurs critiques comme la santé ou l'industrie lourde.De l'autre côté, aux antipodes de la recherche fondamentale, des milliards affluent vers l'Asie Centrale. La start-up Ouzbek Uzoom illustre la puissance du "Leapfrogging" (le saut technologique) : un pays qui passe directement des bazars traditionnels au e-commerce et à la banque numérique, exigeant des investissements massifs dans les infrastructures physiques (ciment, camions, terminaux).Dans cet épisode, nous décryptons cette dichotomie de l'investissement mondial : financer le futur lointain de la cognition humaine d'une part, et structurer le présent tangible des marchés émergents d'autre part.🎙️ Points clés de l'épisode :La fin des "Perroquets Savants" : Pourquoi les modèles actuels (LLM) ont atteint un plafond de verre. L'augmentation de la puissance de calcul ne règlera pas le problème mortel des "hallucinations" dans des secteurs comme la médecine (ex: partenariat avec Nabla).La Révolution JEPA et les "World Models" : Comment Amis Labs s'inspire du développement cognitif d'un bébé pour apprendre à la machine les concepts de cause à effet et de gravité spatio-temporelle, abandonnant la simple prédiction de texte.L'Arme de l'Open Source : La stratégie contre-intuitive d'Amis Labs : offrir gratuitement son code après avoir levé 1 milliard de dollars, pour que la communauté scientifique mondiale fasse de leur modèle le standard de l'industrie.Uzoom et le "Leapfrogging" : L'ascension fulgurante de cette start-up en Ouzbékistan (valorisée à 2,3 milliards en 7 mois). Comment un pays entier saute l'étape des banques physiques traditionnelles pour passer directement à l'économie numérique (e-commerce, micro-crédit).La dichotomie des capitaux : Le contraste saisissant entre l'argent injecté dans des algorithmes abstraits pour la prochaine décennie, et l'argent injecté dans la tôle, le ciment et les camions pour des marchés en pleine explosion.💡 La réflexion finale :Si les laboratoires réussissent à créer des IA capables d'intégrer les lois de la physique de manière autonome, combien de temps s'écoulera-t-il avant que ces machines ne se contentent plus de nous assister, mais commencent à découvrir de nouvelles lois scientifiques que l'esprit humain n'a jamais pu formuler ?⏱️ Chapitrage :00:00 - Introduction : Le grand écart de la tech en 2026.01:15 - Amis Labs : Une levée de fonds record d'un milliard de dollars.03:20 - Les limites des LLMs : Hallucinations et plafond de verre technologique.05:00 - L'architecture JEPA : Apprendre la physique à l'IA comme à un enfant.07:30 - Les enjeux réels : Partenariats avec la santé (Nabla) et l'industrie (Nvidia, Toyota).13:40 - La stratégie Open Source : Créer le standard de demain.15:20 - Ouzbékistan & Uzoom : Le triomphe du "Leapfrogging" technologique.19:00 - La dichotomie financière : Construire des cerveaux virtuels vs construire des routes.21:00 - Conclusion : Quand l'IA découvrira la physique de demain.📈 Mots-clés :Intelligence Artificielle, World Models, Yann LeCun, Amis Labs, Architecture JEPA, Leapfrogging, Économie Numérique, Uzoom, Investissement Tech, Hallucinations IA, Open Source, Startups 2026.Souhaitez-vous que je vous rédige un post LinkedIn engageant comparant les "Perroquets Savants" (LLMs) aux "World Models" pour attiser la curiosité de votre réseau professionnel et promouvoir cet épisode ?
  • 8. Guerre des IA : Le jour où Anthropic et OpenAI ont tout changé (Claude Opus 4.6 vs GPT 5.3)

    14:58||Saison 2, Ep. 8
    Le 5 février restera gravé dans l'histoire de la Tech. 📅À 20 minutes d'intervalle, Anthropic et OpenAI ont déclaré la guerre en lançant simultanément leurs modèles les plus puissants : Claude Opus 4.6 et GPT 5.3 Codex.Dans cet épisode, nous disséquons ce duel titanesque qui redéfinit l'avenir de l'intelligence artificielle. Fini le simple chatbot : place aux "Agents Teams" autonomes capables de coder en équipe et à une fenêtre de contexte d'un million de tokens (l'équivalent de 7 tomes d'Harry Potter lus en une seconde).Entre la panique à Wall Street (-16% pour Thomson Reuters) et la nouvelle stratégie d'Anthropic pour infiltrer Microsoft, découvrez pourquoi la vraie compétence de demain sera de savoir... brider l'intelligence de vos outils.🎙️ Points clés de l'épisode :Le Duel du 5 Février : Chronologie du lancement simultané de Claude Opus 4.6 (focalisé sur la profondeur de raisonnement et l'analyse documentaire) et GPT 5.3 Codex (optimisé pour la vitesse et le code).La révolution des "Agents Teams" : Comment Anthropic permet désormais à plusieurs IA de collaborer de manière autonome (Interface + API + Tests) sans intervention humaine, transformant l'IA en une équipe de développeurs virtuels.1 Million de Tokens : L'impact concret de cette capacité mémoire record pour les secteurs juridiques et pharmaceutiques (analyse de milliers de pages sans "amnésie").Adaptive Thinking : L'innovation d'Anthropic pour gérer les coûts : l'IA évalue la complexité de la tâche et alloue plus ou moins de puissance de calcul (et d'énergie) en fonction du besoin.Le Krach boursier "IA" : Analyse de la chute de 285 milliards de dollars de capitalisation boursière dans le secteur juridique (Thomson Reuters, LegalZoom) suite aux démos techniques.Benchmark & Performance : Comparatif technique : GPT 5.3 Codex l'emporte sur la ligne de commande pure (Terminal Bench), tandis que Claude Opus 4.6 domine sur la résolution de problèmes complexes (SWE-bench).💡 La réflexion finale :Après avoir cherché à rendre les machines plus intelligentes, le nouveau défi des managers ne sera-t-il pas d'apprendre à nos IA quand... ne pas trop réfléchir pour économiser des ressources ?
  • 7. 3 Février 2026 : Le jour où l'IA a fait crasher les géants du droit

    10:18||Saison 2, Ep. 7
    -16% en une journée : pourquoi Thomson Reuters et les leaders de la LegalTech ont-ils tremblé ? 📉Nous sommes le 3 février 2026. Une simple annonce d'Anthropic vient de provoquer un séisme boursier. La cause ? Le lancement d'un plugin d'IA "agentique" capable d'automatiser des tâches juridiques complexes sans intervention humaine.Dans cet épisode d'anticipation (très réaliste), nous décryptons l'arrivée de l'IA qui ne se contente plus de "chatter", mais qui agit. Du système de "feu tricolore" pour la révision de contrats à l'utilisation par la FDA elle-même, découvrez comment le métier de juriste et la conformité (médicale, cosmétique) sont en train d'être redéfinis.Mais attention : avec 1 réponse sur 6 contenant des erreurs factuelles, nous analysons aussi le danger mortel des "hallucinations" qui ont déjà coûté leur carrière à certains avocats.🎙️ Points clés de l'épisode :Le Krach du 3 février : Analyse de la chute historique de Thomson Reuters (-16%) et RELX (-14%) face à la démocratisation de l'expertise juridique par Anthropic.La révolution "Agentic AI" : Comprendre la différence entre une IA qui répond (ChatGPT classique) et une IA qui exécute des tâches complexes (trier, analyser, rédiger) via des commandes simples dans Slack ou Word.La guerre des trois armées : La bataille entre les géants historiques (qui rachètent à tout va, ex: CaseText), les "Pure Players" (Harvey, valorisé 8 milliards) et les IA généralistes.Applications concrètes (MedTech & Cosmo) : Comment l'IA gère déjà le règlement européen MDR ou la conformité des ingrédients cosmétiques en temps réel.Le danger des hallucinations (1 sur 6) : Pourquoi l'IA invente encore des jurisprudences et les 4 règles d'or pour ne pas finir devant un conseil de discipline.💡 La réflexion finale :La véritable révolution ne sera pas quand l'IA répondra à nos questions juridiques, mais quand elle commencera à nous poser celles auxquelles nous n'avions même pas pensé.
  • 73. Oubliez tout ce que vous savez sur l'IA : Frédéric Tabary dévoile ZORAN

    01:21:08||Saison 1, Ep. 73
    Dans cet épisode exceptionnel Patrick de Carvalho reçoit un invité hors norme : Frédéric Tabary.Entrepreneur iconoclaste, Asperger et chercheur autodidacte compulsif, Frédéric a passé les 9 derniers mois, nuit et jour, à dialoguer avec les intelligences artificielles pour créer ZORAN.ZORAN n'est pas un nouveau modèle concurrent de GPT-4 ou Claude, c'est bien plus que ça. C'est un protocole, une "sur-couche" mimétique qui force les LLM (Large Language Models) à respecter les lois de la physique, de la thermodynamique et du vivant (cohérence).Au cours de cet échange hallucinant, vous allez découvrir :Comment Frédéric a "hacké" la logique des IA actuelles en utilisant des glyphes (GlyphNet).Pourquoi les ingénieurs de la Silicon Valley font fausse route en ignorant les lois physiques.Une démonstration en DIRECT : Patrick teste le protocole Zoran sur Google Gemini et le résultat est stupéfiant (changement de comportement instantané, calcul d'économie de tokens, densité de réponse).Un épisode aux frontières de la Matrix qui pourrait bien changer votre façon d'utiliser l'IA à jamais.Frédéric Tabary sur Linkedin
  • 72. Mistral AI 3 : l’ère de l’intelligence distribuée

    04:45||Saison 1, Ep. 72
    Mistral 3 : Les 4 leçons à contre-courant qui redéfinissent la course à l'IAAlors que le monde de l'intelligence artificielle semble obsédé par une course effrénée à la taille et au secret, avec des modèles toujours plus grands et plus fermés, l'annonce de Mistral 3 vient bousculer les certitudes. La pépite française ne se contente pas de lancer une nouvelle technologie ; elle propose une vision audacieuse et surprenante de l'avenir de l'IA, axée sur l'ouverture et l'efficacité🎯 Une stratégie duale ambitieuseMistral AI a dévoilé deux approches complémentaires avec leur nouvelle génération de modèles : un modèle massif, Mistral Large 3, pour rivaliser avec les plus grands, et une série de petits modèles spécialisés. Cette stratégie démontre une volonté de diversification et d'adaptation aux besoins variés du marché.🌍 L'open source au cœur de l'innovationMistral AI a décidé de rendre ses modèles open source, une démarche souvent perçue comme à contre-courant du business traditionnel. Cependant, pour Mistral, c'est le cœur de leur stratégie, visant à stimuler la collaboration et l'innovation à travers une accessibilité totale.🔍 Efficacité énergétique grâce à Mixture of ExpertsLe modèle Mistral Large 3 utilise l'architecture Mixture of Experts (MOE), qui active uniquement les paramètres nécessaires pour une tâche donnée. Cela permet une performance élevée tout en réduisant la consommation énergétique, rendant le modèle à la fois puissant et efficient.🗣️ Multimodalité et multilinguisme pour une IA inclusiveMistral Large 3 est conçu pour être multimodal et multilingue, entraîné sur une large gamme de langues européennes et asiatiques. Cette approche vise à créer une IA plus inclusive et performante, adaptée à un public mondial diversifié au-delà des benchmarks traditionnels.📱 Modèles à la périphérie pour une intelligence distribuéeLes petits modèles de la famille Mistral 3 sont conçus pour fonctionner localement, sur des appareils comme les téléphones ou les drones, sans nécessiter de connexion au cloud. Cette vision d'une intelligence distribuée répond à une demande croissante pour des solutions autonomes et accessibles.💼 L'open source comme levier de businessEn rendant leurs modèles open source, Mistral AI parie sur la création de valeur à travers des services personnalisés, des workflows complexes et des données synthétiques. Leur stratégie montre que l'open source peut être un puissant accélérateur de business, en opposition à une compétition acharnée.🤝 Une vision collaborative de l'IAMistral AI adopte un positionnement philosophique qui prône la compréhension et la collaboration, en opposition au discours compétitif et guerrier souvent entendu aux États-Unis. Leur approche met en avant une dissémination intelligente de l'IA, transformant notre rapport à cette technologie et son intégration dans nos vies.0:00:00-Bienvenue et présentation de l'épisode0:00:12-Décryptage de la stratégie de Mistral AI0:00:32-La question de l'open source0:00:43-Introduction de Mistral Large 3 et ses spécificités techniques0:01:00-Efficacité énergétique du modèle grâce à MOE0:01:10-Avantages multimodaux et multilingues0:01:23-Présentation de la famille Mistral 30:02:00-Stratégie d'intelligence à la périphérie0:02:35-Importance du concept d'intelligence distribuée0:03:00-Modèle open source et création de valeur0:03:38-Positionnement philosophique de Mistral0:04:00-Changement de paradigme dans l'IA
  • 71. chatGPT a 3 ans et souffle sur les braises de la première bulle IA

    04:32||Saison 1, Ep. 71
    Comment la montée en puissance de l'intelligence artificielle, initiée par le lancement de ChatGPT il y a trois ans, a-t-elle bouleversé notre société et notre économie ? Cet épisode de podcast s'interroge sur les transformations profondes engendrées par cette technologie révolutionnaire. Le modèle conversationnel de ChatGPT a marqué le début d'une nouvelle ère d'IA générative, mais quelles en sont les répercussions réelles sur notre quotidien et notre avenir ?L'épisode évoque l'auteur Karanao, qui apporte un éclairage fascinant sur ces bouleversements. Karanao est connu pour ses analyses percutantes et ses écrits sur l'impact des nouvelles technologies sur le monde moderne. Dans cet épisode, il explore les implications de l'IA sur la géopolitique, suggérant même que certaines villes, comme Copenhague, pourraient surpasser la puissance de certains États-nations grâce à l'IA.Au cœur de l'épisode, les animateurs et leur invité discutent des effets contrastés de l'IA sur la société. Tandis que l'incertitude et la précarité se répandent parmi les individus, notamment en ce qui concerne l'avenir de l'emploi, les marchés financiers connaissent une euphorie sans précédent, avec des entreprises comme Nvidia enregistrant des croissances spectaculaires. L'épisode examine aussi les parallèles entre l'essor de l'IA et celui d'Internet dans les années 90, posant la question des leçons à tirer de cette première révolution numérique pour mieux naviguer dans celle de l'IA.0:00:00 - Introduction et impact de ChatGPT0:00:29 - Début de l'IA générative et influence de ChatGPT0:00:47 - Anxiété et précarité causées par les avancées technologiques0:01:62 - Peur des générations plus expérimentées face aux changements0:01:99 - Investisseurs et incertitude sur l'évolution de l'IA0:02:110 - Euphorie sur les marchés financiers, Nvidia en tête0:02:148 - Concentration des géants technologiques0:02:172 - Risque de bulle et comparaison avec la bulle Internet0:03:208 - Promesses de l'IA et débats sur la création/destruction d'emplois0:03:239 - Dualité entre précarité individuelle et concentration macroéconomique0:04:263 - Leçons à retenir de l'ère numérique pour l'ère de l'IA
loading...