Partager

cover art for Ce Qu'On Ne Vous Dit Pas Sur ChatGPT - Le Futurologue

Le Futurologue Podcast

Ce Qu'On Ne Vous Dit Pas Sur ChatGPT - Le Futurologue

‱

💾 Soutenez-moi financiùrement sur Tipeee, Patreon, PayPal

———

👉 Suivez-moi sur YouTube, TikTok, Instagram, Facebook, X, Threads, LinkedIn

———

TIME CODE

0:00 Introduction

1:28 Qu’est-ce que ChatGPT ?

2:38 Que peut faire ChatGPT ?

3:15 Généralité

8:06 Multimodalité

9:25 Amélioration des performances

12:57 Diffusion dans l’économie

17:37 Matérialité

22:20 Agentivité

27:21 Discrimination

31:15 Hallucinations

34:06 DĂ©sinformation

36:42 Manque de modération

43:28 Droits d’auteur

44:16 Sentience artificielle

48:04 DĂ©socialisation

55:29 Propagande

57:03 Surveillance

58:34 Pollution

1:01:30 Diversion des vrais problĂšmes

1:03:12 Perte d’intelligence

1:04:09 Confidentialité

1:06:01 Perte d’emploi

1:09:38 Risques existentiels

1:17:34 Solutions

1:25:18 Questions

More episodes

View all episodes

  • Les Vrais Dangers De l’IA - Le Futurologue

    12:56|
    💾 Soutenez-moi financiĂšrement sur Tipeee, Patreon, PayPal———👉 Suivez-moi sur YouTube, TikTok, Instagram, Facebook, X, Threads, LinkedIn———TIME CODE0:00 Introduction0:15 PrĂ©sentation0:30 Propagation de la haine et de la virulence1:17 DĂ©sinformation 2:37 DĂ©clin dĂ©mocratique3:39 PandĂ©mie artificielle4:31 CybercriminalitĂ©6:49 Perte d’emploi8:21 Risque existentiel
  • L’IA Va Tous Nous Mettre Au ChĂŽmage - StĂ©phane Mallard

    01:23:16|
    📖 Achetez le dernier livre de StĂ©phane Mallard———💾 Soutenez-moi financiĂšrement sur Tipeee, Patreon, PayPal———🌐 Rejoignez-moi sur YouTube, Discord, TikTok, Instagram, Facebook, X, Threads, LinkedIn, Bluesky———👉 Laissez-moi un feedback anonyme———MES RECOMMANDATIONSMes livres prĂ©fĂ©rĂ©s sur l’IATous les livres que j’ai lusMon matĂ©riel high-techCyberGhost VPNRiverside (Enregistrement de podcast)Audible (Livres audio)Kindle (eBooks)Notion (ProductivitĂ©)———TIME CODE0:00 Introduction0:10 PrĂ©sentation1:05 Les discours sur l’IA en France2:07 Les agents intelligents5:26 L’empathie artificielle7:31 Les chatbots sociaux10:13 Le pouvoir de Big Tech12:16 Le mirage du libre arbitre13:35 Est-on des algorithmes ?14:50 Intelligence humaine vs artificielle16:08 l’IA ne fait que simuler ?18:07 La conscience artificielle20:14 Les risques existentiels de l’IA22:49 Mettre l’IA en pause ?25:15 Le revenu universel27:32 L’IA centralise l’économie29:07 Un revenu universel sans Ă©tat ?31:12 Les consĂ©quences du libertarianisme37:42 Vers la fin du salariat ?45:55 La fin du salariat est-elle une bonne chose ?49:18 Vers la fin du travail ?55:57 Le prompt engineering58:46 L’IA va automatiser les intellectuels1:00:43 La disruption1:03:41 Le rĂ©el1:05:39 Nous sommes dĂ©jĂ  dans le mĂ©tavers1:07:32 Le dĂ©veloppement personnel1:11:24 L’accĂ©lerationisme efficace1:12:41 AccĂ©lerationisme et risques existentiels1:13:41 À quoi ressemble ton utopie ?1:14:45 Vivons-nous dans une simulation ?1:18:28 La physique quantique1:21:40 Message Ă  l’humanitĂ©
  • Le Plus Grand Danger De l’IA - Science4All vs JĂ©rĂ©my Perret

    54:51|
    💾 Soutenez-moi financiĂšrement sur Tipeee, Patreon, PayPal———👉 Suivez-moi sur YouTube, TikTok, Instagram, Facebook, X, Threads, LinkedIn———TIME CODE0:00 Introduction0:21 PrĂ©sentation des invitĂ©s1:23 Quel est le plus grand danger de l’IA ?11:17 Quel risque de l’IA faut-il prioriser ?28:33 La complaisance de l’altruisme efficace envers OpenAI35:26 Quelles solutions face aux risques de l’IA ?
  • Gouverner L’intelligence Artificielle - Henry Papadatos

    01:02:19|
    💾 Soutenez-moi financiĂšrement sur Tipeee, Patreon, PayPal———👉 Suivez-moi sur YouTube, TikTok, Instagram, Facebook, X, Threads, LinkedIn———TIME CODE0:00 Introduction0:19 PrĂ©sentation d’Henry1:39 PrĂ©sentation de SaferAI3:47 Qu’est-ce que la gouvernance de l’IA ?5:20 Qu’est-ce que l’IA Act ?10:13 Clarification sur l’IA gĂ©nĂ©rale11:16 Faut-il rĂ©guler uniquement les usages ?13:58 L’IA Act est-elle assez stricte ?16:35 CompĂ©titivitĂ© vs Ă©thique18:50 La rĂ©gulation de l’IA en Chine et aux États-Unis19:55 Les processus pour aboutir Ă  l’IA Act22:23 Est-ce que les politiciens comprennent l’IA ?24:42 Quels sont les risques de l’IA ?30:44 Dans combien de temps arrivera l’IA gĂ©nĂ©rale ?32:56 En quoi est-ce un dĂ©fi de rĂ©guler l’IA ?34:14 Faut-il prĂ©voir les prochaines capacitĂ©s des IA ?36:01 L’importance du quantitatif dans la gestion des risques de l’IA39:57 Pourquoi la gestion des risques de l’IA n’est pas dĂ©jĂ  quantitative ?41:07 À quoi ressemblerait une gestion quantitative des risques de l’IA ?43:07 État des lieux de la gestion des risques de l’IA actuelle46:06 Quelles bonnes pratiques peut-on importer des autres industries ?48:53 L’importance de l’évaluation de l’IA52:47 CapacitĂ© Ă  mentir et conscience de soi dans les IA55:16 L’importance de la coopĂ©ration internationale en IA57:50 Comment faire respecter les lois en vigueur en IA ?58:45 Les tendances en gouvernance de l’IA59:50 Es-tu optimiste pour le futur de la gouvernance de l’IA ?1:01:14 Message Ă  l’humanitĂ©
  • Il Est Urgent De Mettre l’IA En Pause ! - Maxime Fournes

    01:25:27|
    🌐 Jetez un Ɠil au site web de Pause IA———💾 Soutenez-moi financiĂšrement sur Tipeee, Patreon, PayPal———👉 Suivez-moi sur YouTube, TikTok, Instagram, Facebook, X, Threads, LinkedIn———TIME CODE0:00 Introduction  0:45 La langue de bois dans l’IA  3:36 PrĂ©sentation de l’invité  10:26 Prise de conscience des risques de l’IA  17:42 InterprĂ©tabilitĂ© et alignement des IA  22:10 L’IA de niveau humain est pour bientĂŽt.  25:19 L’histoire du lancement de Pause IA  30:04 Yann Le Cun est-il un imposteur ?  34:29 La commission de l’IA et son rapport  41:36 Les actions et revendications de Pause IA 1/2  42:21 L’IA n’est pas un outil.  46:09 Les actions et revendications de Pause IA 2/2  50:33 Une pause de l’IA est-elle vraiment faisable ?  54:12 Les IA sont plus persuasives que les humains  1:01:43 Les IA au service du cybercrime  1:03:35 BientĂŽt un point de non-retour ?  1:06:52 Les dangers du revenu de base universel  1:11:20 L’autocratie des Big Tech  1:15:04 Les stades du dĂ©ni de l’IA  1:19:38 Comment garder espoir ?  1:23:18 Un message Ă  l’humanitĂ©
  • Les IA Envahissent Nos Vies - Laurence Devillers

    01:11:50|
    💾 Soutenez-moi financiĂšrement sur Tipeee, Patreon, PayPal———👉 Suivez-moi sur YouTube, TikTok, Instagram, Facebook, X, Threads, LinkedIn———TIME CODE0:00 Introduction0:12 PrĂ©sentation de l’invitĂ©e3:07 La place des SHS dans l’IA8:41 CompĂ©titivitĂ© vs Ă©thique17:54 Les IA nous manipulent23:51 Faut-il faire une pause de l’IA ?33:11 L’affective computing43:43 Le sexisme dans l’IA46:53 Des machines Ă©motionnelles ?52:14 Faut-il protĂ©ger les robots ?56:17 À quand la dĂ©mocratisation des robots ?1:01:44 DĂ©tecter le contenu gĂ©nĂ©rĂ© par IA1:09:08 Un message Ă  l’humanitĂ©
  • L’IA Est Le Plus Grand Danger Du SiĂšcle - LĂȘ NguyĂȘn Hoang de Science4All

    01:28:41|
    💾 Soutenez-moi financiĂšrement sur Tipeee, Patreon, PayPal———👉 Suivez-moi sur YouTube, TikTok, Instagram, Facebook, X, Threads, LinkedIn———QUI EST LÊ ?LĂȘ a Ă©tudiĂ© Ă  l’école polytechnique de l’universitĂ© Paris-Saclay, a fait une thĂšse Ă  l’école polytechnique de MontrĂ©al et un post-doc au MIT.Il est cofondateur et prĂ©sident de l'association Tournesol, un projet de recherche participatif pour des algorithmes de recommandation dĂ©mocratiques et cofondateur et PDG de l’entreprise Calicarpa qui offre des formations et des consultations en sĂ©curitĂ© des systĂšmes d'apprentissage automatique.Il travaille sur la recherche en sĂ©curitĂ© de l’IA et est membre du ComitĂ© d'Ă©thique des donnĂ©es et de l'IA d’Orange.Il est Ă©galement particuliĂšrement actif en communication scientifique puisqu’il est auteur ou coauteur de 6 livres et qu’il gĂšre la chaĂźne YouTube Science4All qui totalise 240’000 abonnĂ©s et 19 millions de vues.———TIME CODE0:00 Introduction1:21 La face sombre des IA de recommandation6:30 Et si les IA de recommandation Ă©taient bĂ©nĂ©fiques ?9:38 Fake news vs mute news13:00 Super IA vs IA de recommandation19:18 Quand atteindra-t-on l’IA de niveau humain ?23:01 Pourquoi se focaliser sur les IA de recommandation ?28:15 Faut-il tenir un discours consensuel sur l’IA ?37:44 CompĂ©titivitĂ© vs sĂ©curitĂ©, cybercrime et prĂ©somption de non-conformitĂ©58:26 Faut-il mettre l’IA en pause ?1:02:44 Que penser d’OpenAI ?1:05:08 Que ferait LĂȘ Ă  la place de Sam Altman ?1:09:42 Que penser de l’open source dans l’IA ?1:13:15 Faut-il avoir des relations avec les IA ?1:17:22 Que penser des monopoles dans l’IA ?1:20:48 La vitesse de la lĂ©gislation vs celle de l’IA1:26:49 Un message Ă  l’humanitĂ©
  • Les Deepfakes Menacent Le Monde - GĂ©rald Holubowicz

    01:17:39|
    💾 Soutenez-moi financiĂšrement sur Tipeee, Patreon, PayPal———👉 Suivez-moi sur YouTube, TikTok, Instagram, Facebook, X, Threads, LinkedIn———TIME CODE0:00 Introduction0:17 PrĂ©sentation de l’invitĂ©1:06 DĂ©finition des deepfakes6:27 Les risques des deepfakes pornographiques9:59 Les risques d’arnaques par deepfakes13:24 Les risques des deepfakes politiques18:47 Le risque de post-vĂ©ritĂ© dĂ» aux deepfakes20:57 DĂ©finition des mĂ©dias synthĂ©tiques22:56 Les applications utiles des deepfakes27:13 Les applications des deepfakes dans le divertissement31:34 Les rĂ©gulations sur les deepfakes36:29 Faut-il plus rĂ©guler les deepfakes ?39:19 Comment faire appliquer les lois sur les deepfakes ?40:47 La rĂ©action des rĂ©seaux sociaux face aux deepfakes42:37 Faut-il interdire les deepfakes ?47:39 Peut-on dĂ©tecter les deepfakes ?51:52 Pourquoi dĂ©tecter les deepfakes n’est pas suffisant ?56:07 Les enjeux des IA pour les mĂ©dias1:00:57 À quel point la situation est-elle inquiĂ©tante ?1:05:47 L’affaire entre le New York Times et OpenAI1:09:04 Les mĂ©dias doivent-ils ĂȘtre les garants de la vĂ©ritĂ© ?1:13:34 Un message Ă  l’humanitĂ©
  • Faire Face Aux Risques Des Super IA - Jonathan Claybrough

    01:24:41|
    💾 Soutenez-moi financiĂšrement sur Tipeee, Patreon, PayPal———👉 Suivez-moi sur YouTube, TikTok, Instagram, Facebook, X, Threads, LinkedIn———QUI EST JONATHAN ?AprĂšs avoir travaillĂ© en tant qu’ingĂ©nieur en tĂ©lĂ©communications et rĂ©seaux, ingĂ©nieur logiciel et dĂ©veloppeur, il est aujourd’hui chercheur en sĂ©curitĂ© de l'IA et membre du conseil d’administration d’EffiSciences, une organisation qui agit pour une recherche impliquĂ©e face aux grands problĂšmes de notre monde.Il a Ă©galement cofondĂ© et travaillĂ© pour le rĂ©seau europĂ©en pour la sĂ©curitĂ© de l’IA qui vise Ă  connecter les chercheurs et les dĂ©cideurs pour une intelligence artificielle sĂ»re en Europe. ———TIME CODE0:00 Introduction 0:33 PrĂ©sentation Jonathan1:10 Quels sont les diffĂ©rents types d’IA ?4:52 Va-t-on vers des IA autonomes ?8:19 Pourquoi on prĂ©dit mal les progrĂšs de l’IA ?13:19 Quand arrivera l’IA surhumaine ?23:22 Qu’est-ce qu’un risque existentiel ?26:12 Le risque existentiel de l’automatisation36:17 Les difficultĂ©s pour rĂ©duire ce risque existentiel44:16 Les solutions pour rĂ©duire ce risque existentiel53:55 Alignement vs gouvernance58:23 Peut-on ĂȘtre optimiste sur la mise en place de ces solutions ?1:05:32 Les moyens nĂ©cessaires pour mettre en place ces solutions1:07:34 Un message Ă  l’humanitĂ©1:10:57 Est-ce que les IA vont s’aligner par elles-mĂȘmes ?1:16:27 Les capacitĂ©s des IA auxquelles on n’a pas accĂšs1:18:12 Faut-il mettre les IA en open source ?