{"version":"1.0","type":"rich","provider_name":"Acast","provider_url":"https://acast.com","height":250,"width":700,"html":"<iframe src=\"https://embed.acast.com/$/6484c005e432cf001030c493/69e7c1ab0b4baf3bf26fcac4?\" frameBorder=\"0\" width=\"700\" height=\"250\"></iframe>","title":"#70 - Loubna Ben Allal - Le secret des meilleures IAs","thumbnail_width":200,"thumbnail_height":200,"thumbnail_url":"https://open-images.acast.com/shows/6484c005e432cf001030c493/1776798975780-07296e19-4db4-4235-a3b8-3517088e22dc.jpeg?height=200","description":"<p>Il y a 2 ans, la revue scientifique Nature prédisait l’effondrement des IAs, “empoisonnées” par leur propre données. </p><p>D’après cette ingénieure IA, ce n’est pas prêt d’arriver. ❌ </p><p> </p><p>Vous en avez sans doute entendu parler. </p><p> </p><p>Encore aujourd’hui, la théorie dite du “model collapse” est très populaire. </p><p>Elle est même largement relayée par des influenceurs extrêmement crédibles. </p><p> </p><p>Pourtant, cette théorie… </p><p>C’est n’importe quoi. </p><p> </p><p>L’idée est simple. </p><p> </p><p>Un LLM produit des textes “moyens”.</p><p>En tout cas, par rapport aux textes utilisés pour l’entrainer.</p><p><br></p><p>Bientôt, 90% des textes disponibles seront générés par des LLMs.</p><p>Ils seront donc très moyens.</p><p>Et aussi, beaucoup moins diversifiés.</p><p><br></p><p>En ré-entrainant un modèle sur ces nouveaux jeux de données, le LLM va devenir encore plus “moyen”.</p><p><br></p><p>C’est d’ailleurs même pire.</p><p><br></p><p>Dans l’article paru dans Nature, les chercheurs simulent plusieurs “cycles”.</p><p><br></p><p>Entrainement.</p><p>Génération de textes.</p><p>Ré-entrainement.</p><p>Re-génération de textes.</p><p><br></p><p>Et ainsi de suite.</p><p><br></p><p>À la fin, le LLM est tellement en PLS, qu’il est quasiment incapable de produire du texte cohérent.</p><p><br></p><p>La démonstration est implacable :</p><p>Les LLMs, nourris par leurs propres données, finissent par perdre les pédales.</p><p><br></p><p>Sauf que…</p><p><br></p><p>Chez les ingés IA, on ne lève même pas un sourcil. 😏</p><p><br></p><p>On regarde l’article.</p><p>Et on se marre. 😅</p><p><br></p><p>Loubna fait justement partie de ces ingénieurs.</p><p><br></p><p>Elle sait TRÈS BIEN comment sont entrainés les meilleurs LLMs…</p><p>Puisque justement, elle crée des “petits” modèles open-source, capable de titiller ceux des géants 💪</p><p><br></p><p>Alors comment fait-on pour empêcher les modèles de s’effondrer ?</p><p><br></p><p>Réponse avec Loubna Ben Allal dans ce nouvel épisode !</p><p><br></p><p>Bonne écoute 🎧</p><p><br></p><p><br></p><p>PS : dites-moi ce que vous pensez de l'épisode en commentaire (et surtout, abonnez-vous !)</p><p><br></p><p>---------------------------------</p><p><br></p><p>Retrouvez Loubna sur Linkedin : https://www.linkedin.com/in/loubna-ben-allal-238690152</p><p><br></p><p>--------------------------------</p><p><br></p><p>Je suis Mathieu Sanchez, CTO d'Acasi, et pour me suivre, c'est principalement sur Linkedin : https://www.linkedin.com/in/matsanchez/</p><p><br></p><p>Vous pouvez aussi suivre Tronche de Tech, sur vos réseaux favoris :</p><p>- Linkedin : https://www.linkedin.com/company/tronche-de-tech/</p><p>- Instagram : https://www.instagram.com/tronchedetech/</p><p>- TikTok : https://www.tiktok.com/@tronchedetech</p><p>- Twitter : https://twitter.com/TroncheDeTech</p><p><br></p><p>Et nous rejoindre sur le Discord : https://discord.gg/EET4MfwXKHr</p>","author_name":"Mathieu Sanchez"}