{"version":"1.0","type":"rich","provider_name":"Acast","provider_url":"https://acast.com","height":250,"width":700,"html":"<iframe src=\"https://embed.acast.com/$/655cd74ba2b4520012fc1948/699dc302149d7119275233e6?\" frameBorder=\"0\" width=\"700\" height=\"250\"></iframe>","title":"La révolution des modèles d'IA spécialisés","thumbnail_width":200,"thumbnail_height":200,"thumbnail_url":"https://open-images.acast.com/shows/655cd74ba2b4520012fc1948/1771946732812-b71d6951-7d46-4eb8-9b8c-f46ec9ca5260.jpeg?height=200","description":"<p>Docteur en intelligence artificielle, Julien Launay a démarré sa carrière au sein de la startup française LightOn, pionnière du calcul photonique. À la fin des années 2010, alors que les premiers modèles Transformer émergent, il travaille sur l’entraînement de modèles de langage à l’aide de coprocesseurs optiques. Il contribue alors à des projets open source comme Bloom. En 2023, il cofonde Adaptive ML avec l'objectif de résoudre l’un des nouveaux défis de l’IA générative : l’adaptation des modèles aux besoins des entreprises. La jeune pousse développe une plateforme exploitant l’apprentissage par renforcement (« reinforcement learning ») pour spécialiser les modèles de langage. L’idée est simple : après une phase de pré-entraînement où le modèle apprend le langage à partir d’immenses corpus de textes, une phase dite de « post-training » permet de l’optimiser pour des tâches précises — par exemple le support client, la détection de fraude ou l’interaction avec des outils internes. </p><p>Cette spécialisation présente un double avantage : améliorer la pertinence des réponses et surtout réduire drastiquement les coûts de calcul. Selon Julien Launay, les entreprises peuvent ainsi diminuer de 50 % à 90 % leurs dépenses liées à l’IA en remplaçant des modèles généralistes par des modèles plus petits et spécialisés. Basée entre Paris, New York et Toronto, Adaptive ML cible principalement de grandes entreprises nord-américaines — notamment dans les télécoms, l’assurance ou le transport aérien — où l’utilisation massive d’agents d’IA génère des volumes colossaux de données et donc des coûts élevés.</p>","author_name":"Challenges"}