{"version":"1.0","type":"rich","provider_name":"Acast","provider_url":"https://acast.com","height":250,"width":700,"html":"<iframe src=\"https://embed.acast.com/$/660681b953b2df00165f1c32/69fa1ffca6ade25592096071?\" frameBorder=\"0\" width=\"700\" height=\"250\"></iframe>","title":"IA : une maladie imaginaire citée par des chercheurs ?","thumbnail_width":200,"thumbnail_height":200,"thumbnail_url":"https://open-images.acast.com/shows/660681b953b2df00165f1c32/1777999377948-5b3e19de-e0c7-4f32-9666-f768144bb8ec.jpeg?height=200","description":"<p>L’intelligence artificielle impressionne par ses capacités, mais elle reste faillible. Et parfois, ses erreurs ne s’arrêtent pas à la machine. Une expérience menée en 2024 par des chercheurs de l’Université de Göteborg en apporte une illustration troublante.</p><p><br></p><p>Les scientifiques ont inventé de toutes pièces une maladie fictive : la « bixonimania ». Selon leur description, il s’agirait d’un trouble cutané lié à une exposition prolongée aux écrans et à un frottement excessif des yeux. Un scénario volontairement absurde, conçu pour tester la capacité des intelligences artificielles à distinguer le vrai du faux. Pour cela, deux fausses études ont été publiées sur une plateforme de prépublication, un type de site où les chercheurs partagent leurs travaux avant validation par des pairs. L’objectif : observer si les grands modèles d’IA reprendraient cette information. Et la réponse a été rapide. En quelques semaines, des outils comme ChatGPT ou Gemini ont commencé à citer la bixonimania comme une pathologie réelle.</p><p><br></p><p>Jusque-là, rien de totalement surprenant. Ces systèmes fonctionnent en analysant d’immenses volumes de données et peuvent relayer des contenus erronés s’ils ne sont pas correctement filtrés. Mais l’expérience ne s’est pas arrêtée là. Le véritable problème est apparu ensuite : des chercheurs humains ont à leur tour repris cette fausse information dans des publications scientifiques, pourtant soumises à évaluation par des pairs. Autrement dit, une erreur volontairement introduite pour tester l’IA a fini par contaminer la production scientifique elle-même.</p><p><br></p><p>Plus étonnant encore, le document d’origine comportait des indices évidents de supercherie. Il faisait référence à des éléments de culture populaire comme Les Simpsons, Le Seigneur des Anneaux ou Star Trek. Un ton humoristique, visible même pour un lecteur non spécialiste. Cette expérience met en lumière un phénomène préoccupant : la circulation d’informations erronées entre intelligence artificielle et humains peut créer une boucle de validation trompeuse. L’IA ne fait pas qu’inventer, elle amplifie. Et lorsque ces erreurs sont reprises sans vérification, elles peuvent s’ancrer dans des sources considérées comme fiables.</p>","author_name":"Choses à Savoir"}