{"version":"1.0","type":"rich","provider_name":"Acast","provider_url":"https://acast.com","height":250,"width":700,"html":"<iframe src=\"https://embed.acast.com/$/68b84be4a742b7c8462f293d/69778fe092528306996c0c72?\" frameBorder=\"0\" width=\"700\" height=\"250\"></iframe>","title":"Les algos de la colère : quand le design devient une arme","thumbnail_width":200,"thumbnail_height":200,"thumbnail_url":"https://open-images.acast.com/shows/68b84be4a742b7c8462f293d/1769443058156-7f2eb537-37e9-4b0c-bf32-d60fe580f960.jpeg?height=200","description":"<p><a href=\"https://fr.wikipedia.org/wiki/Romain_Badouard\" rel=\"noopener noreferrer\" target=\"_blank\">Romain Badouard</a> est chercheur en sciences de l'information et spécialiste des nouvelles formes de normativité du web. Concrètement ? Il analyse les mécanismes par lesquels l'architecture technique des plateformes numériques amplifie structurellement les conflits informationnels. Du design persuasif développé à Stanford dans les années 2000 aux algorithmes de recommandation contemporains, Romain déchiffre depuis des années comment ces infrastructures, conçues pour maximiser le temps d'attention à des fins publicitaires, créent une vulnérabilité systémique exploitable par les opérations d'influence.</p><p><br></p><p>Si les campagnes de manipulation prospèrent sur nos réseaux, est-ce seulement parce que des acteurs malveillants les déploient, ou parce que les plateformes ont été délibérément conçues pour amplifier ce qui polarise ? Comment des innovations issues de la recherche académique en psychologie comportementale se sont-elles transformées en outils de captation massive de l'attention ? Et peut-on encore réguler des architectures devenues opaques par nature ?</p><p><br></p><p><br></p><h2>Au programme :</h2><h2><br></h2><ul><li><strong>La captologie et BJ Fogg (Stanford, années 1990)</strong> : genèse du design persuasif, initialement conçu pour encourager des comportements vertueux avant d'être récupéré par l'industrie tech</li><li><strong>L'économie de l'attention</strong> : comment la métrique du \"temps passé\" est devenue le critère de réussite imposé par les fonds d'investissement, orientant toute l'industrie vers la manipulation</li><li><strong>Scroll infini, autoplay, pull-to-refresh</strong> : décryptage des mécanismes techniques inspirés des machines à sous pour maintenir les utilisateurs captifs</li><li><strong>Algorithmes de colère et engagement toxique</strong> : révélations de Frances Haugen sur Facebook, montrant comment les plateformes amplifient les contenus polarisants pour maximiser l'engagement publicitaire</li><li><strong>Shadow banning et opacité stratégique</strong> : ces formes de censure invisible qui permettent aux plateformes de contrôler qui parle et qui est entendu, sans transparence</li><li><strong>Digital Services Act et limites de la régulation par la transparence</strong> : pourquoi les audits européens se heurtent à la complexité technique et à la dépendance au bon vouloir des Big Tech</li><li><strong>Intelligence artificielle et nouvelle asymétrie</strong> : comment la dépendance du régulateur aux entreprises tech s'aggrave avec l'IA, dont même les créateurs ne peuvent expliquer le fonctionnement</li></ul><p><br></p><p><br></p><h2>Ce que vous pourrez entendre :</h2><h2><br></h2><p><em>\"Il y a ce mythe d'ouvrir la boîte noire, ça marche pas comme ça. C'est des architectures d'informations qui sont très complexes, qui n'ont pas été faites pour être transparentes, auditables.\"</em></p><p><br></p><p><em>\"La liberté d'expression absolue, c'est la liberté de ceux qui peuvent se faire entendre. Donc de ceux qui ont de l'argent pour posséder les médias, pour posséder les réseaux.\"</em></p>","author_name":"Guillaume Ledit "}