Partager

Propagations
Qui sont les entrepreneurs (russes) de la désinfo ?
Avec Kevin Limonier, professeur à l'Institut français de géopolitique et spécialiste de la Russie, nous plongeons dans l'univers méconnu des "entrepreneurs d'influence" russes. Grâce à l'analyse exclusive d'une fuite massive de données, il nous révèle les coulisses de la Social Design Agency, cette "usine à fake" qui opère depuis les périphéries russes pour déstabiliser l'Europe.
De Gambashidze, docteur en science politique devenu chef d'orchestre de la désinformation, aux opérations Doppelganger qui visent nos médias, comment fonctionne cette machine artisanale mais systématique ? Quels liens entre les commentaires trolls sur les réseaux sociaux et les têtes de cochons devant les mosquées françaises ?
Une conversation qui démystifie la puissance russe tout en révélant ses méthodes, pour mieux comprendre les ressorts de cette guerre informationnelle qui se joue aux portes de l'Europe.
Au programme :
- Portrait d'Ilya Gambashidze : du petit entrepreneur provincial au stratège de la désinformation
- La culture soviétique du rapport : comment la bureaucratisation nourrit la propagande
- Opération Doppelganger : cloner les médias français pour saturer l'espace informationnel
- De la Transnistrie aux rues de Paris : les réseaux opaques des opérations hybrides
- Cartographier la déstabilisation : pourquoi la géographie est un savoir émancipateur
- "Nous sommes plus résilients que nous le croyons" : plaidoyer pour l'optimisme démocratique
Ce que vous pourrez entendre :
"Se placer sur le même plan que les agresseurs quand on est agressé est une erreur absolument fondamentale."
"Quand vous regardez dans le détail de la SDA, c'est d'un amateurisme absolument crasse. Et c'est d'ailleurs ce qui nous sauve."
Un podcast proposé & produit par Opsci.ai
Production : Justin Poncet
Animation : Guillaume Ledit
Réalisation : Romane Mugnier
Graphisme : Gautier Gevrey
Générique : Martin Commandeur
More episodes
View all episodes

13. Israël-Hamas : anatomie d'une guerre informationnelle totale
56:11||Saison 1, Ep. 13Avec Amélie Férey, chercheuse à l'IFRI et spécialiste de la légitimation de la force armée, nous analysons deux années de stratégies informationnelles déployées depuis le 7 octobre 2023. Au-delà du conflit sur le terrain, une guerre d'un autre genre mobilise IA générative, amplification algorithmique, doxing et des milliers de relais à travers le monde. Cette analyse documentée cartographie l'écosystème complet d'un affrontement qui préfigure les conflits futurs.Du National Public Diplomacy Directorate israélien aux vidéos d'Abu Obaïda sur Telegram, comment les deux camps ont-ils structuré leurs appareils de communication ? Pourquoi la guerre informationnelle produit-elle une polarisation où chaque camp estime avoir perdu ? Et surtout : que révèle ce laboratoire géant sur notre rapport collectif à l'intégrité des faits ?Au programme :Guerre informationnelle totale : pourquoi le coût prohibitif des conflits armés impose la légitimation permanente des opérations militaires auprès des alliésAsymétrie institutionnelle : l'Hasbara israélienne et le National Public Diplomacy Directorate face à la communication décentralisée du Hamas via TelegramIA générative et contre-factualité : des modélisations 3D des tunnels d'Al-Shifa aux 47 millions de vues d'"All Eyes on Rafah", comment l'image brouille réalité et fabricationCiblage des prescripteurs : pourquoi les chercheurs européens sont devenus des objectifs stratégiques pour l'Israel Defense and Security ForumDoxing et raids numériques : du collectif Shiryon qui liste les étudiants pro-palestiniens aux campagnes d'intimidation visant les employeursFatigue informationnelle et bulles cognitives : quand la saturation produit le retrait, la suspension du jugement et la radicalisation des intimes convictionsPropositions pour l'Europe : batteries anti-désinformation, réseaux sociaux européens et marketing des arméesCe que vous pourrez entendre :"La guerre de l'information polarise les sociétés et fait croire que la vérité n'est plus de ce monde. Les deux camps se replient sur leurs intimes convictions. Résultat : tout le monde est perdant.""La liberté, ce n'est pas la licence. Je me demande si la société française est plus libre avec des gens qui expliquent que la terre est plate qu'avec des gens qui expliquent scientifiquement qu'elle est ronde."
Wikipédia dans la ligne de mire
50:19|Avec Rémy Gerbet, directeur exécutif de Wikimedia France, nous explorons les menaces existentielles qui pèsent sur Wikipédia. Vingt-cinq ans après sa création, l'encyclopédie collaborative est devenue l'un des derniers bastions d'un web où l'information n'appartient pas à des milliardaires et où les algorithmes ne décident pas de ce que vous devez voir. Mais ce modèle est désormais sous pression.Des campagnes politiques qui tentent de manipuler les contenus aux LLM qui aspirent l'encyclopédie sans la citer, en passant par les menaces directes contre les contributeurs : Wikipédia est devenue une cible stratégique dans ce que Gerbet qualifie de "guerre culturelle". Comment l'encyclopédie résiste-t-elle aux opérations d'influence ? Quels mécanismes communautaires permettent de préserver la neutralité de point de vue ? Et pourquoi cette bataille dépasse largement Wikipédia pour concerner l'ensemble de l'espace public numérique ?Au programme :Guerre culturelle : de la conquête de la légitimité (2001-2020) à la bataille pour le contrôle de l'information (post-Covid)Triple menace de l'IA générative : baisse de trafic, érosion épistémologique par absence de sources, et injection de faux contenus dans l'encyclopédie elle-mêmeAffaire Le Point : quand un magazine menace des contributeurs anonymes pour modifier sa pageNeutralité de point de vue : Wikipédia n'est pas neutre, mais applique un principe de représentation proportionnée des perspectivesGrokipédia d'Elon Musk : analyse de cette "encyclopédie d'opinion" entraînée sur X, où les émeutes de Black Lives Matter sont réduites à leur "coût pour les assurances"Projet PROMPT : consortium européen (Opsci, Wikimedia, médias, universités) développant des outils d'IA pour tracer l'origine des narratifs de désinformation et protéger les sources de l'encyclopédieEspace public numérique : pourquoi préserver Wikipédia relève d'un enjeu démocratique face à la fragmentation algorithmique de l'informationCe que vous pourrez entendre :"Les attaques contre Wikipédia ou contre les grands sites de médias d'information, c'est la même philosophie derrière que les attaques contre les universités. Contre une connaissance que l'on ne veut pas voir et une lutte pour prendre le contrôle de l'information, de ce qui est dit et comment c'est dit.""Wikipédia n'est pas neutre. Par contre, Wikipédia a la neutralité de point de vue comme un de ses principes. C'est essayer de représenter à juste proportion tous les points de vue et opinions qui s'expriment sur ce sujet-là."
11. Quantifier la désinfo : mission impossible ?
48:26||Saison 1, Ep. 11Emmanuel Vincent dirige Science Feedback, une organisation de fact-checking qui coordonne SIMODS, la première tentative européenne de mesure structurelle de la désinformation sur les grandes plateformes numériques. En collectant 2,6 millions de posts dans quatre pays et en les faisant vérifier par des fact-checkers, son équipe met des chiffres robustes sur ce que beaucoup ne percevaient qu’intuitivement. L’épisode dissèque ce que ces indicateurs disent (et ne disent pas) de notre écologie informationnelle, et ce qu’ils impliquent pour la régulation au titre du Digital Services Act.Dans un environnement où TikTok peut compter un contenu trompeur sur cinq parmi les posts « d’information », où les comptes les moins crédibles sur YouTube génèrent jusqu’à huit fois plus d’interactions que les autres, peut-on encore se contenter de discours vagues sur la « lutte contre les fake news » ? Comment quantifier la désinformation sans accès réel aux données, quand les plateformes invoquent le DSA tout en en contournant l’esprit ? Et que change le fait que des propriétaires comme Elon Musk assument désormais un usage politique de leurs plateformes ?Au programme :Indicateurs structurels: comment un consortium européen passe des cas isolés à une mesure comparable de la désinformation sur six plateformes, quatre pays et cinq grands thèmes (santé, climat, Ukraine, élections, migrations).Plateformes : 20 % de contenus trompeurs parmi les posts d’info sur TikTok, faible part d’informations crédibles sur X, et exception relative de LinkedIn où la désinformation reste marginale.Prime à la mésinformation : pourquoi, à audience équivalente, les comptes qui publient régulièrement de la désinformation obtiennent jusqu’à 7 à 8 fois plus d’interactions sur Facebook et YouTube.Algorithmes et émotions: comment une simple pondération (un « angry » qui vaut cinq fois un « like ») illustre la manière dont les plateformes privilégient les contenus qui divisent et énervent.Politique et désinformation: la sur-exposition des comptes politiques qui partagent des fausses informations, et ce que cela dit de la polarisation de l’espace public européen.Régulation et transparence : l’accès aux données comme condition minimale pour mesurer les risques systémiques, les angles morts sur la monétisation des contenus trompeurs, et les marges de manœuvre de la Commission européenne.Ce que vous pourrez entendre :« Quand on parle vraiment d’information sur ces sujets-là, sur TikTok, on est à peu près à 20 % de contenus de mésinformation. Je pense que ça veut surtout dire qu’il n’y a pas beaucoup d’information, et donc relativement beaucoup d’informations trompeuses. »« Si vous postez quelque chose qui énerve les gens, c’est cinq fois mieux pour Facebook que si vous postez quelque chose qui les fait aimer. Tant qu’on garde ce type de mécanisme, c’est bon pour leur business, mais c’est très mauvais pour la société. »
10. Mesurer l'opinion à l'ère des propagations
01:10:53||Saison 1, Ep. 10Avec Jean-Yves Dormagen, professeur de science politique et président-fondateur de Cluster 17, on interroge le rôle des sondages dans un environnement saturé de désinformation. À l'heure où les opinions mutent à la vitesse des algorithmes, comment mesurer ce qu'on appelle encore "l'opinion publique"? Entre outil démocratique et instrument potentiel de manipulation, l'art sondagier doit se méfier des propagations, et s'adapter aux mutations en cours.Avec sa méthodologie fondée sur des "clusters" d'opinion, l'institut observe une radicalisation symétrique : les pôles opposés se renforcent, les positions intermédiaires s'effritent. Comment cette dynamique s'articule-t-elle avec les narratifs qui circulent dans nos espaces publics numériques ? Quelle part attribuer aux bulles algorithmiques, aux médias militants, aux structures sociales profondes ?Au programme :Les clusters d'opinion : cartographier la société française à partir de 30 questions sur les enjeux clivants (redistribution, immigration, écologie, élites)Polarisation en temps réel : comment un tiers des Français se concentre désormais aux deux extrêmes (multiculturalistes vs identitaires)Radicalisation symétrique : les conservateurs plus conservateurs, les progressistes plus progressistes, et l'effritement des positions intermédiairesInterconnexion des clivages : l'alignement quasi parfait entre positions identitaires et climato-scepticisme comme symptôme d'une guerre informationnelle interneCNews et bulles algorithmiques : mesurer les effets de renforcement sans sombrer dans le déterminisme médiatiquePanels synthétiques et IA : distinguer les vraies études des produits pirates générés par des machinesMéthodologie et transparence : pourquoi les sondages en ligne offrent une meilleure qualité de données que le téléphoneCe que vous pourrez entendre :"Les individus ne sont pas des pages blanches : ils interprètent l'information à travers leurs valeurs profondes. Mais il serait tout aussi naïf de penser que l'écosystème informationnel n'a aucun effet.""Le risque, c'est que certains préfèrent croire les sondages les plus confortables plutôt que les plus rigoureux. Et c'est précisément pour cela qu'il faut continuer à parler méthodologie, transparence et esprit critique."
9. Des blogs à la culture du LOL : Internet, contre-espace public
01:00:16||Saison 1, Ep. 9Avec Arnaud Mercier, professeur en sciences de l'information et de la communication à l'IFP et à l'Université Paris-Panthéon-Assas, on analyse comment les réseaux sociaux ont transformé la nature même de la désinformation. Au-delà de la simple accélération des phénomènes anciens, les plateformes numériques ont créé un écosystème où la propagande peut se diffuser sans intermédiation journalistique, activée par des algorithmes et amplifiée par des "idiots utiles" qui relaient sans conscience. De l'émergence de la "démoqueratie" à la fragilisation des figures d'autorité, le directeur du programme européen De facto déchiffre dans cet épisode les ressorts d'une mutation profonde de l'espace public.Les réseaux sociaux n'ont pas seulement accéléré la désinformation : ils ont démocratisé l'accès à un contre-espace public qui échappe au gatekeeping médiatique traditionnel. Comment cette horizontalité revendiquée fragilise-t-elle les fondements de la délibération démocratique ? Quels outils mobiliser face à l'instrumentalisation des biais cognitifs ? Et comment réguler sans tomber dans l'accusation de censure ?Au programme :L'effondrement du gatekeeping – Comment les plateformes ont contourné les "fourches caudines" des journalistes pour créer un accès direct au publicLe référendum de 2005 comme point de bascule – Étienne Chouard, les blogs et l'émergence d'un contre-espace public face à "l'élite politico-médiatique"La "démoqueratie" : culture du LOL et contestation par la dérision – Des hashtags détournés (#MoiPrésidentDeLaRépublique) aux mèmes comme affirmation citoyenne du "nous ne sommes pas dupes"Stratégies d'adaptation politique – De Macron avec McFly et Carlito à Gavin Newsom "newsomisant" les tweets de Trump : comment les élus épousent (ou singent) les codes de l'horizontalitéArmer cognitivement les citoyens – Le "kit de débiaisement" et les "semiots check" : outiller le regard pour repérer les manipulations par l'imageRégulation sans censure – Du Digital Services Act européen à Viginum : comment structurer une réponse institutionnelle face aux ingérences étrangèresCe que vous pourrez entendre :"Vous n'avez pas besoin de construire votre propre réseau : vous mettez un input dans une machine et après, ça marche. C'est un peu comme le ricochet, s'il y a le premier coup. Et après, c'est fini.""La démoqueratie, c'est une affirmation citoyenne de 'nous ne sommes pas dupes'. Arrêtez de nous prendre pour des jambons parce qu'on est capable de détourner, de décrypter vos ambitions d'influence."
8. À la rencontre de l'écosystème anti-désinfo
40:58||Saison 1, Ep. 8Épisode spécial depuis Ljubljana : on vous emmène au cœur du sommet Disinfo25, grand rendez-vous annuel de plus de 600 acteurs européens mobilisés contre la désinformation. Chercheurs, journalistes, entrepreneurs de la tech, représentants d'ONG et d'institutions se réunissent grâce à EU DisinfoLab pour faire le point sur l'état de la lutte.Depuis le Cankarjev Dom, ce reportage dresse la cartographie d'un écosystème qui se structure, se professionnalise et tente de tenir face à des menaces qui s'intensifient. De Paris à Bucarest, de Bratislava à Nairobi, quelles sont les forces et failles de cette résistance collective ?Au programme :Hervé Letoqueux (Check First) : du service public au privé, portrait d'un secteur qui se professionnaliseGénéral Bruno Courtois (Cercle Pégase) : comment l'industrie française se structure pour répondre à la menaceSasha Morinière (Conspiracy Watch) : internationaliser la lutte contre le complotismeAndréa Nistor (Roumanie) : course contre la montre avant les élections de 2028 après l'annulation du scrutin 2024Sara Solarova (AI Auditology) : forcer les plateformes à la transparence par l'audit algorithmiqueElodie Ho (OMS Afrique) : coordonner 47 pays africains contre la désinformation en santé publiqueCe que vous pourrez entendre :"C'est un écosystème qui s'est beaucoup professionnalisé, beaucoup structuré et qui s'apparente à ce qui a pu se passer autour de la cyber il y a une quinzaine d'années.""L'eau ne bout jamais à 99°, elle bout à 100°. Si nous ne voulons pas rater notre chance aux prochaines élections, nous devons explorer toutes les pistes.""Nous sommes en crise. L'ère de la désinformation est là. Et c'est particulièrement problématique avec les systèmes de recommandation."
Quand la tech monte au front
01:02:47|Avec Julien Nocetti, chercheur associé à l'IFRI et spécialiste de la géopolitique de l'IA, on déchiffre un phénomène essentiel : la militarisation de l'intelligence artificielle et l'émergence des géants technologiques comme acteurs géopolitiques de premier plan. De Gaza à l'Ukraine, l'IA redessine en effet les contours de la guerre contemporaine.Comment les entreprises privées sont-elles devenues capables d'agir plus vite (et parfois plus fort) que les diplomaties traditionnelles ? Pourquoi Google est-il revenu sur l'interdiction de travailler avec le Pentagone ? Comment Elon Musk peut-il peser sur l'issue d'un conflit armé ? Et que révèlent ces mutations sur l'instrumentalisation des interdépendances technologiques ? Autant de questions auxquelles on tente de répondre (en parlant vite) ! Au programme :L'IA comme facteur de recomposition géopolitique : au-delà du champ de batailleUkraine et Gaza : terrains d'expérimentation de l'automatisation militaireLe "moment Maven" : quand Google fait volte-face et lève son interdiction militairePalantir, Anduril, Clearview AI : les pure players de la guerre algorithmiqueStarlink en Ukraine : quand Elon Musk devient acteur géopolitiqueLa collusion Big Tech / appareils d'État : États-Unis, Chine, RussieDeepfakes et opérations d'influence : l'IA dans la guerre informationnelleL'Europe face au "complexe techno-industriel" : quelle souveraineté possible ?Ce que vous pourrez entendre :"L'IA, ce n'est pas une arme à part entière. C'est une technologie duale qui présente des usages divers et variés, des applications possibles y compris dans le domaine militaire qui sont très nombreuses.""L'Ukraine est devenue dépendante d'acteurs technologiques extra-européens pour sa propre survie. Un contrepoint rarement analysé dans cette guerre.""Nous, Européens, devons être en mesure de lutter en même temps contre des menaces informationnelles qui viennent de Russie, de Chine, et en même temps, des États-Unis via toute la sphère MAGA."
5. Bienvenue dans l'ère des propagations
01:05:43||Saison 1, Ep. 5Avec Dominique Boullier, sociologue et professeur émérite à Sciences Po, on plonge dans les fondements théoriques de la guerre informationnelle. Des fondements qu'il pose dans Propagations (Armand Colin, 2023) en proposant un nouveau paradigme pour comprendre comment les idées, les mèmes et les récits circulent et nous agissent à l'ère numérique. Au-delà des structures sociales et des préférences individuelles, les propagations constituent un troisième point de vue essentiel sur le social. Ces entités circulantes ont acquis un pouvoir d'agir propre, amplifié par les plateformes et leurs algorithmes. Comprendre leurs mécanismes, c'est saisir la guerre informationnelle autrement.De Pepe the Frog aux stratégies russes de déstabilisation, comment les propagations échappent-elles au contrôle de leurs émetteurs ? Pourquoi Twitter était-il une "machine virale" ? Et surtout : peut-on encore gouverner ces phénomènes sans sombrer dans la censure ?Au programme :Le troisième paradigme : pourquoi les propagations constituent un angle mort des sciences socialesTwitter, "drosophile des sciences sociales" : ce que les réseaux nous ont appris sur la viralitéPepe the Frog et l'agentivité des mèmes : quand les symboles prennent leur autonomieL'immédiateté pulsionnelle : comment le rythme numérique dégrade l'espace publicPropagande vs propagation : les nouvelles stratégies d'influence à l'ère des variants informationnelsRalentir pour résister : pistes concrètes pour reprendre le contrôleCe que vous pourrez entendre :"On ne peut pas contrôler les propagations. Tous les spin-doctors peuvent tenter de les contrôler, mais on ne contrôle pas.""Les propagandistes ne font plus de la propagande. Ils font de la propagation. Ils lancent plusieurs variants sans savoir lequel va prendre.""Je ne crains pas les hallucinations de l'IA, je crains les hallucinés de l'IA."