Partager

cover art for Les politiciens de droite sont-ils les plus beaux ?

Choses à Savoir SCIENCES

Les politiciens de droite sont-ils les plus beaux ?

Plusieurs études récentes semblent montrer que, pour choisir un candidat, les électeurs ne se fondent pas seulement sur son programme. Son physique jouerait aussi un rôle notable dans le vote.


Ainsi a-t-il été demandé à plus de 680 volontaires suisses de deviner quels ont été les vainqueurs des élections législatives françaises de 2002. Sans connaître ces candidats, ils ont pourtant désigné les vainqueurs dans plus de 70 % des cas.


Ils se sont fondés, pour ce faire, sur leur seul physique. Ils ont alors sélectionné les candidats qui leur paraissaient dégager une impression d'autorité et de leadership, largement reliée, elle-même, à la conformité aux canons de beauté en vigueur.


Une étude finlandaise, concernant plus de 2.500 non Finlandais, amenés à mesurer la beauté de candidats à diverses élections, apporte des enseignements supplémentaires. En effet, si l'on en croit les résultats, non seulement les candidats classés à droite (ce que les participants ignoraient) ont été jugés plus séduisants, mais leur physique leur aurait valu davantage de suffrages.


Le sentiment que l'apparence physique des candidats compte dans l'appréciation portée par les électeurs est souvent prise en compte par les hommes politiques. Ils sont conscients, en effet, que leur "image" auprès du public en dépend dans une large mesure.


Aussi beaucoup d'entre eux essaient de perdre quelques kilos, sont attentifs à leur manière de s'habiller ou se plient volontiers aux contraintes du maquillage avant d'apparaître en public.


Mais, pour certains observateurs, ce diktat du physique ne s'impose pas tant aux candidats en fonction de leur appartenance politique qu'en fonction de leur genre. Si, selon l'étude finlandaise déjà citée, les candidats de droite sont jugés plus séduisants, les femmes seraient encore plus dépendantes de leur physique.


Et si un physique avantageux peut être un atout chez un candidat, il peut nuire à une candidate. Des qualités particulières seront associées à la beauté physique chez un homme. Mais le physique avantageux d'une femme pourra l'assimiler à une courtisane, qui se sert de ses charmes pour conquérir le pouvoir.


More episodes

View all episodes

  • Comment le “loup terrible” est-il revenu à la vie ?

    02:18|
    Non, ce n’est pas un scénario de science-fiction. Et pourtant, en 2025, une start-up américaine de génie génétique, Colossal Biosciences, affirme avoir réussi l’impensable : ressusciter une créature disparue depuis des millénaires, le loup terrible ou Canis dirus. Ce prédateur emblématique de l’Amérique du Nord, plus massif que le loup gris et rendu célèbre par la série Game of Thrones, a disparu il y a plus de 10.000 ans. Mais trois petits louveteaux blancs, prénommés Remus, Romulus et Khaleesi, viennent tout juste de voir le jour en laboratoire. Alors… miracle ou manipulation ?Tout commence par une dent vieille de 13.000 ans et un fragment de crâne datant de 72.000 ans. Grâce à ces fossiles, les scientifiques ont pu extraire de l’ADN ancien, un exploit en soi. En comparant ce patrimoine génétique à celui du loup gris actuel, les chercheurs ont identifié les différences clés qui caractérisaient le loup terrible. Résultat : 20 modifications génétiques ont été apportées dans 14 gènes du loup gris. Ensuite, les cellules modifiées ont été clonées, puis implantées dans des ovules de chiens domestiques. Et ça a marché.Mais attention, ces animaux ne sont pas des copies exactes du Canis dirus. Comme le souligne la paléontologue Julie Meachen, ce sont des créatures nouvelles, génétiquement proches, mais pas identiques. L’objectif de Colossal n’est pas de recréer des espèces à 100 %, mais de produire des individus « fonctionnels », c’est-à-dire ressemblants, capables d’évoluer dans un environnement donné.Pourquoi faire cela ? Selon Colossal, il s’agit de repousser les limites de la biologie pour mieux préserver la biodiversité. En ressuscitant des espèces éteintes, ils espèrent aussi sauver celles qui sont en voie de disparition. Par exemple, ils ont déjà cloné quatre loups rouges, une espèce menacée. Et ils ambitionnent désormais de ramener à la vie le mammouth laineux d’ici 2028, ainsi que le dodo ou le tigre de Tasmanie.Mais ce projet fascine autant qu’il inquiète. Quel rôle joueraient ces nouveaux animaux dans nos écosystèmes ? Seront-ils vraiment utiles ? Ou risquent-ils de perturber des équilibres fragiles ? Le professeur Christopher Preston, spécialiste de philosophie environnementale, met en garde : « Il est difficile d’imaginer que des loups géants soient relâchés un jour dans la nature. »Finalement, la science montre ici qu’elle en est capable. Mais la grande question demeure : faut-il vraiment ressusciter le passé ?
  • Pourquoi les voitures autonomes sont-elles classées de 0 à 5 ?

    02:16|
    Les voitures autonomes sont souvent entourées de mystère et d’anticipation, mais elles répondent à une classification très rigoureuse : une échelle allant de 0 à 5. Cette échelle a été établie par la SAE International (Society of Automotive Engineers), afin de définir clairement les différents niveaux d’autonomie des véhicules. Pourquoi cette distinction est-elle si importante ? Parce qu’entre une voiture simplement équipée d’un régulateur de vitesse et un véhicule capable de se passer totalement de conducteur, il y a tout un monde !Niveau 0 : aucune automatisation.À ce niveau, c’est le conducteur humain qui fait tout. Il peut y avoir des alertes ou des aides au freinage d’urgence, mais elles ne prennent pas le contrôle du véhicule. En gros, on est encore dans la voiture "classique".Niveau 1 : assistance au conducteur.Ici, certaines fonctions comme le régulateur de vitesse adaptatif ou l’assistance au maintien dans la voie peuvent aider, mais jamais en même temps. Le conducteur reste pleinement responsable de la conduite.Niveau 2 : automatisation partielle.C’est ce que l’on retrouve sur beaucoup de voitures modernes. Le véhicule peut gérer la direction et la vitesse simultanément, mais le conducteur doit garder les mains sur le volant et les yeux sur la route. Tesla, par exemple, propose ce niveau avec son "Autopilot".Niveau 3 : automatisation conditionnelle.Le véhicule peut conduire tout seul dans certaines situations – par exemple sur autoroute – et il est capable de surveiller l’environnement. Mais il doit pouvoir redonner le contrôle à l’humain en cas de besoin. À ce niveau, le conducteur peut brièvement détourner son attention… mais pas faire la sieste !Niveau 4 : automatisation élevée.Ici, le véhicule peut se débrouiller tout seul dans des zones précises, appelées "zones géofencées", comme certains centres-villes ou campus. Pas besoin de conducteur du tout… tant qu’on reste dans les conditions prévues. Ce niveau est en test chez Waymo ou Cruise.Niveau 5 : automatisation complète.C’est le Graal : une voiture sans volant, sans pédales, sans conducteur. Elle pourrait fonctionner partout, à toute heure, sans intervention humaine. Mais ce niveau reste encore théorique aujourd’hui.Cette classification est essentielle pour établir des normes, fixer des responsabilités juridiques, et guider le développement technologique. Car derrière l’autonomie, se cachent des enjeux cruciaux : sécurité, éthique, urbanisme, emploi… Bref, ce n’est pas qu’une affaire de robots au volant, c’est un changement de civilisation en marche.
  • Comment les médecins du Moyen Age parvenaient-ils à leur diagnostic ?

    02:53|
    Au Moyen Âge, l’uroscopie était l’un des outils médicaux les plus utilisés pour diagnostiquer les maladies. Pratiquée depuis l’Antiquité, cette méthode consistait à examiner l’urine du patient — sa couleur, son odeur, sa consistance, voire parfois son goût — afin de détecter des déséquilibres dans le corps. Bien qu’aujourd’hui considérée comme obsolète, l’uroscopie reposait sur une vision scientifique cohérente pour l’époque, fondée sur la théorie des humeurs.Le fondement théorique : la médecine humoraleLa médecine médiévale s’appuyait sur la doctrine des quatre humeurs, héritée de Hippocrate et Galien : sang, phlegme (ou lymphe), bile jaune et bile noire. Ces humeurs étaient censées réguler la santé physique et mentale. Un déséquilibre entre elles provoquait les maladies. L’urine était vue comme un reflet direct des humeurs internes, et donc un indicateur privilégié de l’état de santé.Les médecins pensaient que les organes filtraient les humeurs, et que l’urine en représentait le produit final. Analyser l’urine, c’était ainsi avoir accès à une sorte de "miroir du corps". L’uroscopie devenait alors un examen central dans le diagnostic médical.Une observation rigoureuse… mais limitéeL’analyse de l’urine reposait sur plusieurs critères très codifiés. Les médecins observaient :La couleur : du blanc au noir, en passant par le jaune, le rouge ou le verdâtre, chaque teinte était associée à un trouble particulier.La clarté : une urine trouble ou opaque était suspecte.Les dépôts : des résidus au fond du flacon indiquaient une mauvaise "coction" (digestion des humeurs).L’odeur : jugée révélatrice d’excès de bile ou de pourriture interne.La texture : une urine "filante" ou trop épaisse était vue comme un mauvais signe.Et parfois, le goût (rarement pratiqué, mais mentionné dans certains traités).Les médecins utilisaient un flacon sphérique en verre transparent, souvent appelé matula, pour observer l’urine à la lumière du jour. Des tables d’uroscopie, illustrées de couleurs et de formes types, servaient de guide comparatif. Ces manuels, très répandus, faisaient partie intégrante de la formation médicale.Entre science et symbolismeL’uroscopie était considérée comme une méthode sérieuse et scientifique. Pourtant, elle avait ses limites : elle se fondait sur des observations empiriques non vérifiées expérimentalement, et sans lien réel avec la physiologie humaine telle que nous la comprenons aujourd’hui. Néanmoins, elle représentait une tentative méthodique d’objectiver les symptômes, à une époque où l’imagerie médicale n’existait pas.En résumé, l’uroscopie médiévale était un mélange de science pré-moderne, de symbolisme médical et d’observation empirique. Si elle nous paraît aujourd’hui dépassée, elle témoigne d’une volonté ancienne de comprendre le corps humain à travers les moyens disponibles.
  • L’Homo erectus a-t-il disparu à cause de sa paresse ?

    02:34|
    L’idée que l’Homo erectus aurait disparu à cause de sa paresse a fait grand bruit en 2018, à la suite d’une étude menée par une équipe d’archéologues australiens sur un site situé à Saffaqah, en Arabie Saoudite. Mais derrière ce titre accrocheur se cache une réalité bien plus nuancée et, surtout, scientifique.L’Homo erectus, espèce humaine ancienne apparue il y a environ 1,9 million d’années, a longtemps été vue comme une espèce pionnière : première à sortir d’Afrique, première à utiliser le feu, à fabriquer des outils bifaces perfectionnés, et à occuper des environnements variés. Cependant, les recherches menées à Saffaqah ont révélé un comportement surprenant : les Homo erectus locaux semblaient éviter les efforts inutiles, tant pour fabriquer leurs outils que pour exploiter les ressources de leur environnement.Des outils simples malgré des ressources meilleures à proximitéSur le site étudié, les chercheurs ont observé que les Homo erectus utilisaient des pierres de mauvaise qualité, disponibles localement, plutôt que de parcourir quelques kilomètres supplémentaires pour accéder à des roches bien meilleures pour la fabrication d’outils, comme le quartzite. En comparaison, d’autres espèces humaines, comme les Néandertaliens ou Homo sapiens, ont démontré une plus grande mobilité et une capacité à rechercher les meilleurs matériaux, même s’ils étaient éloignés.Un manque d’adaptationCe comportement est interprété non pas comme de la "paresse" au sens moral du terme, mais comme un manque de flexibilité comportementale. L’Homo erectus semble avoir conservé des stratégies de subsistance simples et peu adaptatives, même lorsque les conditions environnementales devenaient plus arides ou plus contraignantes. Contrairement à Homo sapiens, il n’a pas su adapter ses pratiques face au changement climatique ou à la rareté des ressources. Ce manque d’innovation et de plasticité aurait limité sa capacité à coloniser de nouveaux territoires ou à faire face à des crises écologiques.Une extinction multifactorielleLa disparition de l’Homo erectus, il y a environ 100 000 ans, est donc probablement le résultat de facteurs multiples : changements climatiques, concurrence avec d’autres espèces humaines plus évoluées (comme Homo sapiens), isolement géographique, et incapacité à innover ou à s’adapter rapidement. La "paresse" évoquée n’est qu’un symptôme comportemental, vu aujourd’hui par les scientifiques comme un indice de stagnation culturelle et technologique.En conclusion, l’Homo erectus n’a pas disparu parce qu’il était "fainéant", mais parce qu’il était moins réactif face aux défis de son environnement. Une leçon précieuse sur le rôle de l’innovation, de la mobilité et de l’adaptabilité dans la survie des espèces.
  • Quel est le plus gros séisme dans l'histoire de la France ?

    01:46|
    Le plus gros séisme jamais enregistré en France métropolitaine a eu lieu le 11 juin 1909, près de la ville de Lambesc, dans le département des Bouches-du-Rhône, en région Provence-Alpes-Côte d’Azur. Ce tremblement de terre, connu sous le nom de séisme de Lambesc, est le plus puissant que la France ait connu depuis que les mesures sismologiques existent.Une magnitude de 6,2Ce séisme a atteint une magnitude estimée à 6,2 sur l’échelle de Richter, ce qui en fait un événement majeur pour un pays comme la France, situé en zone de sismicité modérée. L’épicentre était situé à quelques kilomètres au nord-est d’Aix-en-Provence. À l’époque, les sismomètres étaient encore rudimentaires, mais les témoignages et les dégâts observés ont permis aux scientifiques modernes de reconstruire précisément sa puissance.Des dégâts humains et matériels importantsLe tremblement de terre s’est produit vers 21 h 15. Il a été ressenti sur plus de 300 kilomètres à la ronde, jusqu’à Lyon au nord et Gênes à l’est. L’intensité maximale, évaluée à VIII sur l’échelle macrosismique européenne (EMS-98), indique des dégâts très importants dans les zones proches de l’épicentre.Le village de Rognes fut presque entièrement détruit. 46 personnes ont trouvé la mort, et plusieurs centaines d’habitants ont été blessés. De nombreux bâtiments, souvent en pierre et mal conçus pour résister aux secousses, se sont effondrés ou ont été gravement endommagés. Les chutes de pierres, les fissures dans le sol et les glissements de terrain ont également été signalés.Origine géologiqueCe séisme s’explique par la géologie complexe de la région. La Provence est marquée par la convergence des plaques tectoniques africaine et eurasienne, bien que située loin de leur frontière directe. Cette pression tectonique engendre des failles actives dans le sous-sol, notamment la faille de la Trévaresse, responsable du séisme de 1909. Cette faille, longue de 20 km, a subi un glissement brutal ce jour-là, libérant une énorme quantité d’énergie.Un tournant pour la sismologie françaiseLe séisme de Lambesc a marqué un tournant dans l’étude des tremblements de terre en France. Il a contribué à la création des premières cartes de zonage sismique, et à un intérêt renouvelé pour la surveillance géologique dans le sud du pays. Aujourd’hui, bien que des séismes plus faibles soient fréquents, aucun n’a égalé celui de 1909 en intensité et en impact humain.En résumé, le séisme de Lambesc reste un événement de référence en matière de risque sismique en France, rappelant que même loin des grandes zones de subduction, la Terre peut parfois trembler avec violence.
  • Quel est le “problème de la secrétaire” ?

    02:40|
    Le “problème de la secrétaire”, aussi appelé problème du mariage ou problème du choix optimal, est un casse-tête mathématique fascinant qui illustre comment prendre la meilleure décision quand on n’a pas toutes les informations dès le départ. Il s’agit d’un exemple classique en théorie des probabilités et en prise de décision sous incertitude.Voici le scénario : vous devez embaucher une secrétaire (ou choisir un partenaire, un appartement, etc.). Vous interviewez un nombre connu de candidats, disons 100, un par un, dans un ordre aléatoire. Après chaque entretien, vous devez immédiatement décider oui ou non. Si vous refusez un candidat, vous ne pouvez pas revenir en arrière. L’objectif est de sélectionner le meilleur candidat parmi les 100.Comment maximiser vos chances de réussir ? La solution peut sembler contre-intuitive, mais elle a été prouvée mathématiquement.La stratégie optimaleLa méthode repose sur une règle simple appelée la règle des 37 %. Elle dit ceci :Commencez par rejeter automatiquement les 37 premiers candidats (environ 37 % de 100), sans en choisir aucun.Pendant cette phase, vous observez et mémorisez le meilleur candidat rencontré.Ensuite, continuez à interviewer les autres.Dès que vous tombez sur un candidat meilleur que tous ceux vus jusque-là, vous l’embauchez immédiatement.Cette stratégie vous donne environ 37 % de chances de choisir le meilleur candidat — ce qui est étonnamment élevé dans un processus basé sur le hasard. Ce résultat est tiré de calculs mathématiques précis, où la probabilité maximale d’obtenir le meilleur choix converge vers 1/e, soit environ 0,368, d’où la fameuse règle des 37 %.Pourquoi cela fonctionne-t-il ?Cette méthode crée un équilibre entre observation (pour établir un standard de qualité) et action (pour ne pas manquer une bonne opportunité). Rejeter les premiers candidats permet de calibrer votre jugement, de comprendre ce qu’est un “bon” candidat dans le contexte. Ensuite, dès qu’un profil dépasse ce standard, vous vous engagez, car statistiquement, vos chances de tomber sur mieux deviennent de plus en plus faibles.Une leçon plus largeCe problème a des applications bien au-delà des ressources humaines : choisir un appartement, un partenaire amoureux, une offre d’achat… Il s’applique chaque fois qu’il faut prendre une décision irréversible avec des options successives. La science nous montre ici qu’il y a une méthode rationnelle pour décider dans l’incertitude, même si cela reste probabiliste, et non une garantie absolue.Ainsi, derrière ce problème se cache une profonde leçon sur l’art de choisir : observer d’abord, puis agir vite — une stratégie aussi élégante que puissante.
  • Comment créer un .pdf plus grand que l'Univers ?

    02:32|
    Créer un fichier plus grand que l’univers : cela semble absurde, voire impossible. Et pourtant, c’est précisément le défi qu’Alex Chan, un ingénieur logiciel britannique, a tenté de relever, avec une pointe d’humour mais aussi une solide démonstration des limites et bizarreries de l’informatique moderne.Tout commence par une idée un peu folle : peut-on créer un fichier informatique dont la taille dépasse celle de l’univers observable ? Pour situer, l’univers visible contiendrait environ 108010^{80} atomes. Un fichier de cette taille, en octets, serait donc littéralement inconcevable à stocker dans le monde réel. Mais Alex Chan ne cherche pas à le stocker… juste à le déclarer.Il utilise un format bien connu des informaticiens : le format ZIP. Les fichiers ZIP permettent de compresser des données, mais surtout, ils reposent sur une structure logique qui référence les fichiers contenus. En d’autres termes, on peut indiquer qu’un fichier compressé contient un fichier de plusieurs zettaoctets (ou plus), sans réellement inclure les données correspondantes. Cette astuce est connue sous le nom de "zip bomb", une forme d’attaque qui consiste à piéger un fichier compressé pour qu’il occupe une taille gigantesque une fois extrait, mettant ainsi à genoux les logiciels ou systèmes qui tentent de le lire.Mais Alex Chan pousse l’idée plus loin : il s’appuie sur les spécificités du format ZIP64, une extension du format ZIP qui permet de dépasser les limitations initiales de 4 Go par fichier. Grâce à une manipulation astucieuse des en-têtes ZIP (qui décrivent les tailles et emplacements des fichiers à l’intérieur de l’archive), il crée une structure vide mais déclarée comme contenant un fichier de 4,5 yottaoctets – soit plus que la quantité totale d’information pouvant être contenue par tous les atomes de l’univers.Techniquement, le fichier ne contient pratiquement rien. Il est extrêmement léger. Mais les métadonnées décrivent un fichier gigantesque, bien au-delà de ce que la physique pourrait permettre. C’est donc un exploit purement conceptuel : Alex Chan ne crée pas un fichier gigantesque, mais une sorte de "mensonge bien formaté". Il démontre ainsi que les systèmes informatiques peuvent être poussés dans leurs retranchements logiques, que les limites ne sont pas toujours physiques, mais parfois uniquement liées aux conventions des formats ou des logiciels.En somme, son défi est à la fois une blague geek, une leçon de conception logicielle, et un clin d’œil aux absurdités possibles dans l’univers numérique. Une preuve brillante qu’avec un peu d’imagination, même le vide peut peser plus lourd que l’univers.
  • BONUS - Le libre arbitre existe-t-il vraiment ?

    03:53|
    Et si vous n’étiez pas vraiment aux commandes de vos décisions ? Si vos choix, même les plus intimes, étaient en réalité déclenchés dans les coulisses de votre cerveau… avant même que vous en ayez conscience ?
  • Comment les panneaux solaires convertissent-ils la lumière en électricité ?

    02:38|
    Chaque jour, le Soleil inonde la Terre d’une énergie colossale. Les panneaux solaires, ou plus précisément panneaux photovoltaïques, sont conçus pour capturer cette énergie lumineuse et la convertir en électricité. Mais comment ce miracle technologique fonctionne-t-il, au juste ?Tout repose sur un phénomène physique : l’effet photovoltaïque, découvert en 1839 par le physicien français Alexandre Edmond Becquerel. Cet effet permet à certains matériaux de produire un courant électrique lorsqu’ils sont exposés à la lumière.Les panneaux solaires sont principalement composés de cellules photovoltaïques, généralement faites à base de silicium, un semi-conducteur abondant dans la croûte terrestre. Ces cellules sont organisées en fines couches de matériaux dopés, c’est-à-dire modifiés pour améliorer leur conductivité.Une cellule solaire standard possède deux couches de silicium :Une couche supérieure dopée au phosphore, appelée type N, riche en électrons.Une couche inférieure dopée au bore, appelée type P, qui contient des "trous", c’est-à-dire des emplacements prêts à recevoir des électrons.Lorsque la lumière du Soleil frappe la cellule, elle est constituée de particules d’énergie appelées photons. Si un photon possède assez d’énergie, il peut exciter un électron du silicium et le libérer de son atome. Cet électron se retrouve alors libre de se déplacer.C’est là qu’intervient la jonction P-N, située entre les deux couches dopées. Cette jonction crée un champ électrique interne qui pousse les électrons libérés dans une direction précise : vers la couche N. Simultanément, les "trous" migrent vers la couche P. Ce mouvement ordonné des charges constitue un courant électrique continu.Pour exploiter ce courant, des contacts métalliques sont placés sur le dessus et le dessous de la cellule. Le courant peut alors circuler dans un circuit externe — par exemple, alimenter une ampoule, charger une batterie ou injecter de l’énergie dans un réseau.Mais ce courant est continu (DC), alors que le réseau électrique fonctionne en alternatif (AC). On utilise donc un onduleur, qui convertit le courant produit en courant alternatif compatible avec nos équipements domestiques.Le rendement d’une cellule solaire classique se situe entre 15 % et 22 %, ce qui signifie qu’une fraction seulement de l’énergie lumineuse est transformée en électricité. Le reste est perdu sous forme de chaleur ou réfléchi.En résumé, les panneaux solaires transforment la lumière du Soleil en électricité grâce à l’effet photovoltaïque : des photons excitent des électrons dans du silicium, créant un courant électrique exploitable. Une technologie propre, silencieuse… et directement alimentée par notre étoile.