Partager

cover art for Pourquoi doit-on les serviettes hygiéniques à la Première Guerre mondiale ?

Choses à Savoir - Culture générale

Pourquoi doit-on les serviettes hygiéniques à la Première Guerre mondiale ?

Nous sommes en 1917, quelque part sur le front français. Dans une infirmerie de campagne, des blessés affluent sans relâche. Parmi les équipes médicales, des femmes, infirmières de guerre, font tout leur possible pour soigner, panser, rassurer. Et dans leurs mains, un nouveau matériau révolutionnaire : une sorte de coton amélioré, dérivé du bois, qu’on appelle cellulose de coton, ou Cellucotton.


Cette matière est une petite merveille : cinq fois plus absorbante que le coton, beaucoup moins chère, légère, facile à stocker. Parfaite pour les pansements. Mais rapidement, ces femmes vont détourner son usage à des fins bien plus personnelles.


Car elles aussi, sur le front, ont leurs règles. Et ici, pas de pharmacie, pas de linge de rechange, pas de confort. Alors, en toute discrétion, elles commencent à utiliser ces compresses militaires comme protections menstruelles. Une idée simple, mais géniale. Une invention née du chaos.


À la fin de la guerre, l’information remonte aux États-Unis. La société Kimberly-Clark, qui fournissait justement cette fameuse cellulose pour les armées alliées, se dit : "Et si on en faisait un produit pour les femmes ?" En 1920, elle lance une nouveauté mondiale : une serviette hygiénique jetable, vendue sous le nom de Kotex — contraction de "cotton textile".


Mais à l’époque, le sujet est encore tabou. Les femmes qui osent acheter ce produit doivent le demander discrètement à la vendeuse, parfois par écrit. Aucune publicité directe, aucun slogan — juste un paquet neutre, glissé à la hâte dans un sac.


Et pourtant, cette invention silencieuse va changer la vie de millions de femmes. Elle libère du linge à laver, du bricolage honteux, des systèmes de ceintures inconfortables. Elle marque le début de la démocratisation des protections hygiéniques modernes.


Bien sûr, les femmes n’ont pas attendu 1914 pour gérer leurs règles. Mais ce que la guerre a déclenché, c’est le passage de l’ingéniosité artisanale à une solution industrielle. Une solution née dans la douleur, au cœur des tranchées, portée par des femmes qui, même en temps de guerre, ont su penser à leur dignité.


Parfois, les grandes inventions ne naissent pas dans les laboratoires, mais dans l’urgence du quotidien. Et si l’histoire des serviettes hygiéniques commence vraiment quelque part… c’est sans doute là, dans une tente de campagne, entre deux pansements et un geste de survie.

More episodes

View all episodes

  • Pourquoi mange-t-on du pop corn au cinéma ?

    02:19|
    Si le pop-corn est aujourd’hui indissociable des salles de cinéma, ce n’est ni un hasard, ni une tradition ancestrale. C’est le résultat d’une convergence historique, économique et technologique très précise, qui remonte aux États-Unis, au début du XXᵉ siècle.À l’origine, le cinéma n’est pas un loisir populaire. Dans les années 1910 et 1920, les grandes salles américaines veulent ressembler à des théâtres d’opéra : moquettes épaisses, rideaux luxueux, orchestres, et une clientèle plutôt bourgeoise. La nourriture y est mal vue. Le pop-corn, vendu dans la rue par des marchands ambulants, est associé aux classes populaires, au bruit, aux miettes et aux odeurs. Les exploitants de salles n’en veulent pas.Tout change avec l’arrivée du cinéma parlant, notamment après le succès de The Jazz Singer, puis surtout avec la Grande Dépression à partir de 1929. Des millions d’Américains perdent leur emploi. Le cinéma devient l’un des rares divertissements encore abordables : quelques cents pour oublier la crise pendant deux heures.Or, le pop-corn possède alors trois avantages décisifs :Premièrement, il est extrêmement bon marché. Le maïs est produit en masse aux États-Unis, se conserve longtemps, et un sac de grains coûte peu. Pour un vendeur, le bénéfice est énorme : le prix de vente peut être multiplié par dix ou plus par rapport au coût de production.Deuxièmement, il est facile à préparer sur place. Dans les années 1930, les machines à pop-corn portables se répandent. Elles attirent visuellement l’attention, diffusent une odeur appétissante et fonctionnent devant les clients, ce qui rassure sur l’hygiène.Troisièmement, le pop-corn est peu périssable. Contrairement aux sandwiches ou aux pâtisseries, il ne nécessite ni réfrigération ni cuisine complexe.Au début, les vendeurs s’installent simplement devant les cinémas. Certains exploitants tentent de les chasser, mais constatent vite un phénomène frappant : les salles situées près des vendeurs de pop-corn attirent davantage de spectateurs. Progressivement, des directeurs de cinéma décident d’installer leurs propres stands à l’intérieur.Pendant la Seconde Guerre mondiale, le phénomène s’amplifie. Le sucre est rationné, ce qui rend les confiseries rares et chères. Le pop-corn, lui, n’est pas rationné. Il devient la friandise dominante.Dans les années 1950, avec l’arrivée de la télévision, les cinémas traversent une nouvelle crise. Pour survivre, ils augmentent fortement leurs marges sur la nourriture. Le pop-corn devient alors une source majeure de profits, parfois plus rentable que la vente des billets eux-mêmes.Peu à peu, l’habitude se transforme en rituel culturel. Aujourd’hui, le pop-corn n’est pas seulement une collation : il est un symbole du cinéma. Et si l’on mange du pop-corn plutôt qu’autre chose, ce n’est pas parce qu’il serait intrinsèquement meilleur… mais parce qu’il était, au bon moment, le produit parfait pour sauver économiquement les salles.
  • Pourquoi dit-on “prendre une veste” ?

    01:31|
    Aujourd’hui, nous allons déboutonner une expression que tout le monde connaît, mais dont l’origine est souvent mal comprise. Si je vous dis « prendre une veste », vous pensez sans doute à un râteau amoureux ou à un échec cuisant lors d'un examen. Mais quel est le rapport entre un vêtement et une défaite ?Pour comprendre, il faut remonter au XIXe siècle, et non pas sur un champ de bataille ou dans un salon de couture, mais autour d’une table de jeu.Le jeu de la « Capote »Tout commence avec un jeu de cartes très populaire à l’époque : le piquet. Dans ce jeu, si un joueur ne parvenait à marquer aucun point alors que son adversaire raflait toutes les levées, on disait qu’il était « capot ».Être « mis en capote », c’était l’humiliation suprême, le score de zéro pointé. Mais pourquoi une « capote » ? À l'origine, ce terme désignait un grand manteau à capuche utilisé par les marins ou les soldats pour se protéger des intempéries. L'image était parlante : le perdant était tellement dominé qu'il se retrouvait symboliquement « recouvert » par le manteau du vainqueur, caché, invisible, comme s'il n'avait jamais existé durant la partie.De la capote à la vesteLe langage populaire, toujours adepte de métamorphoses, a fini par faire évoluer le vêtement. Au fil du temps, la lourde « capote » militaire a été remplacée par un habit plus quotidien : la veste.Vers la fin du XIXe siècle, l'expression « prendre une veste » remplace définitivement le terme « être capot ». On l'utilise alors dans le milieu de la politique. Un candidat qui subissait une défaite électorale humiliante ne disait plus qu’il avait perdu, mais qu’il avait « pris une veste ». On imaginait l'homme politique repartant seul, remettant sa veste pour quitter la scène sous les sifflets, symbolisant son retour à la vie civile et anonyme.Pourquoi cette expression reste-t-elle si forte ?Ce qui rend cette origine passionnante, c’est qu'elle illustre parfaitement le sentiment de honte lié à l'échec. La veste n'est pas qu'un vêtement de sortie ; c'est le symbole d'une protection que l'on remet pour masquer sa vulnérabilité après avoir été « mis à nu » par une défaite.Aujourd'hui, que ce soit en sport, en amour ou au travail, « prendre une veste » reste cette petite humiliation textile qui nous rappelle que, parfois, on ferait mieux de rester au chaud chez soi !
  • Pourquoi vous avez le droit d’arrêter quelqu’un ?

    02:26|
    On pense souvent qu’en France, le droit d’arrêter quelqu’un appartient exclusivement à la police et à la gendarmerie. Pourtant, le droit français prévoit une exception peu connue : dans certaines circonstances bien précises, n’importe quel citoyen peut légalement interpeller une personne. Ce principe est inscrit dans l’article 73 du code de procédure pénale.Que dit exactement cet article ? Il prévoit que, en cas de crime ou de délit flagrant puni d’une peine d’emprisonnement, toute personne a le droit d’appréhender l’auteur des faits. Autrement dit, il ne s’agit pas d’un simple soupçon ou d’un comportement étrange, mais d’une infraction en train de se commettre ou venant tout juste de se commettre.La notion de flagrance est centrale. Elle couvre plusieurs situations : lorsque l’infraction est observée directement, lorsqu’elle vient d’avoir lieu, lorsque la personne est poursuivie par des témoins, ou encore lorsqu’elle est trouvée en possession d’objets laissant penser qu’elle a participé au délit. Un individu surpris en train de voler un sac, de casser une vitrine ou d’agresser quelqu’un entre donc clairement dans ce cadre.En revanche, cette faculté d’interpellation ne donne pas carte blanche. Le texte impose une obligation très claire : la personne interpellée doit être conduite sans délai devant un officier de police judiciaire. Cela signifie qu’un citoyen n’a pas le droit de garder quelqu’un enfermé chez lui, de l’interroger ou de mener sa propre “enquête”. Son rôle se limite à empêcher la fuite et à remettre l’individu aux autorités.Autre point essentiel : l’usage de la force doit rester strictement proportionné. Il est possible de retenir physiquement quelqu’un si c’est nécessaire, mais toute violence excessive peut engager la responsabilité pénale de celui qui intervient. Si la personne interpellée est blessée sans justification, l’interpellateur peut lui-même se retrouver poursuivi.Il existe également des situations où il vaut mieux s’abstenir. Si l’auteur présumé est armé, dangereux ou en groupe, intervenir peut mettre gravement en péril sa propre sécurité. Le droit reconnaît la possibilité d’agir, mais n’impose jamais à un citoyen de se transformer en justicier.Dans la pratique, ce dispositif vise surtout à permettre une réaction immédiate lorsque les forces de l’ordre ne sont pas présentes. Il rappelle aussi que la sécurité publique n’est pas uniquement l’affaire de l’État, mais repose en partie sur la vigilance collective.En résumé, oui : en France, un citoyen peut arrêter une personne dans certaines conditions très encadrées. Mais il ne s’agit ni d’un pouvoir de police, ni d’un permis de faire justice soi-même. C’est un outil juridique d’exception, fondé sur une idée simple : empêcher qu’un auteur d’infraction flagrante ne s’échappe, en attendant que la justice prenne le relais.
  • Pourquoi pensons-nous que les grenades ressemblent à des ananas ?

    02:16|
    L’image est gravée dans l’inconscient collectif : un héros dégoupille avec les dents un projectile quadrillé aux allures d’ananas, avant de le lancer dans un bruit de métal. Pourtant, cette icône de la pop culture, la grenade Mk II, appartient davantage aux musées qu’aux arsenaux modernes.Le règne de l'« ananas »Introduite en 1918 et massivement utilisée durant la Seconde Guerre mondiale et la guerre du Viêt Nam, la Mk II doit son design si particulier à une théorie balistique aujourd'hui dépassée. À l'époque, les ingénieurs pensaient que les profonds sillons tracés dans la fonte faciliteraient la fragmentation du corps de la grenade en éclats réguliers lors de l'explosion. C’est cette silhouette qui lui a valu son surnom mondial d'« ananas ».En réalité, la physique a prouvé que la fonte se brisait de manière totalement imprévisible, projetant parfois des fragments trop petits pour être efficaces ou, à l'inverse, des morceaux trop gros et dangereux pour le lanceur lui-même.La révolution de la fragmentation contrôléeDepuis 1969, l'armée américaine et la plupart des forces de l'OTAN ont abandonné ce look au profit de modèles comme la M67, une sphère lisse surnommée « la pomme ». Ce changement n'est pas qu'esthétique, il repose sur trois piliers :1. L'efficacité létale : Les grenades modernes utilisent un corps interne tapissé de billes d'acier ou de fils métalliques pré-entaillés. Lors de la détonation, cela garantit une dispersion d'éclats uniforme et une zone d'effet circulaire prévisible.2. L'ergonomie : Une forme sphérique est plus facile à lancer avec précision et roule de manière plus stable.3. La sécurité : Finies les dents ! Dégoupiller une grenade avec les mâchoires est le meilleur moyen de perdre une canine. Les modèles actuels utilisent des systèmes de goupilles et de leviers (la « cuillère ») bien plus fermes pour éviter tout accident.Pourquoi le mythe persiste-t-il ?Si les jeux vidéo et le cinéma (comme dans les sagas Call of Duty ou Indiana Jones) s'accrochent à la Mk II, c'est pour sa clarté visuelle. Sa silhouette est instantanément identifiable par le spectateur. Une grenade moderne, lisse et souvent de couleur sobre, ressemble parfois trop à une simple boîte de conserve ou à un galet pour le néophyte.Pourtant, la réalité du terrain est aujourd'hui celle de la grenade à effet combiné (souffle et fragments), un outil de précision scientifique bien loin du bloc de fonte rustique de nos grands-pères.
  • Quelle est la différence entre une crise cardiaque et un arrêt cardiaque ?

    02:16|
    La différence entre une crise cardiaque et un arrêt cardiaque est souvent mal comprise, alors qu’il s’agit de deux situations médicales distinctes, même si elles concernent toutes deux le cœur et peuvent parfois se succéder.Une crise cardiaque, appelée médicalement infarctus du myocarde, survient lorsqu’une artère coronaire se bouche. Ces artères apportent l’oxygène et les nutriments au muscle cardiaque. Le plus souvent, l’obstruction est causée par un caillot sanguin formé sur une plaque de cholestérol. Lorsque le sang ne circule plus correctement, une partie du muscle cardiaque est privée d’oxygène. Si la situation n’est pas corrigée rapidement, les cellules de cette zone commencent à mourir.Pendant une crise cardiaque, le cœur continue généralement de battre. La personne est consciente, même si elle peut se sentir très mal. Les symptômes les plus fréquents sont une douleur ou une sensation d’écrasement dans la poitrine, une douleur qui peut irradier vers le bras gauche, l’épaule, le dos ou la mâchoire, un essoufflement, des nausées, des sueurs et une grande fatigue. La crise cardiaque est donc avant tout un problème de circulation sanguine au niveau du cœur.L’arrêt cardiaque, en revanche, correspond à l’arrêt brutal et inattendu du fonctionnement du cœur. Le cœur ne pompe plus efficacement le sang vers le cerveau et les autres organes vitaux. La personne s’effondre, perd connaissance, ne respire plus normalement et n’a plus de pouls. Sans intervention immédiate, les lésions cérébrales commencent en quelques minutes et le décès peut survenir très rapidement.L’arrêt cardiaque est le plus souvent provoqué par un trouble grave du rythme cardiaque, c’est-à-dire un problème électrique. Le cœur se met à battre de façon totalement désorganisée ou cesse de battre. Ce dysfonctionnement électrique peut être déclenché par une crise cardiaque, mais aussi par d’autres causes comme une électrocution, une noyade, un traumatisme sévère ou certaines maladies cardiaques.Le lien entre les deux est important à comprendre. Une crise cardiaque peut entraîner un arrêt cardiaque, mais ce n’est pas systématique. De nombreuses personnes font une crise cardiaque sans jamais présenter d’arrêt cardiaque. À l’inverse, un arrêt cardiaque peut survenir sans qu’il y ait eu de crise cardiaque préalable.En résumé, la crise cardiaque est un problème de tuyauterie : une artère est bouchée. L’arrêt cardiaque est un problème électrique : le cœur ne bat plus correctement. Cette distinction est essentielle, car les réponses d’urgence sont différentes. Une crise cardiaque nécessite une prise en charge médicale rapide. Un arrêt cardiaque nécessite immédiatement un massage cardiaque et, si possible, une défibrillation. Connaître cette différence permet de mieux comprendre les signaux d’alerte et peut réellement sauver des vies.
  • Pourquoi l'éruption de 1808 est-elle un mystère ?

    02:53|
    En 1808, quelque part sur Terre, un volcan est entré en éruption avec une violence colossale. Pourtant, personne ne sait aujourd’hui où cet événement s’est produit. Aucun cratère identifié. Aucun volcan clairement désigné. Et pourtant, ses effets ont été mesurés jusque dans l’atmosphère mondiale. Ce phénomène est aujourd’hui connu sous un nom troublant : l’éruption volcanique mystérieuse de 1808.Tout commence par des indices indirects. Les scientifiques qui étudient les carottes de glace extraites en Antarctique et au Groenland découvrent, au XXᵉ siècle, une couche riche en sulfates correspondant précisément à l’année 1808. Ces sulfates sont la signature chimique typique des grandes éruptions explosives. Or, la quantité détectée est énorme : comparable à celle laissée par certaines des plus puissantes éruptions connues de l’histoire.Mais voilà le paradoxe : aucune chronique historique ne décrit une éruption majeure cette année-là. Pas de témoignages massifs, pas de villes ensevelies, pas de récits d’obscurité prolongée ou de pluies de cendres, comme ce fut le cas pour l’éruption du Mont Tambora en 1815. Un événement assez puissant pour modifier la chimie de l’atmosphère aurait pourtant dû laisser des traces claires dans les archives humaines.Et pourtant, des effets climatiques inhabituels apparaissent dans plusieurs régions du monde à partir de 1809. Les relevés de température montrent un refroidissement notable. Des journaux personnels évoquent des étés anormalement frais, des récoltes médiocres, des hivers rigoureux. Ces anomalies suggèrent qu’un immense nuage de dioxyde de soufre a été projeté dans la stratosphère, réfléchissant une partie du rayonnement solaire.Alors où ce volcan se cache-t-il ?Plusieurs hypothèses s’affrontent. Certains chercheurs pensent à un volcan situé dans une région très peu peuplée au début du XIXᵉ siècle : peut-être dans l’océan Pacifique, en Amérique du Sud, ou dans une zone isolée d’Asie. D’autres envisagent une éruption sous-marine, beaucoup plus difficile à observer directement, mais capable de projeter d’énormes quantités de gaz dans l’atmosphère.Le mystère est renforcé par un autre détail fascinant : les signatures chimiques des sulfates indiquent une origine tropicale. Cela signifie que le volcan se trouvait probablement près de l’équateur, zone idéale pour disperser les aérosols volcaniques à l’échelle planétaire grâce aux courants atmosphériques.Malgré les satellites, la cartographie moderne et les bases de données géologiques, aucun cratère évident ne correspond encore parfaitement à l’événement. Certains volcans ont été proposés comme candidats, puis écartés faute de preuves solides.Ce qui rend cette énigme si captivante, c’est qu’elle rappelle une vérité dérangeante : même à l’époque moderne, la Terre peut produire des catastrophes majeures sans que nous en conservions un souvenir clair. Un volcan a bouleversé le climat mondial en 1808… et son identité reste perdue dans les profondeurs du temps.Un fantôme géologique, dont l’ombre plane encore sur les glaces polaires, attendant peut-être qu’un futur forage ou une nouvelle analyse chimique révèle enfin son nom.
  • Quel champignon “rapetisse” les gens ?

    02:48|
    Vous êtes assis dans votre salon, parfaitement lucide, quand soudain votre regard est attiré par quelque chose d’étrange au sol. Puis par autre chose, un peu plus loin. En quelques minutes, vous avez la sensation que des dizaines de minuscules personnages se déplacent autour de vous, comme si un peuple miniature avait envahi votre environnement. Vous n’avez pas rapetissé. Vous ne rêvez pas. Pourtant, votre cerveau vous convainc que ces créatures existent bel et bieCe phénomène porte un nom précis : les hallucinations lilliputiennes, en référence au pays de Lilliput imaginé par Jonathan Swift, peuplé d’êtres minuscules. Pendant longtemps, ces hallucinations ont surtout été associées à certaines maladies neurologiques ou à des intoxications médicamenteuses. Mais depuis quelques années, un champignon attire particulièrement l’attention des toxicologues : Lanmaoa asiatica, une espèce de bolet présente notamment dans le sud-ouest de la Chine.Dans certaines régions, ce champignon est connu sous un surnom évocateur, que l’on pourrait traduire par “le champignon des petits hommes”. La raison est simple : après sa consommation, en particulier lorsqu’il est mal cuit ou consommé trop tôt après récolte, certains individus développent des hallucinations très spécifiques. Ils ne décrivent pas des visions floues ou abstraites, mais des scènes détaillées mettant en scène de minuscules humains, des animaux de petite taille, parfois des créatures inconnues, se déplaçant dans leur champ de vision avec un réalisme troublant.Ce qui fascine les chercheurs, c’est la similarité des témoignages. Des personnes n’ayant aucun lien entre elles rapportent des expériences presque identiques, comme si ce champignon déclenchait un “scénario” hallucinatoire bien particulier. D’un point de vue médical, il ne s’agit pas d’une substance utilisée à des fins récréatives, mais bien d’une intoxication. Les symptômes apparaissent souvent plusieurs heures après l’ingestion, parfois jusqu’à une journée plus tard, et s’accompagnent fréquemment de nausées, de vomissements, de vertiges, d’une grande fatigue et, dans certains cas, de troubles digestifs importants.Heureusement, la plupart des patients se rétablissent en quelques jours, mais l’épisode est suffisamment spectaculaire pour conduire un grand nombre d’entre eux à l’hôpital. Le mystère majeur reste la nature exacte de la substance responsable de ces effets. Contrairement à d’autres champignons hallucinogènes bien connus, Lanmaoa asiatica ne contient pas les molécules classiques comme la psilocybine. Les scientifiques soupçonnent donc l’existence d’un composé encore mal identifié, capable d’altérer les zones du cerveau impliquées dans la perception des tailles, des distances et des proportions.Autrement dit, ce champignon ne modifie pas la réalité extérieure. Il modifie la manière dont le cerveau interprète cette réalité. Et c’est précisément ce dérèglement perceptif qui donne l’illusion d’un monde peuplé d’êtres miniatures.En définitive, aucun champignon ne fait réellement rapetisser les humains. Mais certains peuvent créer une illusion si puissante qu’elle vous fera croire, pendant quelques heures, que vous êtes devenu un géant entouré d’un peuple invisible. Une expérience fascinante pour les scientifiques, mais beaucoup moins pour ceux qui la vivent.
  • Quel animal a tourné plus de 1000 films ?

    01:57|
    C'est une anecdote fascinante qui rappelle que les plus grandes stars d'Hollywood ne sont pas toujours humaines. Jimmy le Corbeau (ou Jimmy the Raven) n'était pas seulement un animal de tournage ; il était une véritable institution dans l'industrie cinématographique américaine durant l'âge d'or du cinéma.Une carrière hors norme (1934-1954)Appartenant au dresseur Curly Twiford, Jimmy a fait sa première apparition sur grand écran dans le film You Can't Take It with You (1938) de Frank Capra, bien que son entraînement ait commencé dès 1934. Capra a d'ailleurs été tellement impressionné par l'oiseau qu'il l'a fait figurer dans tous ses films ultérieurs, le considérant comme son porte-bonheur.Au total, on estime que Jimmy a "joué" dans plus de 1 000 longs métrages. Bien que beaucoup de ses rôles soient des apparitions furtives, sa présence était un gage de professionnalisme. Sa carrière s'est étendue jusqu'au milieu des années 1950, faisant de lui l'un des acteurs les plus prolifiques de l'histoire, toutes espèces confondues.Une intelligence "humaine"Ce qui distinguait Jimmy des autres corbeaux, c'était sa capacité d'apprentissage phénoménale. On rapporte que :Il comprenait environ cent mots (certaines sources avancent même plusieurs centaines).Il pouvait réaliser des tâches complexes sur commande : ouvrir des lettres, taper sur une machine à écrire, ou même allumer une cigarette.Il était capable de reconnaître les instructions selon le contexte de la scène, évitant ainsi de multiples prises.Son dresseur, Curly Twiford, affirmait que Jimmy avait le niveau intellectuel d'un enfant de 8 ans. Il était si précieux que la production l'avait assuré pour la somme astronomique, à l'époque, de 10 000 dollars.Ses rôles les plus mémorablesSi vous revoyez les classiques de cette époque, ouvrez l'œil :Le Magicien d'Oz (1939) : C'est lui que l'on voit perché sur l'Épouvantail.La Vie est belle (1946) : Il joue le rôle de l'animal de compagnie de l'oncle Billy dans la banque.Enchanted Island (1958) : Ce fut l'une de ses dernières apparitions notables.Un héritage uniquePour sa contribution à l'industrie, Jimmy a reçu une distinction rare : une médaille d'honneur de la Croix-Rouge pour son travail de divertissement auprès des soldats pendant la guerre, et ses empreintes ont même été immortalisées dans le ciment. À sa disparition, sa trace s'est perdue, mais son record reste inégalé dans les annales d'Hollywood.
  • Quelles sont les six émotions universelles décrites par Darwin ?

    02:49|
    En 1872, dans son ouvrage L’Expression des émotions chez l’homme et les animaux, Charles Darwin propose une idée révolutionnaire pour l’époque : les émotions humaines ne sont pas uniquement façonnées par la culture, mais possèdent une base biologique universelle. Selon lui, certaines émotions fondamentales sont partagées par tous les êtres humains, quelles que soient leur origine, leur langue ou leur société. Il en identifie six principales, aujourd’hui appelées émotions universelles.La première est la joie. Elle se manifeste par le sourire, le rire, un visage détendu et lumineux. La joie est associée aux expériences positives, au plaisir, à la réussite ou aux relations sociales satisfaisantes. D’un point de vue évolutif, elle renforce les comportements bénéfiques à la survie et favorise les liens sociaux, indispensables à la vie en groupe.La deuxième émotion universelle est la tristesse. Elle se reconnaît notamment par les larmes, les paupières tombantes et une posture affaissée. La tristesse apparaît en réponse à une perte, un échec ou une déception. Elle joue un rôle important : elle incite au repli temporaire, favorise l’introspection et peut susciter la compassion et le soutien de l’entourage.Vient ensuite la peur, sans doute l’une des émotions les plus vitales. Elle se traduit par des yeux écarquillés, une tension musculaire et une accélération du rythme cardiaque. La peur prépare l’organisme à réagir face au danger, en déclenchant la fuite ou la défense. C’est un mécanisme de survie hérité de millions d’années d’évolution.La quatrième émotion est la colère. Elle s’exprime par des sourcils froncés, une mâchoire crispée et une voix plus forte. La colère survient lorsqu’un individu se sent menacé, frustré ou traité injustement. Sur le plan adaptatif, elle sert à défendre ses limites, à dissuader un adversaire et à rétablir un équilibre perçu comme rompu.Darwin identifie également le dégoût comme émotion fondamentale. Elle se manifeste par un haut-le-cœur, un froncement du nez et un rejet instinctif. À l’origine, le dégoût protège contre l’ingestion de substances potentiellement toxiques ou contaminées. Avec le temps, il s’est étendu à des domaines moraux et sociaux, comme le rejet de certains comportements jugés inacceptables.Enfin, la sixième émotion universelle est la surprise. Elle se caractérise par des yeux grands ouverts, des sourcils relevés et une bouche entrouverte. La surprise est une réaction brève face à un événement inattendu. Elle permet d’augmenter rapidement l’attention et d’évaluer la situation afin d’adopter la réponse la plus appropriée.Ces six émotions constituent les fondations du monde émotionnel humain. Elles ne sont ni bonnes ni mauvaises en soi : elles sont des outils biologiques destinés à guider nos comportements. Les travaux de Darwin ont ouvert la voie à plus d’un siècle de recherches montrant que, malgré nos différences culturelles, nous partageons un socle émotionnel commun profondément inscrit dans notre nature.