Partager

Choses à Savoir - Culture générale
Pourquoi dit-on un “fiasco” et un “chauffeur” ?
Pourquoi un fiasco ?
Le mot fiasco ne vient ni du théâtre français ni de la politique contemporaine, mais… de l’italien, et plus précisément de fare fiasco, qui signifie littéralement : « faire bouteille ».
Une expression mystérieuse, n’est-ce pas ?
Au XVIIIᵉ siècle, à Venise, les comédiens ratant totalement une scène se voyaient infliger une sanction amusante : rejouer leur passage en tenant une grande bouteille — un fiasco en italien — ce qui tournait leur prestation en ridicule. L’expression fare fiasco a alors pris le sens figuré de « rater complètement », « échouer de façon lamentable ».
Les Français, friands d’italianismes à cette époque (opéra, musique, théâtre), ont emprunté le mot. En français, faire fiasco devient synonyme d’échec total, puis le mot s’autonomise : un fiasco, c’est un échec retentissant. Le mot est court, sonore, et son côté exotique lui a permis de s’imposer durablement dans la langue.
Pourquoi un chauffeur ?
Le mot chauffeur ne vient pas d’une personne qui « conduit », mais d’une personne qui… chauffe.
À l’origine, vers le XIXᵉ siècle, un chauffeur était l’ouvrier chargé d’alimenter un four, une machine à vapeur ou une locomotive. Il chauffait le moteur — littéralement. Quand les premières automobiles apparaissent, elles fonctionnent grâce à un moteur thermique complexe qui nécessite toute une série de gestes techniques. Le conducteur n’est pas un simple usager : il est celui qui fait fonctionner la mécanique, qui la « chauffe ».
On parle donc naturellement du « chauffeur de voiture », c’est-à-dire l’opérateur technique de la machine. Peu à peu, alors que les moteurs deviennent plus simples, le sens du mot glisse : chauffeur ne renvoie plus à celui qui chauffe, mais à celui qui conduit un véhicule… en particulier pour quelqu’un d’autre.
More episodes
View all episodes

Quelle est la plus ancienne réclamation client au monde ?
02:32|Vous avez déjà écrit un avis négatif sur Google, envoyé un mail furieux à un service client, ou posté une réclamation sur les réseaux sociaux ? Félicitations — vous perpétuez une tradition vieille de près de 4 000 ans. Parce que le premier client mécontent de l'Histoire s'appelait Nanni. Et il était babylonien.La tablette qui traverse les millénairesNous sommes vers 1750 avant Jésus-Christ, en Mésopotamie, dans ce qui est aujourd'hui l'Irak. Nanni, un marchand babylonien, vient de recevoir une livraison de lingots de cuivre commandés à un certain Ea-nasir, négociant en métaux de la ville d'Ur. Le problème : le cuivre est de qualité catastrophique. Rien à voir avec ce qui avait été convenu. Nanni est furieux. Alors il fait ce que tout bon client lésé ferait — il rédige une plainte formelle. Sauf qu'à Babylone, on n'écrit pas sur papier. On grave sur une tablette d'argile, en cunéiforme. Et c'est précisément ce qui a permis à ce texte de survivre jusqu'à nous.Le contenu : étonnamment moderneCe qui frappe à la lecture de cette tablette, conservée aujourd'hui au British Museum de Londres, c'est son ton. Nanni ne mâche pas ses mots. Il dénonce la mauvaise qualité des lingots livrés, les retards de livraison à répétition, et — détail savoureux — le mépris avec lequel Ea-nasir a traité son envoyé personnel. Il écrit, en substance : "Tu m'as traité avec mépris. Qui parmi les marchands t'a traité ainsi ?" Une indignation totale, un sens aigu de l'honneur bafoué, et une exigence claire de remboursement ou de remplacement. Remplacez le cunéiforme par un email, et ce texte pourrait être envoyé aujourd'hui même.Ea-nasir : l'escroc professionnelMais l'histoire ne s'arrête pas là — parce que lors des fouilles archéologiques de la maison d'Ea-nasir à Ur, les chercheurs ont fait une découverte stupéfiante : des dizaines d'autres tablettes similaires, émanant de clients différents, tous furieux pour les mêmes raisons. Mauvaise qualité, retards, arrogance. Ea-nasir n'était pas un commerçant malchanceux. C'était un escroc en série, dont la réputation désastreuse était visiblement bien établie dans tout le commerce mésopotamien de l'époque.Ce que ça dit de nousCette tablette vieille de 3 750 ans nous offre un miroir saisissant. Les hommes changent, les civilisations s'effondrent, les langues meurent — mais l'indignation du client floué, elle, est éternelle. Nanni voulait être entendu, respecté, remboursé. Comme vous. Comme moi. Comme n'importe quel humain qui a payé pour quelque chose qui ne valait rien.Le service client a beau avoir inventé les chatbots — il n'a pas vraiment progressé depuis Babylone.
Pourquoi parle-t-on d' “appropriation culturelle” ?
03:00|Le concept d’« appropriation culturelle » apparaît dans le monde académique anglo-saxon à partir des années 1970–1980, dans des disciplines comme les études culturelles, la sociologie et les études postcoloniales. À l’origine, l’idée est assez précise : analyser comment des groupes dominants empruntent des éléments culturels à des groupes historiquement dominés — souvent sans reconnaissance, ni compréhension, ni bénéfice pour ces derniers.Le concept prend vraiment de l’ampleur dans les années 1990 avec des chercheurs influencés par les travaux sur le colonialisme et les rapports de pouvoir. L’idée centrale est que, dans un monde marqué par l’histoire de la domination (colonisation, esclavage, marginalisation), tous les échanges culturels ne sont pas neutres. Par exemple, quand une culture dominante adopte des symboles, des vêtements ou des pratiques d’une minorité, cela peut parfois vider ces éléments de leur sens ou en tirer profit sans en respecter l’origine.Jusque-là, on est dans un cadre analytique classique : comprendre les dynamiques de pouvoir à travers la culture.Mais le concept va progressivement sortir du monde académique pour entrer dans le débat public, surtout à partir des années 2010, avec les réseaux sociaux. Et c’est là que les choses se compliquent.La critique principale — et elle est sérieuse — est que la notion d’appropriation culturelle devient souvent floue, voire incohérente. Elle tend à essentialiser les cultures, comme si elles étaient des blocs fixes, fermés, appartenant à des groupes bien définis. Or, l’histoire humaine montre exactement l’inverse : les cultures se construisent en permanence par échanges, mélanges, influences croisées. La musique, la cuisine, la mode — tout cela est le produit de circulations constantes.Autre critique forte : le concept peut glisser vers une forme de police culturelle. On en arrive parfois à juger illégitime qu’une personne adopte un élément culturel simplement parce qu’elle n’appartient pas au « bon » groupe. Cela pose un problème évident : qui décide des frontières ? Et sur quels critères ?Enfin, certains pointent un paradoxe. À force de vouloir protéger les cultures, on risque de les figer, de les enfermer dans une identité statique — ce qui est, au fond, l’opposé même de ce qu’est une culture vivante.Cela ne veut pas dire que toutes les critiques liées à l’appropriation culturelle sont infondées. Il existe des cas réels d’exploitation ou de caricature. Mais la version simplifiée et militante du concept tend souvent à ignorer la complexité historique et humaine des échanges culturels.Au fond, la question mérite mieux qu’un slogan. Elle touche à un équilibre délicat : reconnaître les injustices du passé… sans transformer la culture en territoire interdit.
Pourquoi certaines plantes crient-elles ?
02:37|Peut-on vraiment dire que les plantes « crient » ? Pas au sens où nous l’entendons. Elles n’ont ni cordes vocales ni système nerveux. Pourtant, une étude publiée en 2023 a montré que certaines plantes, comme les tomates ou le tabac, émettent des sons lorsqu’elles sont stressées — coupées ou privées d’eau.Ces sons sont des clics ultrasoniques, c’est-à-dire à des fréquences bien au-delà de ce que l’oreille humaine peut percevoir. Et pourtant, leur intensité est surprenante : à courte distance, ils peuvent atteindre un niveau comparable à une conversation humaine normale. Mais d’où viennent-ils ?La clé du phénomène se trouve dans un mécanisme physique appelé Cavitation.Pour comprendre, il faut plonger dans le fonctionnement interne des plantes. L’eau circule en continu depuis les racines jusqu’aux feuilles à travers de minuscules canaux appelés xylème. Cette circulation repose sur une sorte de tension : l’eau est « tirée » vers le haut par l’évaporation au niveau des feuilles.Lorsque la plante manque d’eau, cette tension devient extrême. Le liquide peut alors se rompre localement, et de petites bulles d’air se forment dans les canaux. C’est ce qu’on appelle la cavitation. Et quand ces bulles apparaissent ou éclatent, elles produisent des micro-vibrations. Ces vibrations se propagent sous forme de sons ultrasoniques.En résumé, la plante ne « crie » pas volontairement. Elle produit du son comme une conséquence mécanique du stress qu’elle subit.Mais ce qui rend cette découverte fascinante, ce sont ses implications. Des chercheurs ont montré que ces sons varient selon le type de stress : une plante coupée n’émet pas les mêmes signaux qu’une plante assoiffée. Cela ouvre la possibilité que ces sons contiennent de l’information.Reste une question : qui les entend ?Certains insectes, comme les papillons de nuit, sont capables de percevoir les ultrasons. Il est donc possible qu’ils utilisent ces signaux pour éviter des plantes affaiblies, ou au contraire pour repérer des cibles. De même, d’autres plantes pourraient, en théorie, détecter ces vibrations et activer leurs propres mécanismes de défense.On entre ici dans un domaine encore en exploration, à la frontière entre biologie et acoustique.En résumé, les plantes ne crient pas comme des êtres vivants dotés de voix. Mais sous stress, elles produisent des sons bien réels, issus de phénomènes physiques internes. Et ces « cris silencieux » pourraient bien constituer une forme de communication encore largement méconnue dans le monde végétal.
Pourquoi Steve Jobs changeait-il de voiture tous les six mois ?
01:45|La particularité de la voiture de Steve Jobs est presque devenue une légende à elle seule — et elle dit beaucoup de son rapport aux règles.Jobs conduisait effectivement une Mercedes-Benz SL55 AMG, un cabriolet gris assez sobre… mais avec un détail très étrange : elle n’avait pas de plaque d’immatriculation.Comment est-ce possible ? Grâce à une particularité de la loi californienne de l’époque. En Californie, lorsqu’on achète ou loue une voiture neuve, on dispose d’un délai (jusqu’à six mois) avant d’être obligé d’y apposer une plaque définitive. Pendant ce temps, le véhicule circule légalement sans immatriculation visible.Et c’est là que Jobs a trouvé une astuce redoutablement simple : il ne gardait jamais sa voiture assez longtemps pour devoir poser une plaque.Il prenait sa Mercedes en leasing… et la changeait tous les six mois, presque jour pour jour.Résultat : il roulait en permanence dans une voiture neuve, sans plaque, parfaitement dans la légalité — mais quasiment impossible à identifier au premier coup d’œil.Ce détail a nourri beaucoup de fantasmes : certains y ont vu une volonté de préserver sa vie privée, d’autres une manière de contourner les règles, ou encore une forme de minimalisme radical, cohérente avec son obsession pour la simplicité.Il y a aussi une autre anecdote célèbre : Jobs avait tendance à se garer sur des places réservées aux personnes handicapées devant le siège d’Apple. Là encore, un comportement qui a contribué à forger son image de génie… mais aussi de personnage parfois provocateur.Au fond, cette histoire de voiture résume assez bien Steve Jobs : une combinaison d’intelligence pratique, de goût pour l’élégance discrète… et d’un certain mépris des conventions.Une Mercedes sans plaque, changée tous les six mois. Une petite faille dans le système, exploitée avec précision. Presque une métaphore de son approche du monde : comprendre les règles… pour mieux les redéfinir.
Grande ou petite signature : que dit-elle de vous ?
02:12|En graphologie, la taille d’une signature est souvent interprétée comme un indice du rapport que l’on entretient avec soi-même… et avec les autres. C’est un élément très observé, car la signature n’est pas une écriture comme les autres : elle représente l’image que l’on choisit de donner de soi.Selon des graphologues comme Michèle Freud ou Max Pulver, une signature de grande taille est généralement associée à un besoin d’affirmation. Elle peut traduire une forte confiance en soi, une volonté d’occuper l’espace, voire un désir de reconnaissance sociale. Dans certains cas, elle peut aussi masquer une forme de compensation : une manière de “se grandir” symboliquement.À l’inverse, une signature petite ou discrète est souvent interprétée comme le signe d’une personnalité plus réservée, plus introspective. Elle peut refléter de la modestie, de la prudence, ou un rapport plus effacé à l’image publique.Mais l’analyse ne s’arrête pas à la taille brute. Les graphologues insistent sur un point essentiel : la comparaison entre la signature et le reste de l’écriture. Si la signature est nettement plus grande que le texte, cela peut indiquer un écart entre l’image sociale (ce que l’on montre) et le moi intime (ce que l’on est). À l’inverse, une signature de taille similaire au texte suggère une certaine cohérence entre identité profonde et image projetée.Cela dit, il faut être clair : la graphologie est aujourd’hui très contestée dans le monde scientifique. Des études, notamment celles du psychologue Geoffrey Dean, ont montré que ses interprétations manquent de validité empirique et ne permettent pas de prédire de manière fiable des traits de personnalité.En revanche, certaines recherches en psychologie ont étudié la signature sous un autre angle. Par exemple, une étude publiée dans le Journal of Research in Personality a suggéré que des signatures très grandes et stylisées pouvaient être corrélées à des traits narcissiques chez certains individus — notamment chez des dirigeants d’entreprise. Mais ces résultats restent limités et ne permettent pas de tirer des conclusions générales.En résumé, pour la graphologie, la taille d’une signature est censée refléter la manière dont une personne se perçoit et souhaite être perçue. Mais d’un point de vue scientifique, ces interprétations doivent être prises avec prudence. Une signature en dit peut-être autant sur notre style… que sur notre personnalité réelle.
Pourquoi la couleur du ciel est-elle inversée sur Mars ?
02:17|Sur Terre, le ciel est bleu le jour… et devient rouge ou orangé au coucher du Soleil. Sur Mars, c’est l’inverse : le ciel est plutôt orangé en pleine journée, mais les couchers de Soleil prennent une teinte bleutée. Ce contraste étonnant s’explique par la manière dont la lumière interagit avec l’atmosphère martienne.Pour comprendre, il faut partir d’un principe simple : la lumière du Soleil est composée de toutes les couleurs, du violet au rouge. Lorsqu’elle traverse une atmosphère, certaines longueurs d’onde sont diffusées — c’est-à-dire déviées — par les particules présentes dans l’air.Sur Terre, ce sont surtout les molécules d’air qui diffusent la lumière. Elles dispersent davantage les courtes longueurs d’onde, comme le bleu. Résultat : le ciel nous apparaît bleu pendant la journée. Au coucher du Soleil, la lumière traverse une plus grande épaisseur d’atmosphère, le bleu est diffusé ailleurs, et les teintes rouges dominent.Mais sur Mars, le décor est très différent.L’atmosphère martienne est extrêmement fine — environ 100 fois moins dense que celle de la Terre — et surtout chargée en poussières très fines, riches en oxydes de fer. Ce sont ces poussières, et non des molécules de gaz, qui dominent la diffusion de la lumière.En pleine journée, ces particules diffusent principalement les longueurs d’onde rouges et orangées dans toutes les directions. C’est pourquoi le ciel martien prend cette teinte chaude, presque ocre, qui rappelle la couleur du sol.Mais au lever ou au coucher du Soleil, tout change. Les rayons lumineux doivent traverser une couche beaucoup plus épaisse d’atmosphère. Dans ces conditions, les poussières filtrent fortement les lumières rouges et orangées, qui sont dispersées loin du regard de l’observateur. Les longueurs d’onde plus courtes, comme le bleu, sont alors relativement mieux transmises dans la direction du Soleil.Résultat : autour du Soleil, le ciel apparaît bleuté — un phénomène exactement inverse de ce que l’on observe sur Terre.Ce qui est fascinant, c’est que ce phénomène repose sur les mêmes lois physiques dans les deux cas. Ce qui change, c’est la nature des particules en suspension dans l’atmosphère : des molécules invisibles chez nous, des poussières ferrugineuses sur Mars.En somme, Mars ne « renverse » pas les couleurs du ciel par magie. Elle nous montre simplement une autre version de la diffusion de la lumière — une version où la poussière, omniprésente, redessine complètement le paysage lumineux.
Pourquoi les sons paraissent-ils différents sous l’eau ?
02:32|Pourquoi les sons paraissent-ils si différents sous l’eau ? La réponse tient en un mot : le milieu. Le son ne voyage pas de la même manière dans l’air que dans l’eau, et cela change profondément ce que nous percevons.D’abord, la vitesse. Dans l’air, le son se propage à environ 340 m/s. Dans l’eau, il file à près de 1 500 m/s, soit plus de quatre fois plus vite. Cette différence vient du fait que les molécules d’eau sont beaucoup plus rapprochées que celles de l’air. Résultat : les vibrations — c’est-à-dire le son — se transmettent beaucoup plus rapidement.Mais plus rapide ne veut pas dire plus clair pour nous. Au contraire.Sous l’eau, le son se propage aussi beaucoup plus loin, car il perd moins d’énergie. C’est pour cela que les baleines peuvent communiquer sur des centaines de kilomètres. Pourtant, pour un humain, tout semble étouffé, déformé, presque irréel.Pourquoi ? Parce que notre oreille est conçue pour fonctionner dans l’air, pas dans l’eau.Normalement, les sons arrivent dans notre oreille sous forme de variations de pression dans l’air. Le tympan vibre, ces vibrations sont transmises aux osselets, puis à l’oreille interne. Mais dans l’eau, ce système est perturbé. L’eau étant plus dense, elle transmet les vibrations directement à l’ensemble du crâne, et pas seulement au tympan. Résultat : le son est perçu différemment, moins localisable, plus diffus.C’est d’ailleurs pour cela qu’il est très difficile de savoir d’où vient un bruit sous l’eau. Dans l’air, notre cerveau utilise le léger décalage entre les deux oreilles pour localiser une source sonore. Sous l’eau, ce décalage disparaît presque, car le son arrive très vite et de manière homogène.Autre effet : la perte des aigus. Les hautes fréquences sont rapidement absorbées ou modifiées dans l’eau, surtout si elle est chargée en particules. Ce qui reste, ce sont surtout des sons graves, plus profonds, plus “ronds”. D’où cette impression caractéristique d’un univers sonore feutré.Enfin, il y a une sensation étrange : celle d’entendre son propre corps. Sous l’eau, on perçoit davantage les bruits internes — sa respiration, ses battements de cœur, les bulles d’air. Comme si le monde extérieur s’effaçait au profit d’un paysage sonore intérieur.En résumé, les sons paraissent différents sous l’eau parce que le milieu change tout : la vitesse, la propagation, et surtout la manière dont notre corps les capte. Ce n’est pas seulement le son qui est transformé… c’est notre façon d’écouter.
Pourquoi notre cerveau s'éclaire-t-il au moment de s'éteindre ?
02:33|Que se passe-t-il réellement dans notre esprit au moment où le cœur cesse de battre ? Si les récits d'expériences de mort imminente (EMI) — tunnel lumineux, sensation de paix ou défilé de la vie — ont longtemps été relégués au rang de témoignages mystiques, les neurosciences apportent aujourd'hui un éclairage biologique saisissant. Une étude menée par la professeure Jimo Borjigin de l'Université du Michigan révèle une hyperactivité cérébrale inattendue qui défie nos conceptions traditionnelles de la mort.Une explosion d’activité dans un cerveau mourantContrairement à l'idée reçue d'une extinction progressive et silencieuse, le cerveau semble connaître un baroud d'honneur électrisant. En observant le cas d'une patiente en état de mort cérébrale après l'arrêt de la ventilation assistée, les chercheurs ont détecté une augmentation massive des ondes gamma.Ces oscillations à haute fréquence sont normalement associées à des fonctions cognitives supérieures : la perception consciente, la mémoire et l'intégration d'informations complexes. Plus surprenant encore, cette activité a persisté plusieurs minutes après l'arrêt de l'oxygénation, atteignant des niveaux jusqu'à douze fois supérieurs à ceux observés durant l'état de veille normale.La biologie derrière les visionsCette "tempête" électrique n'est pas chaotique. Elle se caractérise par une synchronisation accrue entre différentes régions cérébrales, notamment les zones liées au traitement visuel et à la mémoire.L’activation des zones mémorielles pourrait expliquer le célèbre « film de la vie ».La synchronisation entre les zones sensorielles pourrait être à l'origine des visions intenses ou du sentiment de détachement du corps.Ces découvertes suggèrent que les EMI ne sont pas de simples hallucinations dues au manque d'oxygène, mais le résultat d'un processus neurobiologique structuré et complexe.Repousser les frontières de la mortCes recherches en « thanatologie » scientifique bousculent la définition clinique de la mort. Si le cerveau reste capable d'une telle activité organisée après un arrêt cardiaque, à quel moment précis la conscience s'éteint-elle vraiment ?Au-delà de la curiosité scientifique, ces travaux ouvrent des perspectives en réanimation. Si nous comprenons mieux comment et pourquoi le cerveau s'active ainsi, nous pourrions un jour identifier des fenêtres d'intervention jusqu'ici insoupçonnées. Entre mystère de la conscience et réalité biologique, la science de la mort est en train de vivre sa propre révolution, nous invitant à repenser l'ultime frontière de notre existence.
Comment l'empire romain a créé la première hyperinflation ?
03:10|Au IIIᵉ siècle de notre ère, l’Empire romain traverse une période de crises profondes. Les guerres aux frontières se multiplient, les empereurs se succèdent à un rythme effréné et l’armée devient de plus en plus coûteuse. Pour financer ces dépenses croissantes, l’État romain va recourir à une solution apparemment simple : dévaluer sa monnaie.Depuis longtemps, la pièce principale de l’économie romaine est le denier, une monnaie d’argent introduite au IIIᵉ siècle avant notre ère. Pendant des siècles, sa valeur repose sur la quantité réelle d’argent qu’elle contient. Mais au fil du temps, les empereurs commencent à réduire discrètement cette proportion.Au début du IIIᵉ siècle, les pièces contiennent encore une part importante d’argent. Mais face aux besoins financiers croissants — notamment pour payer les soldats — le pouvoir impérial accélère la dégradation monétaire. On frappe de plus en plus de pièces, tout en diminuant leur teneur en métal précieux.Le phénomène s’emballe rapidement. Vers la fin du IIIᵉ siècle, certaines monnaies ne contiennent plus que quelques pourcents d’argent, parfois moins de 5 %. Le reste est composé de métaux bien moins précieux comme le cuivre.Le problème est que les Romains comprennent vite ce qui se passe. Lorsque les gens réalisent que les nouvelles pièces valent moins que les anciennes, ils adoptent un comportement économique classique : ils gardent les bonnes monnaies et dépensent les mauvaises. Les anciennes pièces riches en argent sont thésaurisées ou fondues.Résultat : la monnaie qui circule est de plus en plus dévaluée.Les prix commencent alors à grimper rapidement. Les marchands exigent davantage de pièces pour compenser la perte de valeur. Dans certaines régions, la monnaie devient si peu fiable que le troc réapparaît dans les échanges quotidiens.Face à cette inflation incontrôlable, l’empereur Diocletian tente une solution radicale. En 301, il publie le célèbre édit sur les prix maximums. Ce texte fixe un plafond pour le prix de centaines de produits et de services, sous peine de sanctions extrêmement sévères, parfois la mort.Mais la mesure se révèle impossible à appliquer. Les commerçants refusent de vendre à perte, les produits disparaissent des marchés et un marché noir se développe rapidement. L’édit est finalement abandonné.Quelques années plus tard, une réforme monétaire plus efficace est menée par Constantine the Great. En 312, il introduit une nouvelle monnaie d’or appelée solidus, pesant environ 4,5 grammes d’or pur. Contrairement aux monnaies précédentes, cette pièce conserve une valeur stable.Le solidus inspire rapidement confiance. Il devient la monnaie de référence de l’Empire et restera utilisé pendant plus de sept siècles dans le monde byzantin.L’histoire de cette crise monétaire romaine illustre un principe économique toujours valable aujourd’hui : lorsque la confiance dans la monnaie disparaît, l’inflation peut rapidement devenir incontrôlable.