Partager

cover art for Pourquoi l’être humain ne ressent-il pas les effets de la rotation de la Terre ?

Choses à Savoir SCIENCES

Pourquoi l’être humain ne ressent-il pas les effets de la rotation de la Terre ?

La Terre tourne pourtant très vite : à l’équateur, elle effectue un tour complet sur elle-même en 24 heures, soit une vitesse d’environ 1 670 km/h. Pourtant, nous ne ressentons ni ce mouvement, ni une quelconque sensation de déplacement. Cette absence de perception s’explique par plusieurs lois fondamentales de la physique et par la façon dont notre corps est conçu pour ressentir les mouvements.


Un mouvement constant et régulier

L’une des principales raisons est que la Terre tourne à vitesse constante. Il n’y a pas d’accélération perceptible, et c’est justement cela qui fait toute la différence. Selon la première loi de Newton, aussi appelée principe d’inertie, un objet en mouvement continue son mouvement à vitesse constante tant qu'aucune force extérieure ne vient le perturber. C’est pourquoi, à l’intérieur d’un avion en croisière, on peut marcher normalement : tout bouge à la même vitesse, nous y compris.

Nous tournons donc avec la Terre, à la même vitesse qu’elle. L’atmosphère aussi tourne à la même vitesse. Il n’y a donc aucun frottement de l’air, aucun déplacement brutal, rien qui signale à nos organes sensoriels un mouvement particulier. La rotation est silencieuse, régulière, imperceptible.


Un corps humain peu sensible aux mouvements lents

Notre corps est équipé d’un système vestibulaire, situé dans l’oreille interne, qui permet de détecter les mouvements, les accélérations et les changements d’orientation. Mais ce système ne réagit qu’aux accélérations. Il est incapable de détecter un mouvement uniforme et circulaire à grande échelle comme celui de la Terre. Ainsi, tant qu’il n’y a pas de variation de vitesse ou de direction, notre cerveau ne reçoit aucune alerte.


La taille colossale de la Terre

Autre point essentiel : la courbure de la Terre est immense. Même si nous tournons à grande vitesse, la trajectoire est très large et le rayon de courbure gigantesque. Cela rend la force centrifuge très faible — de l’ordre de quelques millièmes de g, bien trop peu pour être ressentie directement. À l’équateur, cette force réduit à peine notre poids apparent d’environ 0,3 %. Insuffisant pour créer un vertige.


Une rotation prouvée, mais invisible au quotidien

Bien que nous ne la ressentions pas, la rotation de la Terre est détectable scientifiquement : par exemple avec le pendule de Foucault, ou à travers l’effet Coriolis qui influe sur les courants océaniques et la trajectoire des vents.


En somme, nous ne ressentons pas la rotation de la Terre parce que tout tourne avec nous, à vitesse constante, sans heurt. Notre corps ne perçoit que les changements brutaux… pas les grandes mécaniques douces du cosmos.

More episodes

View all episodes

  • Pourquoi les impacts de balles indiquent les endroits les plus sûrs d’un avion ?

    02:35|
    Pour écouter mes autres épisodes:-Quelle est la différence entre Monaco et Monte Carlo ?Apple Podcasts:https://podcasts.apple.com/fr/podcast/quelle-est-la-diff%C3%A9rence-entre-monaco-et-monte-carlo/id1048372492?i=1000761727152Spotify:https://open.spotify.com/episode/2ozSXZHXpurf8FwP2tew5V?si=a212a5eae385483d-Quelle est la différence entre “pingre” et “radin” ?Apple Podcasts:https://podcasts.apple.com/fr/podcast/quelle-est-la-diff%C3%A9rence-entre-pingre-et-radin/id1048372492?i=1000761512561Spotify:https://open.spotify.com/episode/4Vw3gUWawxFHHUJZAzj1jo?si=6c4275b18e8d41f0--------------------------En 1943, en pleine Seconde Guerre mondiale, l’armée américaine fait face à un problème dramatique : trop de bombardiers ne reviennent pas de mission. Pour limiter les pertes, elle demande à ses ingénieurs d’analyser les avions qui, eux, parviennent à rentrer. Le constat semble évident : leurs ailes, leur fuselage et leur queue sont criblés d’impacts de balles. Conclusion intuitive : ce sont ces zones qu’il faut renforcer.Et pourtant… cette conclusion est fausse.C’est là qu’intervient Abraham Wald, un mathématicien hongrois. Son raisonnement va complètement renverser la situation. Il observe que les ingénieurs ne regardent qu’une partie du problème : les avions survivants. Or, ces impacts de balles montrent précisément… les endroits où un avion peut être touché sans être détruit.Autrement dit, si un avion revient avec des trous dans les ailes, c’est que ces zones ne sont pas vitales. Elles peuvent encaisser des dégâts. Ce sont, paradoxalement, les endroits les plus “sûrs” de l’appareil.Mais alors, où faut-il blinder ? Justement là où il n’y a presque aucun impact sur les avions revenus. Pourquoi ? Parce que les avions touchés à ces endroits-là… ne reviennent jamais. Les tirs dans les moteurs, le cockpit ou certaines parties critiques entraînent une destruction immédiate. Ces zones sont donc sous-représentées dans les observations, non pas parce qu’elles sont épargnées, mais parce qu’elles sont fatales.Ce raisonnement illustre un biais cognitif fondamental : le biais du survivant. On tire des conclusions à partir des cas visibles — ceux qui ont survécu — en oubliant tous ceux qui ont disparu et qui, pourtant, contiennent l’information la plus cruciale.La recommandation de Wald est donc contre-intuitive mais décisive : renforcer les zones sans impacts visibles. C’est-à-dire les moteurs, le cockpit, les systèmes essentiels. Là où un seul tir suffit à abattre l’avion.Ce principe dépasse largement le cadre militaire. On le retrouve partout : dans l’économie, dans la santé, dans les startups. Par exemple, analyser uniquement les entreprises qui réussissent pour comprendre le succès est une erreur classique. On oublie toutes celles qui ont échoué pour les mêmes raisons… mais qu’on ne voit plus.Au fond, cette histoire raconte quelque chose de profond sur notre manière de penser. Nous faisons confiance à ce que nous voyons, alors que, parfois, l’information la plus importante est justement celle qui manque.Et dans le cas des avions de combat, cette erreur aurait pu coûter des milliers de vies.
  • Pourquoi la “mémoire photographique” n’existe (presque) pas ?

    02:01|
    On entend souvent parler de “mémoire photographique”, cette capacité presque magique à se souvenir d’une scène dans les moindres détails, comme si notre cerveau prenait une photo parfaite du réel. En réalité, ce concept relève largement du mythe. La science, elle, parle plutôt de mémoire eidétique — un phénomène bien réel, mais beaucoup plus nuancé.La mémoire eidétique désigne la capacité à conserver pendant un court laps de temps une image mentale extrêmement précise après l’avoir observée. Concrètement, une personne peut continuer à “voir” une image quelques secondes, voire quelques dizaines de secondes, après sa disparition, avec un niveau de détail impressionnant. Elle peut par exemple décrire des éléments visuels très fins, comme des motifs, des couleurs ou des positions exactes.Mais attention : cette mémoire n’est ni parfaite, ni durable. Contrairement à l’idée de mémoire photographique, l’image ne reste pas stockée indéfiniment, et elle n’est pas figée. Elle peut se déformer, s’effacer progressivement, ou être influencée par l’attention et l’interprétation.Ce phénomène est surtout observé chez les enfants. Chez certains d’entre eux, la mémoire eidétique semble plus fréquente, avant de disparaître avec l’âge. Une hypothèse avancée par les neurosciences est que le développement du langage et de la pensée abstraite modifie la manière dont nous encodons les souvenirs. Autrement dit, en grandissant, nous passons d’une mémoire très visuelle à une mémoire plus conceptuelle.Sur le plan neurologique, la mémoire eidétique repose sur les systèmes visuels du cerveau, notamment les régions du cortex occipital, impliquées dans le traitement des images. Mais elle mobilise aussi des réseaux liés à l’attention et à la mémoire de travail. Ce n’est donc pas une “photo” stockée quelque part, mais une reconstruction active, maintenue temporairement par le cerveau.Il existe également des cas rares, chez certains adultes, de performances mnésiques extraordinaires. Mais même dans ces situations, on parle davantage de stratégies de mémorisation très efficaces que d’une véritable mémoire photographique.Au fond, la mémoire eidétique nous rappelle une chose essentielle : notre cerveau n’enregistre pas le monde comme une caméra. Il sélectionne, interprète, reconstruit. Nos souvenirs ne sont pas des copies fidèles du réel, mais des représentations dynamiques.Et c’est peut-être encore plus fascinant : nous ne sommes pas des archivistes du passé, mais des narrateurs permanents de notre propre expérience.
  • Pourquoi le jus d’orange a si mauvais goût après un brossage de dents ?

    01:32|
    Ce n’est pas un hasard, mais un petit chef-d’œuvre de chimie… et de biologie sensorielle.Tout commence avec le dentifrice. La plupart contiennent des agents moussants appelés tensioactifs, notamment le sodium lauryl sulfate (SLS). Leur rôle est de disperser les résidus dans la bouche et de donner cette sensation de mousse. Mais ils ont aussi un effet secondaire clé : ils perturbent notre perception du goût.Normalement, notre salive contient des phospholipides qui “protègent” en partie nos papilles gustatives, en atténuant certaines sensations, notamment l’amertume. Le SLS va temporairement éliminer cette protection. Résultat : les récepteurs de l’amertume deviennent beaucoup plus sensibles.Et c’est là que le jus d’orange entre en scène.Le jus d’orange contient des composés naturellement amers, comme les flavonoïdes (par exemple la naringine). En temps normal, ces molécules passent relativement inaperçues, car leur amertume est masquée par le sucre et atténuée par la salive. Mais après le brossage, ce “filtre” disparaît : l’amertume devient soudain beaucoup plus intense.En parallèle, le dentifrice agit aussi sur la perception du sucré. Les tensioactifs semblent inhiber les récepteurs du goût sucré, rendant le jus d’orange moins doux qu’il ne l’est réellement. Autrement dit, vous avez un double effet : plus d’amertume, moins de sucre. Le contraste est brutal.Il y a aussi un troisième facteur : l’acidité. Le jus d’orange est acide, et après le brossage, les tissus de la bouche peuvent être légèrement plus sensibles. Cette acidité est alors perçue de manière plus agressive, renforçant encore l’impression désagréable.Ce phénomène est temporaire. En quelques minutes, la salive reconstitue sa composition normale, les papilles retrouvent leur équilibre, et le jus d’orange redevient… du jus d’orange.Ce qui est fascinant, c’est que rien n’a changé dans le verre. Le liquide est exactement le même. C’est notre perception, modifiée chimiquement par le dentifrice, qui transforme complètement l’expérience.En résumé, le mauvais goût du jus d’orange après le brossage n’est pas une illusion… mais une interaction très concrète entre des molécules, nos papilles, et notre cerveau. Une preuve de plus que le goût n’est pas seulement une propriété des aliments — c’est une construction sensorielle, fragile et étonnamment facile à perturber.
  • Qu’est-ce que l’effet de vérité illusoire ?

    02:13|
    Suffit-il de répéter une information pour qu’elle paraisse vraie ? Intuitivement, on aimerait répondre non. Et pourtant, la psychologie montre que c’est souvent le cas. C’est ce qu’on appelle l’« effet de vérité illusoire ».Ce phénomène a été mis en évidence dès les années 1970, notamment par les chercheurs Lynn Hasher, David Goldstein et Thomas Toppino. Leur découverte est simple mais troublante : plus une affirmation est répétée, plus elle a de chances d’être perçue comme vraie — même si elle est fausse, et même si l’on sait qu’elle est fausse.Pourquoi ? La clé se trouve dans le fonctionnement de notre cerveau. Lorsque nous entendons une information pour la première fois, elle demande un effort de traitement : il faut l’analyser, la comparer à nos connaissances, éventuellement la vérifier. Mais à force de répétition, cette information devient familière. Et cette familiarité est interprétée, inconsciemment, comme un signe de vérité.Autrement dit, notre cerveau utilise un raccourci : “je reconnais cette information, donc elle doit être vraie”. Ce mécanisme s’appelle la « fluence cognitive » — la facilité avec laquelle une information est traitée. Plus quelque chose est facile à comprendre ou à reconnaître, plus cela nous semble crédible.Le problème, c’est que ce système est aveugle à la réalité. Il ne distingue pas le vrai du faux : il se contente d’évaluer la sensation de familiarité. Résultat, une fausse information répétée suffisamment de fois peut devenir convaincante, même pour des personnes éduquées ou bien informées.Ce biais est particulièrement puissant dans notre environnement actuel. Publicité, réseaux sociaux, discours politiques : certaines idées sont répétées en boucle. Même sans y croire au départ, cette exposition répétée peut progressivement influencer notre perception.Plus étonnant encore : des études ont montré que l’effet persiste même lorsque l’on prévient les participants que certaines affirmations sont fausses. La répétition continue malgré tout à renforcer leur crédibilité perçue. C’est dire à quel point ce biais est profondément ancré.Cela ne signifie pas que nous sommes condamnés à croire n’importe quoi. Mais cela rappelle une chose essentielle : notre cerveau n’est pas un détecteur de vérité, c’est un économiseur d’effort. Et parfois, pour aller plus vite, il confond le familier avec le vrai.En résumé, l’effet de vérité illusoire montre que la répétition ne transforme pas un mensonge en réalité… mais elle peut, dangereusement, le rendre crédible.
  • Peut-on créer une bombe à antimatière ?

    02:10|
    Et si une simple poignée d’antimatière suffisait à libérer plus d’énergie qu’une bombe nucléaire… est-ce vraiment possible, ou seulement un fantasme scientifique ?D’abord, il fauit savoir que l’antimatière existe bel et bien : pour chaque particule de matière, il existe une antiparticule. Lorsqu’elles se rencontrent, elles s’annihilent en libérant de l’énergie selon la célèbre équation d’Albert Einstein : E = mc². Et là, le rendement est maximal : 100 % de la masse est convertie en énergie, bien plus que dans une réaction nucléaire classique. Sur le papier, une bombe à antimatière serait donc extraordinairement puissante.Les physiciens savent même produire de l’antimatière. Au CERN, on fabrique des antiprotons ou des atomes d’antihydrogène en laboratoire. Mais c’est ici que le rêve s’effondre face à la réalité.Car produire de l’antimatière coûte une énergie colossale. À l’échelle actuelle, fabriquer ne serait-ce qu’un gramme demanderait des quantités d’énergie et des moyens industriels totalement irréalistes. En pratique, on en produit des quantités infimes, de l’ordre du milliardième de gramme… et encore.Ensuite, il faut la stocker. Et c’est un cauchemar technologique. L’antimatière ne doit jamais entrer en contact avec la matière ordinaire — donc avec les parois d’un récipient. On utilise des pièges magnétiques pour la maintenir en suspension dans le vide, mais cela ne fonctionne que pour des quantités minuscules, dans des conditions de laboratoire très contrôlées. Impossible, aujourd’hui, d’imaginer un “stockage” stable et transportable.Enfin, même si ces obstacles étaient levés, il resterait une question stratégique : pourquoi utiliser l’antimatière ? Les armes nucléaires existantes sont déjà suffisamment destructrices, bien plus simples à produire, et reposent sur des technologies maîtrisées depuis des décennies.Alors pourquoi ces annonces régulières ? Parce que l’antimatière fascine. Elle coche toutes les cases du sensationnel : énergie extrême, mystère cosmique, potentiel militaire. Certaines recherches explorent effectivement des applications — par exemple comme déclencheur de réactions nucléaires — mais on est très loin d’une arme opérationnelle.En réalité, parler aujourd’hui de “bombe à antimatière” relève davantage du raccourci médiatique que d’un projet concret. La physique ne ment pas : oui, c’est possible en théorie. Mais la technologie, elle, impose des limites très dures.En résumé, l’antimatière n’est pas une illusion. Mais son utilisation comme arme reste, pour longtemps encore, confinée à l’imaginaire — quelque part entre les équations d’Einstein et les scénarios de science-fiction.
  • Pourquoi les sous-marins sont-ils compressibles ?

    02:12|
    On imagine souvent les sous-marins comme des structures parfaitement rigides, capables de résister à tout. En réalité, ils sont… légèrement compressibles. Et cette propriété joue un rôle crucial dans leur comportement en plongée.Pour comprendre, il faut revenir à une loi physique fondamentale : la poussée d’Archimède.Cette formule dit que la force qui fait flotter un objet dépend du volume d’eau qu’il déplace. Plus un sous-marin occupe de volume, plus il déplace d’eau, et plus il est poussé vers le haut.Mais voilà le point clé : à mesure qu’un sous-marin descend, la pression de l’eau augmente très fortement — environ 1 bar tous les 10 mètres. À 100 mètres de profondeur, la coque subit déjà une pression énorme. Même si elle est en acier très épais, elle se déforme légèrement, de manière élastique.Cette déformation est minime à l’œil nu, mais physiquement mesurable : un sous-marin de taille moyenne peut perdre environ 1 m³ de volume tous les 100 mètres de profondeur. Cela signifie qu’il déplace moins d’eau qu’en surface.Et c’est là que tout bascule.Puisque le volume diminue, la poussée d’Archimède diminue aussi. Concrètement, perdre 1 m³ de volume revient à déplacer une tonne d’eau en moins. Résultat : le sous-marin devient légèrement plus lourd que l’eau autour de lui… et a tendance à couler davantage.C’est un effet en chaîne. Plus il descend, plus la pression augmente, plus la coque se comprime, plus la flottabilité diminue — ce qui accentue encore la descente. Sans correction, cela pourrait entraîner une plongée incontrôlée.Pour compenser ce phénomène, les sous-marins utilisent des ballasts, c’est-à-dire des réservoirs d’eau et d’air. En ajustant finement la quantité d’eau dans ces ballasts, ils peuvent retrouver une flottabilité neutre, même en profondeur.Ce phénomène de compressibilité explique aussi pourquoi maintenir une profondeur stable est un exercice délicat. Les pilotes doivent constamment ajuster les paramètres, car l’équilibre est dynamique, jamais parfaitement stable.Enfin, il faut distinguer deux types de déformation. La première est élastique : la coque se comprime légèrement puis reprend sa forme en remontant. La seconde, bien plus dangereuse, survient si la pression dépasse les limites du matériau : c’est l’implosion, brutale et catastrophique.En résumé, un sous-marin n’est pas une bulle rigide dans l’océan. C’est une structure vivante, qui réagit à la pression, se contracte imperceptiblement… et dont l’équilibre repose sur une lutte permanente entre gravité, pression et flottabilité.
  • Voyage vers Mars : l'équipage finira-t-il par désobéir à la Terre ?

    02:30|
    Le projet SIRIUS est une série de simulations internationales (impliquant notamment la NASA et l'agence russe Roscosmos) réalisées dans un complexe terrestre à Moscou. L'objectif est d'étudier les effets psychologiques et physiologiques d'un isolement prolongé sur un équipage mixte, afin de préparer les futures missions habitées vers Mars (horizon 2040).L'autonomie et la "rébellion" de l'équipage L'étude publiée dans Frontiers in Physiology met en évidence un phénomène fascinant appelé le "phénomène de détachement".Indépendance croissante : Au fil de la mission (notamment durant la simulation de 4 mois), l'équipage a tendance à s'isoler psychologiquement du centre de contrôle terrestre (MCC).Réduction de la communication : Les chercheurs ont observé une baisse significative du partage d'informations avec la Terre. L'équipage commence à prendre ses propres décisions et à moins solliciter l'avis des experts au sol, sauf lors d'étapes critiques comme l'atterrissage simulé.Solidarité interne : À mesure que les liens avec la Terre se distendent, la cohésion interne du groupe se renforce. L'équipage finit par former une "entité souveraine", moins encline à obéir aveuglément aux ordres extérieurs.Différences de comportement selon le genre L'article de Sciencepost et l'étude scientifique soulignent des nuances comportementales :Les femmes de l'équipage ont tendance à exprimer davantage de sentiments de joie et de tristesse par la communication verbale.Les hommes ont montré, dans certaines phases, des niveaux de colère plus fréquents.Cependant, sur le long terme, les profils de communication des deux sexes convergent vers une forme de régulation émotionnelle commune au groupe.Risques pour les missions réelles Cette autonomie, bien qu'essentielle pour la survie en cas de perte de signal (le délai de communication entre la Terre et Mars peut atteindre 20 minutes), inquiète les psychologues spatiaux :Le risque de déconnexion : Si l'équipage cesse de rapporter des problèmes ou de suivre les protocoles de sécurité par excès de confiance ou par sentiment d'autosuffisance, la mission pourrait être compromise.Gestion du stress : L'isolement extrême et la monotonie poussent l'équipage à créer sa propre "bulle sociale", ce qui peut masquer des tensions internes ou des défaillances psychologiques aux yeux du centre de contrôle.Le succès d'un voyage vers Mars ne dépendra pas seulement de la technologie, mais de la capacité humaine à gérer l'autonomie radicale. Le projet SIRIUS démontre que les futurs astronautes ne seront pas de simples exécutants, mais des explorateurs qui, par la force des choses, devront s'affranchir de la tutelle terrestre, avec tous les risques de rupture psychologique que cela comporte.
  • Qui est le prophète oublié du changement climatique ?

    02:28|
    L’idée que l’humain puisse modifier le climat n’est pas née au XXe siècle. Des réflexions existent dès la Grèce antique : certains observateurs se demandaient déjà si la déforestation ou l’assèchement des marais pouvaient influencer les pluies. Mais ces intuitions restaient locales, empiriques, et sans base quantitative.Le véritable tournant survient en 1896. Cette année-là, Arrhenius publie un article fondateur dans lequel il propose, pour la première fois, une théorie globale du réchauffement climatique d’origine humaine. Son raisonnement repose sur un phénomène physique bien connu aujourd’hui : l’effet de serre. Certains gaz présents dans l’atmosphère, notamment le dioxyde de carbone (CO₂), absorbent une partie du rayonnement infrarouge émis par la Terre, empêchant la chaleur de s’échapper vers l’espace.Arrhenius va plus loin : il tente de quantifier cet effet. À partir de calculs longs et minutieux — réalisés sans ordinateur — il estime que doubler la concentration de CO₂ dans l’atmosphère pourrait entraîner une hausse significative de la température globale, de plusieurs degrés. À l’inverse, une diminution du CO₂ pourrait provoquer un refroidissement, voire favoriser des périodes glaciaires.Ce qui rend son travail remarquable, c’est qu’il identifie déjà le rôle des activités humaines. À la fin du XIXe siècle, l’industrialisation bat son plein, et la combustion du charbon libère d’importantes quantités de CO₂. Arrhenius comprend que ces émissions pourraient, à long terme, modifier l’équilibre thermique de la planète.Pourtant, ses travaux restent longtemps marginalisés. Pourquoi ? D’abord parce que ses contemporains jugent les effets trop lents pour être perceptibles. Ensuite parce que le climat est encore perçu comme un système immense, stable, presque immuable face aux activités humaines. Enfin, ses calculs, bien que visionnaires, restent approximatifs selon les standards modernes.Il faudra attendre le milieu du XXe siècle, avec l’amélioration des mesures atmosphériques et des modèles climatiques, pour que ses intuitions soient confirmées et prises au sérieux.Aujourd’hui, les estimations d’Arrhenius se révèlent étonnamment proches des résultats actuels. Il avait, en quelque sorte, anticipé dès 1896 le cœur du problème climatique contemporain.En résumé, Svante Arrhenius est qualifié de “prophète oublié” car il fut le premier à formuler, de manière scientifique et globale, l’idée que l’humanité pouvait réchauffer la planète. Une intuition visionnaire… longtemps ignorée, mais aujourd’hui au centre des préoccupations mondiales.
  • Pourquoi vos selles sont-elles brunes ?

    02:13|
    Pourquoi, quels que soient vos repas — salade verte, riz blanc ou même aliments très colorés — vos selles restent-elles presque toujours brunes ? La réponse tient à une chaîne de transformations biologiques remarquablement précise, impliquant un pigment issu… de vos globules rouges.Tout commence avec l’hémoglobine, la molécule contenue dans les globules rouges qui transporte l’oxygène dans le sang. Ces globules rouges ont une durée de vie limitée, environ 120 jours. Lorsqu’ils sont détruits — principalement dans la rate et le foie — l’hémoglobine est dégradée. Une partie de cette molécule, appelée l’hème, est alors transformée en un pigment jaune : la bilirubine.Cette bilirubine est ensuite transportée jusqu’au foie, où elle est modifiée (on dit “conjuguée”) pour devenir soluble. Elle est alors excrétée dans la bile, un liquide digestif produit par le foie et stocké dans la vésicule biliaire. Cette bile est libérée dans l’intestin grêle pour participer à la digestion des graisses.C’est à partir de ce moment que les choses deviennent intéressantes. Dans l’intestin, la bilirubine subit l’action des bactéries du microbiote intestinal. Ces micro-organismes la transforment en plusieurs composés, dont un pigment appelé urobilinogène. Une partie de cet urobilinogène est réabsorbée dans le sang et éliminée par les reins — ce qui donne à l’urine sa couleur jaune. Mais l’autre partie poursuit son chemin dans le côlon.Là, elle est convertie en stercobiline. Et c’est ce pigment qui est responsable de la couleur brune caractéristique des selles.Autrement dit, la couleur de vos selles ne dépend pas directement de ce que vous mangez, mais d’un processus interne lié au recyclage de vos globules rouges. Les aliments peuvent bien sûr influencer légèrement la teinte — par exemple, la betterave peut donner une coloration rougeâtre, ou certains médicaments une couleur plus sombre — mais la dominante reste brune à cause de la stercobiline.Ce mécanisme est si constant qu’un changement de couleur peut être un signal médical important. Des selles très pâles peuvent indiquer un problème de production ou d’écoulement de la bile. À l’inverse, des selles noires peuvent révéler la présence de sang digéré.En résumé, derrière un phénomène banal se cache une véritable chaîne biochimique : destruction des globules rouges, transformation de l’hème en bilirubine, action du foie, puis du microbiote intestinal… jusqu’à la formation de la stercobiline. Un pigment discret, mais essentiel, qui colore quotidiennement le résultat final de votre digestion.