Partager

Choses à Savoir SCIENCES
Pourquoi les poules rougissent-elles ?
On le sait, les humains ne sont pas les seuls à ressentir des émotions. Les animaux y semblent aussi sensibles que nous.
Pour mieux comprendre comment ils réagissent à des stimuli externes, des chercheurs ont confronté des groupes de poules à certaines situations. Et ils se sont rendu compte que, dans certaines circonstances, ces volatiles avaient tendance à rougir, comme les humains.
Cette rougeur, peut-être causée par un afflux de sang, apparaît à des endroits précis, comme les joues ou les oreillons, des parties charnues situées sous les plumes de l'oreille.
Les chercheurs ont étudié des milliers de photos, prises sur un groupe de poules. Ils ont alors remarqué, sur certains clichés, que les joues des poules ne rougissent pas quand elles sont calmes. Tout comme les humains, là encore.
En revanche, ces rougeurs apparaissent quand elles sont placées dans des circonstances plaisantes, comme la distribution de vers, une friandise que ces gallinacés apprécient beaucoup.
Mais ces poules rougissent encore plus quand elles sont placées dans des conditions difficiles, comme une capture par le fermier par exemple.
Il s'agit d'un phénomène très rapide, la rougeur ne se manifestant que durant quelques secondes. Les spécialistes n'en connaissent pas la raison exacte, même s'ils pensent que, comme chez l'homme, cette subite rougeur pourrait être provoquée par un afflux sanguin.
Par ailleurs, la face d'une poule sera plus claire si elle se trouve dans un environnement rassurant, en présence de personnes qui lui sont familières. De telles différences de coloration pourraient donner d'utiles renseignements sur l'état émotionnel de ces volatiles.
Un indicateur pertinent, qui pourrait aider à améliorer leur cadre de vie. Une bonne nouvelle pour les défenseurs du bien-être animal.
Il reste aux scientifiques à mieux appréhender le fonctionnement de ce mécanisme. Ainsi, ils cherchent à comprendre le sens de ces rougissements quand les poules sont entre elles.
Il s'agit aussi, pour les chercheurs, de relier ces rougeurs fugaces à d'autres comportements des poules, comme les mouvements dont elles agitent les plumes de leur tête.
More episodes
View all episodes
Pourquoi classer les espèces vivantes a été un défi ?
03:49|Sécurisez votre vie privée avec Surfshark. Vous pouvez profiter de 4 mois supplémentaires en utilisant le lien https://surfshark.com/savoir2------------------------------Le XVIIIe siècle marque un tournant dans l’histoire des sciences naturelles. Avec l’expansion des voyages d’exploration, notamment depuis les colonies, une quantité phénoménale d’espèces végétales et animales inconnues afflue en Europe. Les scientifiques de l’époque sont alors confrontés à un défi de taille : comment nommer, organiser et comprendre cette immense diversité du vivant ?Deux grands naturalistes se sont particulièrement illustrés dans cette mission : Georges-Louis Leclerc de Buffon en France et Carl von Linné en Suède. Cependant, leurs approches étaient radicalement différentes.L’Approche de Linné : Une Classification UniverselleCarl von Linné (1707-1778) propose un système rigoureux et standardisé pour classer les espèces. Il développe la nomenclature binominale, encore utilisée aujourd’hui, qui attribue à chaque espèce deux noms latins : un genre et une espèce (par exemple Homo sapiens pour l’être humain).Linné divise également le monde vivant en règnes, classes, ordres, genres et espèces, établissant ainsi une hiérarchie claire. Cette approche est extrêmement pratique et systématique, car elle permet aux scientifiques de parler un même langage et d’identifier les organismes de manière cohérente.Cependant, Linné croyait en une classification fixiste, c’est-à-dire que chaque espèce était créée par Dieu et immuable. Il ne tenait pas compte des variations et de l’évolution des espèces au fil du temps.L’Approche de Buffon : L’Observation et la Variabilité du VivantGeorges-Louis Leclerc de Buffon (1707-1788) adopte une approche plus empirique. Dans son monumental Histoire naturelle, il décrit les espèces en privilégiant l’observation de leur comportement, de leur environnement et de leurs variations.Contrairement à Linné, Buffon ne cherche pas à classer les êtres vivants de manière rigide. Il insiste sur les ressemblances et les adaptations des espèces à leur milieu, ouvrant ainsi la voie aux futures théories de l’évolution. Il suggère même que les espèces pourraient changer au fil du temps sous l’influence de leur environnement, une idée précurseur de Darwin.Un Défi Toujours ActuelÀ leur époque, Buffon et Linné posent les bases de la classification moderne, mais de nouveaux défis émergent avec la découverte de la génétique et de l’évolution. Aujourd’hui, la classification repose sur la phylogénie, qui retrace l’histoire évolutive des espèces à partir de leur ADN.Ainsi, classer les espèces reste un défi majeur, mais les outils scientifiques modernes permettent désormais de mieux comprendre la complexité du vivant.Pourquoi les océans étaient-ils verts il y a un milliard d'années ?
02:09|Les océans de notre planète n’ont pas toujours été bleus comme nous les connaissons aujourd’hui. Il y a un milliard d’années, ils avaient une teinte verte, et ce n’était pas un simple effet d’optique ! Ce changement de couleur était principalement dû à la composition chimique des océans et à la présence massive de cyanobactéries et d’autres micro-organismes photosynthétiques.Des océans verts dans un monde primitifÀ cette époque, la Terre connaissait une atmosphère très différente. Le taux d’oxygène était beaucoup plus bas, et les océans étaient riches en fer dissous. Ce fer, en interagissant avec l’eau et d’autres composés, donnait aux océans une teinte verdâtre. De plus, les cyanobactéries, ces micro-organismes capables de photosynthèse, proliféraient dans ces eaux riches en nutriments. Ces bactéries ont joué un rôle clé dans la grande oxygénation de la planète, un événement qui a radicalement modifié la chimie des océans en libérant de l’oxygène dans l’atmosphère.Avec le temps, l’oxygène a réagi avec le fer dissous, précipitant ce dernier sous forme d’oxyde de fer (rouille), ce qui a clarifié les eaux océaniques et leur a donné la teinte bleue que nous connaissons aujourd’hui.Un retour au vert : l’impact du changement climatiqueDepuis plusieurs années, les satellites détectent une évolution subtile mais significative dans la teinte des océans. Cette transformation est principalement due à l’essor du phytoplancton, qui connaît une croissance accélérée sous l’effet du réchauffement climatique.Avec l’augmentation des températures, l’océan devient moins stable, avec des couches d’eau qui se mélangent moins bien. Cette stratification favorise la prolifération de certaines espèces de phytoplancton, notamment celles qui contiennent des pigments verts comme la chlorophylle. Plus de phytoplancton signifie plus de zones vertes, modifiant la couleur des océans à grande échelle.Conséquences écologiques majeuresSi cette tendance se poursuit, cela pourrait bouleverser les écosystèmes marins. Le phytoplancton est à la base de la chaîne alimentaire marine, et des changements dans sa répartition peuvent affecter l’ensemble des organismes marins, des petits crustacés aux grands prédateurs comme les baleines. De plus, certaines espèces toxiques pourraient proliférer, mettant en péril la biodiversité et la pêche.Ainsi, les océans pourraient bien redevenir verts, mais cette fois-ci, sous l’effet des activités humaines. Un signal d’alarme à ne pas ignorer !Pourquoi le Sahara est-il passé d’une région autrefois fertile à un désert ?
02:28|Le Sahara, aujourd’hui le plus grand désert chaud du monde, n’a pas toujours été une étendue aride et inhospitalière. Il y a plusieurs milliers d’années, cette région était une savane luxuriante, peuplée d’animaux et d’humains. La transformation du Sahara en désert est due à une combinaison de facteurs climatiques naturels et de changements environnementaux à long terme.Un Sahara vert il y a 10 000 ansPendant le dernier maximum glaciaire, il y a environ 20 000 ans, le Sahara était déjà un désert. Mais vers 10 000 av. J.-C., la situation change radicalement grâce à un phénomène appelé l’optimum climatique africain. Ce changement est causé par des variations de l’orbite terrestre et de son axe d’inclinaison, qui influencent la répartition des rayons solaires et modifient les régimes de mousson.Ces transformations entraînent des précipitations plus abondantes en Afrique du Nord, faisant du Sahara une région verdoyante, parcourue par de grands lacs, des rivières et des forêts. Des peintures rupestres découvertes dans le désert témoignent de la présence d’hippopotames, girafes et éléphants, ainsi que de communautés humaines pratiquant l’agriculture et l’élevage.Le retour de l’ariditéVers 5000 av. J.-C., l’inclinaison de la Terre change de nouveau, modifiant les régimes climatiques et réduisant progressivement les pluies. Ce processus, appelé aridification du Sahara, s’étend sur plusieurs milliers d’années. La végétation disparaît peu à peu, les lacs s’assèchent et les populations sont contraintes de migrer vers des régions plus hospitalières, notamment vers la vallée du Nil, où naîtra la civilisation égyptienne.Les causes de la désertificationPlusieurs facteurs expliquent cette transformation :1. Changements astronomiques : Les variations de l’orbite terrestre influencent la répartition des pluies en Afrique. 2. Effet d’albédo : Avec la disparition de la végétation, le sol clair du Sahara réfléchit davantage la lumière solaire, accentuant le réchauffement et l’aridité. 3. Action humaine ? Certains chercheurs suggèrent que la surexploitation des ressources par les premiers habitants (déforestation, surpâturage) a pu accélérer la désertification. Un processus encore en coursAujourd’hui, le Sahara continue de s’étendre vers le sud en raison du changement climatique et des activités humaines. Cependant, des cycles de verdissement sont observés à très long terme, ce qui suggère que, dans plusieurs milliers d’années, le Sahara pourrait redevenir verdoyant.Pourquoi les planètes gazeuses ne prennent-elles pas feu ?
01:56|On le sait, il existe deux sortes de planètes, les planètes telluriques, composées de roches et de métal, et les planètes gazeuses, composées, comme leur nom l'indique, de gaz légers, comme l'hélium ou l'hydrogène.On pourrait se demander si, du fait de leur composition, ces dernières planètes ne pourraient pas prendre feu ou même exploser. En effet, la plupart des gaz sont inflammables.D'après les spécialistes, une telle éventualité est impossible. Pourtant, il y a bien un combustible tout trouvé sur ces planètes : l'hydrogène, qu'on trouve en abondance sur Jupiter et Saturne, et sur d'autres planètes gazeuses, comme Uranus et Neptune.Ces deux dernières planètes recèlent aussi du méthane, qui peut aussi servir de combustible. Ce qui manque, en revanche sur ces planètes gazeuses, c'est le comburant, autrement dit une substance qui permet la combustion de l'hydrogène ou du méthane.Ainsi, l'oxygène est un excellent comburant, mais il n'y en a pas sur ces planètes gazeuses, sinon des quantités infimes. Faute de ce comburant, ces planètes ne peuvent donc pas exploser.Et s'il y avait un peu plus d'oxygène sur ces planètes gazeuses, que se passerait-il ? En plus d'un carburant et d'un comburant, en effet, il faut une étincelle pour mettre le feu aux poudres.Sur Saturne, par exemple, on pourrait la trouver dans les nombreux orages qui éclatent sur cette planète.Les curieux pourraient encore poser une autre question sur les planètes gazeuses : comment se fait-il que les gaz qui les composent ne se dissipent pas dans l'espace ? On sait à quel point, en effet, ils sont volatils.Prenons par exemple le cas de Jupiter, composée essentiellement d'hydrogène et d'hélium. À la place de la planète, on trouvait, au départ, un grand nuage de poussières, de gaz et de glace.Peu à peu, ces éléments se sont agglomérés pour former un agrégat plus dense, dont la gravité a commencé à attirer ce qui l'entourait, à commencer par les gaz. Et c'est la force gravitationnelle de la planète qui les retient dans son attraction, les empêchant de s'échapper dans l'espace.Pourquoi le cylindre O’Neill serait un habitat spatial fascinant ?
02:32|Le cylindre O’Neill est une structure conceptuelle d’habitat spatial proposée par le physicien Gerard K. O’Neill en 1978, dans son ouvrage The High Frontier: Human Colonies in Space. Il imaginait un avenir où l’humanité s’installerait dans des colonies spatiales autosuffisantes, situées en dehors de la Terre, notamment au point de Lagrange L5. Ce type d’habitat pourrait accueillir des millions de personnes et fournir un cadre de vie similaire à celui de notre planète.Structure et FonctionnementUn cylindre O’Neill se compose de deux immenses cylindres d’environ 30 kilomètres de long et 6 kilomètres de diamètre, tournant en sens inverse pour annuler tout effet de couple (ce qui empêcherait la structure de dériver). Cette rotation permettrait de générer une gravité artificielle par force centrifuge, recréant une pesanteur proche de celle de la Terre.L’intérieur de chaque cylindre est divisé en six bandes longitudinales :- Trois bandes terrestres, où la surface serait aménagée avec des villes, des forêts, des lacs et des infrastructures agricoles.- Trois fenêtres transparentes, faites de verre blindé et équipées de miroirs orientables qui réfléchiraient la lumière du Soleil dans l’habitat, permettant d’alterner entre jour et nuit.Les miroirs extérieurs joueraient aussi un rôle clé dans le contrôle thermique et la protection contre les radiations.Avantages et DéfisLe cylindre O’Neill offre plusieurs avantages :- Un environnement habitable, où la température, l’atmosphère et la gravité seraient ajustables.- Une autosuffisance alimentaire et énergétique, grâce à l’agriculture hydroponique et à l’énergie solaire.- Un espace immense, capable d’accueillir une population équivalente à une grande métropole.Cependant, sa construction poserait des défis majeurs, notamment :- L’extraction et le transport des matériaux, nécessitant l’exploitation de la Lune ou des astéroïdes.- La maîtrise de la rotation et de la stabilité structurelle sur le long terme.- La protection contre les météorites et le rayonnement cosmique.Un Rêve d’Avenir ?Bien qu’encore théorique, le concept du cylindre O’Neill a inspiré des œuvres de science-fiction, comme le film Interstellar et des animes comme Gundam. Avec l’essor du voyage spatial et des projets de colonisation martienne, certaines idées d’O’Neill pourraient un jour devenir réalité.BONUS - Que reste-t-il de Néandertal en nous ?
09:18|Imaginez un instant, vous regardez vos mains, votre visage dans un miroir. Ce que vous voyez, c'est vous. Et pourtant, une partie...Pourquoi le sang et l'urine pourraient servir à construire des habitations sur Mars ?
03:08|La perspective de missions habitées vers Mars soulève des défis majeurs, notamment en matière de construction d'habitats capables de protéger les astronautes des conditions extrêmes de la planète rouge. Transporter des matériaux de construction depuis la Terre étant coûteux et complexe, les scientifiques explorent des solutions utilisant les ressources disponibles sur place, une approche connue sous le nom d'utilisation des ressources in situ (ISRU).Le régolithe martien comme matériau de baseLe sol martien est recouvert d'une couche de poussière et de fragments rocheux appelée régolithe. Abondant et accessible, le régolithe est envisagé comme composant principal pour la fabrication de structures sur Mars. Cependant, pour en faire un matériau de construction solide, il nécessite un liant efficace.Inspiration des techniques de la Rome antiqueLes Romains de l'Antiquité utilisaient des additifs organiques, tels que le sang animal, pour améliorer les propriétés mécaniques de leurs matériaux de construction. Cette pratique augmentait la résistance et la durabilité de leurs édifices. S'inspirant de cette méthode, des chercheurs ont proposé d'utiliser des fluides corporels humains, notamment le sang et l'urine, comme liants pour le régolithe martien. Cette approche vise à créer un béton martien robuste en exploitant les ressources humaines disponibles sur place.Propriétés des fluides corporels comme liantsLe sang humain contient des protéines, telles que l'albumine, qui possèdent des propriétés adhésives. Lorsqu'elles sont mélangées au régolithe, ces protéines peuvent former des liaisons solides entre les particules, produisant un matériau comparable au béton. De même, l'urine contient de l'urée, une substance capable de dénaturer les protéines et d'améliorer leur capacité à lier les particules solides. L'ajout d'urine au mélange pourrait ainsi renforcer davantage le matériau obtenu.Avantages et défis de cette approcheL'utilisation de fluides corporels présente plusieurs avantages :- Réduction de la dépendance aux ressources terrestres : en exploitant des matériaux disponibles sur Mars et produits par les astronautes eux-mêmes, cette méthode diminue le besoin d'approvisionnements depuis la Terre.- Production continue de matériaux : les astronautes génèrent quotidiennement des fluides corporels, offrant une source régulière de liant pour la construction.Cependant, cette approche soulève également des défis :- Quantité de fluides nécessaire : la production de volumes suffisants de sang et d'urine pour des constructions à grande échelle pourrait être contraignante et affecter la santé des astronautes.- Aspects éthiques et psychologiques : l'idée d'utiliser des fluides corporels dans les matériaux de construction peut susciter des réticences et nécessite une acceptation culturelle et individuelle.Perspectives futuresBien que prometteuse, cette technique nécessite des recherches supplémentaires pour évaluer sa faisabilité pratique et son impact sur la santé des astronautes. Parallèlement, d'autres solutions sont explorées, telles que l'utilisation de bactéries ou de champignons pour produire des liants biologiques, ou encore la mise au point de polymères synthétiques à partir de ressources martiennes. L'objectif ultime est de développer des méthodes de construction durables et efficaces, permettant l'établissement de colonies humaines autonomes sur Mars.Notre galaxie va-t-elle être “avalée” par un trou noir ?
02:27|Des chercheurs du Harvard & Smithsonian Center for Astrophysics ont récemment mis en évidence des indices suggérant la présence d'un trou noir supermassif, estimé à environ 600 000 fois la masse du Soleil, au sein du Grand Nuage de Magellan (GNM). Cette galaxie naine, satellite de la Voie lactée, est en orbite autour de notre galaxie et se rapproche progressivement, ce qui pourrait, à terme, conduire à une fusion galactique.Détection indirecte par les étoiles hypervélocesLes trous noirs, en particulier ceux qui ne sont pas en phase d'accrétion active de matière, sont difficiles à détecter directement en raison de leur nature invisible. Cependant, leur présence peut être inférée par leurs effets gravitationnels sur leur environnement. Dans cette étude, les chercheurs ont analysé le mouvement d'étoiles dites "hypervéloces" : des étoiles se déplaçant à des vitesses exceptionnellement élevées, suffisantes pour échapper à l'attraction gravitationnelle de la Voie lactée.Parmi les étoiles hypervéloces étudiées, neuf semblaient provenir du GNM. Pour qu'une étoile atteigne une telle vitesse, une interaction gravitationnelle avec un objet extrêmement massif est nécessaire. Les calculs des chercheurs indiquent qu'un trou noir d'environ 600 000 masses solaires pourrait être responsable de l'accélération de ces étoiles.Implications pour l'avenir galactiqueLe GNM est en orbite autour de la Voie lactée et se rapproche lentement de notre galaxie. Les modèles astrophysiques prédisent qu'une collision et une fusion entre le GNM et la Voie lactée pourraient se produire dans environ 2 milliards d'années. Si le trou noir supermassif du GNM existe, cette fusion galactique pourrait entraîner une interaction entre ce trou noir et Sagittarius A, le trou noir supermassif situé au centre de la Voie lactée.Une telle interaction pourrait avoir des conséquences significatives, notamment la fusion des deux trous noirs, générant des ondes gravitationnelles détectables et modifiant la dynamique stellaire au sein de la galaxie résultante. Cependant, ces événements se dérouleraient sur des échelles de temps extrêmement longues et n'auraient pas d'impact direct sur notre système solaire à court terme.Précautions et perspectives futuresBien que ces découvertes soient intrigantes, elles reposent sur des déductions indirectes. Des observations supplémentaires et des études plus approfondies sont nécessaires pour confirmer l'existence de ce trou noir supermassif dans le GNM. Les futures missions d'observation, notamment celles utilisant des instruments de détection d'ondes gravitationnelles, pourraient fournir des preuves plus directes et enrichir notre compréhension des interactions entre galaxies et des trous noirs supermassifs qu'elles abritent.En résumé, la possible existence d'un trou noir massif dans le Grand Nuage de Magellan, se rapprochant de la Voie lactée, ouvre de nouvelles perspectives sur l'évolution future de notre galaxie et les phénomènes astrophysiques associés aux fusions galactiques.Combien de fois faut-il faire l’amour pour être heureux (selon la science) ?
01:53|La fréquence des rapports sexuels au sein d’un couple est souvent perçue comme un indicateur de satisfaction et de bonheur. Une étude canadienne, publiée dans la revue Social Psychological and Personality Science, a cherché à comprendre dans quelle mesure le sexe influence le bien-être. Contrairement à l’idée reçue selon laquelle « plus c’est fréquent, mieux c’est », les résultats montrent qu’au-delà d’une fois par semaine, l’augmentation de la fréquence ne procure pas de bénéfice supplémentaire en termes de bonheur.L’étude et ses résultatsL’étude s’est appuyée sur l’analyse des données de plus de 30 000 Américains sur une période de 40 ans. Les chercheurs ont examiné le lien entre la fréquence des rapports sexuels et la satisfaction relationnelle. Il en ressort que :- Les couples ayant des rapports sexuels au moins une fois par semaine se disent plus heureux que ceux qui en ont moins.- Cependant, au-delà d’un rapport hebdomadaire, le niveau de bonheur ne s’améliore pas davantage.Ces résultats suggèrent que la relation entre fréquence sexuelle et bonheur suit une courbe ascendante jusqu’à un point de saturation, après lequel l’augmentation du nombre de rapports n’a plus d’impact significatif.Pourquoi une fois par semaine suffit ?L’explication repose sur plusieurs facteurs :1. Équilibre entre désir et routine- Avoir des relations sexuelles régulièrement permet de maintenir l’intimité et la connexion émotionnelle.- Une fréquence trop élevée pourrait transformer le sexe en une obligation plutôt qu’un plaisir spontané.2. Qualité vs quantité- Ce n’est pas tant la fréquence qui importe, mais plutôt la qualité des rapports et leur capacité à renforcer le lien entre partenaires.- Un couple qui a des relations sexuelles de qualité une fois par semaine peut être plus satisfait qu’un autre ayant des rapports plus fréquents mais moins épanouissants.3. Facteurs psychologiques et émotionnels- L’intimité ne repose pas uniquement sur le sexe mais aussi sur la communication, le respect et le partage.- Une connexion émotionnelle forte joue un rôle essentiel dans la satisfaction globale du couple.ConclusionFaire l’amour une fois par semaine semble être le juste équilibre entre maintenir une intimité forte et éviter la pression d’une fréquence trop élevée. Cependant, chaque couple est unique, et l’important reste d’être en phase avec les désirs et besoins de chacun.