Partager

Choses à Savoir SCIENCES
Le koala peut-il vraiment prédire la météo ?
Les facultés de certains animaux n'en finissent pas de nous étonner. Dans une récente étude, des scientifiques révèlent ainsi que les koalas seraient capables de prévoir le temps à venir.
Ces animaux, observés dans la nature, n'ont pas besoin des prévisions météo pour savoir que des jours chauds les attendent. Selon les zoologues, il s'y préparent en abaissant leur température corporelle.
Pour parvenir à ces conclusions, les chercheurs ont observé ces marsupiaux dans leur habitat naturel, en Australie. Durant deux semaines, ils ont étudié leur comportement, notamment dans les jours les plus chauds.
Les scientifiques ont noté que, dans des conditions climatiques ordinaires, la température corporelle des koalas se maintenant à un peu plus de 36°C.
Ils furent surpris de constater que, par un jour de canicule, où le thermomètre avait grimpé à près de 41°C, ces petits animaux avaient, dès le lever du jour, abaissé leur température à 32,4°C. Jamais une température corporelle aussi basse n'avait été constatée.
Les marsupiaux avaient donc "senti" à l'avance que ce jour connaîtrait une véritable canicule. Et ils avaient adapté leur température en conséquence. Selon les zoologues, la température corporelle des koalas dépend donc étroitement de celle de l'air.
Ainsi, leur température corporelle pourrait-elle lentement augmenter avec la chaleur ambiante, sans que les koalas soient obligés de se rafraîchir régulièrement, afin que la sudation permette d'évacuer la chaleur. Une technique qui permet à ces animaux d'économiser une eau toujours assez rare dans ces régions sèches.
Les koalas seraient donc capables d'autoréguler leur température en fonction des conditions climatiques. Ce qui leur serait plus utile, pour survivre aux jours caniculaires, que d'autres techniques déjà observées.
En effet, les koalas ont l'habitude, durant les périodes chaudes, de se serrer contre les arbres, afin de rafraîchir leur corps.
Même si ces méthodes révèlent la faculté d'adaptation de ces animaux, elles ne suffiront peut-être pas à les protéger des conséquences du réchauffement climatiques. En effet, si des températures supérieures à 40 °C deviennent fréquentes, ces marsupiaux seront alors en danger.
More episodes
View all episodes
Faut-il éviter d’ajouter du miel dans une boisson chaude ?
02:24|Le miel est un édulcorant naturel apprécié pour son goût sucré et ses bienfaits sur la santé. Antibactérien, antioxydant et riche en nutriments, il est souvent utilisé en remplacement du sucre, notamment dans les infusions et les thés. Cependant, une question revient souvent : la chaleur altère-t-elle ses propriétés et peut-elle même le rendre nocif ?Les effets de la chaleur sur le mielLe miel est principalement composé de sucres naturels, d’enzymes, de vitamines et de minéraux. Toutefois, ces éléments sont sensibles à la chaleur. Dès 40°C, certaines enzymes bénéfiques, comme l'invertase et la diastase, commencent à être détruites. Au-delà de 60°C, la plupart des composés bioactifs disparaissent, réduisant ainsi les bienfaits du miel.Une préoccupation majeure réside dans la formation d’un composé appelé hydroxyméthylfurfural (HMF). Ce composé organique se forme lors du chauffage des sucres, en particulier dans les produits riches en fructose comme le miel. Ce processus, appelé réaction de déshydratation thermique, se produit généralement lorsque le miel est exposé à des températures élevées pendant une période prolongée. Plus la température est élevée et plus l’exposition est longue, plus la concentration en HMF augmente.L’HMF est souvent utilisé comme un indicateur de la fraîcheur et de la qualité du miel. Un miel stocké trop longtemps ou chauffé à haute température contient des niveaux plus élevés de cette molécule. La réglementation sur les produits alimentaires fixe d’ailleurs des limites maximales de concentration en HMF dans le miel commercialisé. Par exemple, l’Union européenne impose un seuil de 40 mg/kg pour le miel non transformé et de 80 mg/kg pour celui issu de climats tropicaux.L’étude menée par A. Annapoorani et al., publiée dans la National Library of Medicine, met en évidence les effets potentiellement toxiques de l’HMF sur l’organisme. En laboratoire, des tests sur des cellules animales ont suggéré que des doses élevées d’HMF pourraient avoir un impact négatif sur le foie, notamment en induisant un stress oxydatif et des dommages aux cellules hépatiques. De plus, certaines recherches indiquent que l’HMF pourrait posséder des propriétés mutagènes, c’est-à-dire qu’il pourrait altérer l’ADN et favoriser l’apparition de mutations cellulaires. Cependant, ces effets n’ont pas été démontrés de manière concluante chez l’homme.Cependant, il est important de relativiser ces résultats. Les concentrations d’HMF observées dans les boissons chaudes sucrées au miel restent généralement faibles et bien en dessous des seuils jugés dangereux pour l’organisme. En pratique, pour qu’une consommation de miel chauffé présente un risque réel pour la santé, il faudrait en ingérer des quantités très importantes et de manière régulière.Doit-on éviter le miel dans une boisson chaude ?Il est exagéré d’affirmer que mettre du miel dans une boisson chaude est dangereux pour la santé. Cependant, il est vrai que ses propriétés nutritionnelles sont amoindries par la chaleur. Pour profiter au mieux de ses bienfaits, il est préférable d’ajouter le miel après refroidissement de la boisson, lorsque celle-ci est à une température inférieure à 40°C. Cela permet de conserver une partie de ses enzymes et de limiter la formation d’HMF.En conclusion, le miel peut toujours être utilisé dans une boisson chaude, mais il est plus judicieux d’attendre qu’elle tiédisse avant de l’incorporer. Ainsi, on préserve au mieux ses qualités nutritives tout en profitant de son goût délicat.Connaissez-vous la supercherie fascinante du Turc mécanique ?
02:08|Le Turc mécanique est l’une des plus grandes supercheries de l’histoire des automates. Conçu par Wolfgang von Kempelen en 1769, cet automate d’échecs était censé être capable de battre n’importe quel joueur humain. Pendant plus de 80 ans, il a trompé le monde entier, défiant et battant certains des plus grands esprits de l’époque.Une invention pour impressionner l’impératriceWolfgang von Kempelen, un inventeur et fonctionnaire hongrois au service de la cour des Habsbourg, créa le Turc mécanique pour impressionner l’impératrice Marie-Thérèse d’Autriche. Il s’agissait d’un automate en forme de mannequin vêtu à la mode ottomane, assis devant un échiquier. Le Turc portait un turban et une longue robe orientale, d’où son nom.L’appareil était constitué d’un grand meuble en bois avec plusieurs compartiments. Avant chaque démonstration, Kempelen ouvrait les portes pour montrer un mécanisme complexe d’engrenages et de rouages, suggérant que le Turc fonctionnait grâce à une ingénierie avancée.Un automate qui défiait les plus grands joueursLors de ses performances, le Turc mécanique semblait capable de jouer aux échecs avec une intelligence surprenante. Il pouvait déplacer les pièces avec sa main articulée et effectuer des coups brillants. Il était même capable de réagir aux tentatives de triche en remettant correctement les pièces sur l’échiquier.Le Turc connut un immense succès à travers l’Europe. Il affronta de nombreux adversaires prestigieux, dont Benjamin Franklin, le philosophe et scientifique américain, et même Napoléon Bonaparte, qu’il aurait battu en quelques coups.Le secret du Turc mécaniqueEn réalité, le Turc mécanique n’était pas un véritable automate. Un joueur d’échecs humain était caché à l’intérieur du meuble ! Un système ingénieux de faux compartiments permettait à un maître des échecs de se dissimuler et de manipuler les mouvements du Turc grâce à des leviers.Kempelen garda son secret toute sa vie. Après sa mort, l’invention fut vendue à Johann Nepomuk Mälzel, qui continua les démonstrations aux États-Unis jusqu’à ce que le Turc soit détruit dans un incendie en 1854.Une supercherie légendaireLe Turc mécanique reste un symbole de l’illusion et de l’ingéniosité humaine. Il a inspiré des recherches sur les automates et l’intelligence artificielle, et son histoire est encore racontée comme l’un des plus grands mystères de la science et du divertissement.Pourquoi classer les espèces vivantes a été un défi ?
03:49|Sécurisez votre vie privée avec Surfshark. Vous pouvez profiter de 4 mois supplémentaires en utilisant le lien https://surfshark.com/savoir2------------------------------Le XVIIIe siècle marque un tournant dans l’histoire des sciences naturelles. Avec l’expansion des voyages d’exploration, notamment depuis les colonies, une quantité phénoménale d’espèces végétales et animales inconnues afflue en Europe. Les scientifiques de l’époque sont alors confrontés à un défi de taille : comment nommer, organiser et comprendre cette immense diversité du vivant ?Deux grands naturalistes se sont particulièrement illustrés dans cette mission : Georges-Louis Leclerc de Buffon en France et Carl von Linné en Suède. Cependant, leurs approches étaient radicalement différentes.L’Approche de Linné : Une Classification UniverselleCarl von Linné (1707-1778) propose un système rigoureux et standardisé pour classer les espèces. Il développe la nomenclature binominale, encore utilisée aujourd’hui, qui attribue à chaque espèce deux noms latins : un genre et une espèce (par exemple Homo sapiens pour l’être humain).Linné divise également le monde vivant en règnes, classes, ordres, genres et espèces, établissant ainsi une hiérarchie claire. Cette approche est extrêmement pratique et systématique, car elle permet aux scientifiques de parler un même langage et d’identifier les organismes de manière cohérente.Cependant, Linné croyait en une classification fixiste, c’est-à-dire que chaque espèce était créée par Dieu et immuable. Il ne tenait pas compte des variations et de l’évolution des espèces au fil du temps.L’Approche de Buffon : L’Observation et la Variabilité du VivantGeorges-Louis Leclerc de Buffon (1707-1788) adopte une approche plus empirique. Dans son monumental Histoire naturelle, il décrit les espèces en privilégiant l’observation de leur comportement, de leur environnement et de leurs variations.Contrairement à Linné, Buffon ne cherche pas à classer les êtres vivants de manière rigide. Il insiste sur les ressemblances et les adaptations des espèces à leur milieu, ouvrant ainsi la voie aux futures théories de l’évolution. Il suggère même que les espèces pourraient changer au fil du temps sous l’influence de leur environnement, une idée précurseur de Darwin.Un Défi Toujours ActuelÀ leur époque, Buffon et Linné posent les bases de la classification moderne, mais de nouveaux défis émergent avec la découverte de la génétique et de l’évolution. Aujourd’hui, la classification repose sur la phylogénie, qui retrace l’histoire évolutive des espèces à partir de leur ADN.Ainsi, classer les espèces reste un défi majeur, mais les outils scientifiques modernes permettent désormais de mieux comprendre la complexité du vivant.Pourquoi les océans étaient-ils verts il y a un milliard d'années ?
02:09|Les océans de notre planète n’ont pas toujours été bleus comme nous les connaissons aujourd’hui. Il y a un milliard d’années, ils avaient une teinte verte, et ce n’était pas un simple effet d’optique ! Ce changement de couleur était principalement dû à la composition chimique des océans et à la présence massive de cyanobactéries et d’autres micro-organismes photosynthétiques.Des océans verts dans un monde primitifÀ cette époque, la Terre connaissait une atmosphère très différente. Le taux d’oxygène était beaucoup plus bas, et les océans étaient riches en fer dissous. Ce fer, en interagissant avec l’eau et d’autres composés, donnait aux océans une teinte verdâtre. De plus, les cyanobactéries, ces micro-organismes capables de photosynthèse, proliféraient dans ces eaux riches en nutriments. Ces bactéries ont joué un rôle clé dans la grande oxygénation de la planète, un événement qui a radicalement modifié la chimie des océans en libérant de l’oxygène dans l’atmosphère.Avec le temps, l’oxygène a réagi avec le fer dissous, précipitant ce dernier sous forme d’oxyde de fer (rouille), ce qui a clarifié les eaux océaniques et leur a donné la teinte bleue que nous connaissons aujourd’hui.Un retour au vert : l’impact du changement climatiqueDepuis plusieurs années, les satellites détectent une évolution subtile mais significative dans la teinte des océans. Cette transformation est principalement due à l’essor du phytoplancton, qui connaît une croissance accélérée sous l’effet du réchauffement climatique.Avec l’augmentation des températures, l’océan devient moins stable, avec des couches d’eau qui se mélangent moins bien. Cette stratification favorise la prolifération de certaines espèces de phytoplancton, notamment celles qui contiennent des pigments verts comme la chlorophylle. Plus de phytoplancton signifie plus de zones vertes, modifiant la couleur des océans à grande échelle.Conséquences écologiques majeuresSi cette tendance se poursuit, cela pourrait bouleverser les écosystèmes marins. Le phytoplancton est à la base de la chaîne alimentaire marine, et des changements dans sa répartition peuvent affecter l’ensemble des organismes marins, des petits crustacés aux grands prédateurs comme les baleines. De plus, certaines espèces toxiques pourraient proliférer, mettant en péril la biodiversité et la pêche.Ainsi, les océans pourraient bien redevenir verts, mais cette fois-ci, sous l’effet des activités humaines. Un signal d’alarme à ne pas ignorer !Pourquoi le Sahara est-il passé d’une région autrefois fertile à un désert ?
02:28|Le Sahara, aujourd’hui le plus grand désert chaud du monde, n’a pas toujours été une étendue aride et inhospitalière. Il y a plusieurs milliers d’années, cette région était une savane luxuriante, peuplée d’animaux et d’humains. La transformation du Sahara en désert est due à une combinaison de facteurs climatiques naturels et de changements environnementaux à long terme.Un Sahara vert il y a 10 000 ansPendant le dernier maximum glaciaire, il y a environ 20 000 ans, le Sahara était déjà un désert. Mais vers 10 000 av. J.-C., la situation change radicalement grâce à un phénomène appelé l’optimum climatique africain. Ce changement est causé par des variations de l’orbite terrestre et de son axe d’inclinaison, qui influencent la répartition des rayons solaires et modifient les régimes de mousson.Ces transformations entraînent des précipitations plus abondantes en Afrique du Nord, faisant du Sahara une région verdoyante, parcourue par de grands lacs, des rivières et des forêts. Des peintures rupestres découvertes dans le désert témoignent de la présence d’hippopotames, girafes et éléphants, ainsi que de communautés humaines pratiquant l’agriculture et l’élevage.Le retour de l’ariditéVers 5000 av. J.-C., l’inclinaison de la Terre change de nouveau, modifiant les régimes climatiques et réduisant progressivement les pluies. Ce processus, appelé aridification du Sahara, s’étend sur plusieurs milliers d’années. La végétation disparaît peu à peu, les lacs s’assèchent et les populations sont contraintes de migrer vers des régions plus hospitalières, notamment vers la vallée du Nil, où naîtra la civilisation égyptienne.Les causes de la désertificationPlusieurs facteurs expliquent cette transformation :1. Changements astronomiques : Les variations de l’orbite terrestre influencent la répartition des pluies en Afrique. 2. Effet d’albédo : Avec la disparition de la végétation, le sol clair du Sahara réfléchit davantage la lumière solaire, accentuant le réchauffement et l’aridité. 3. Action humaine ? Certains chercheurs suggèrent que la surexploitation des ressources par les premiers habitants (déforestation, surpâturage) a pu accélérer la désertification. Un processus encore en coursAujourd’hui, le Sahara continue de s’étendre vers le sud en raison du changement climatique et des activités humaines. Cependant, des cycles de verdissement sont observés à très long terme, ce qui suggère que, dans plusieurs milliers d’années, le Sahara pourrait redevenir verdoyant.Pourquoi les planètes gazeuses ne prennent-elles pas feu ?
01:56|On le sait, il existe deux sortes de planètes, les planètes telluriques, composées de roches et de métal, et les planètes gazeuses, composées, comme leur nom l'indique, de gaz légers, comme l'hélium ou l'hydrogène.On pourrait se demander si, du fait de leur composition, ces dernières planètes ne pourraient pas prendre feu ou même exploser. En effet, la plupart des gaz sont inflammables.D'après les spécialistes, une telle éventualité est impossible. Pourtant, il y a bien un combustible tout trouvé sur ces planètes : l'hydrogène, qu'on trouve en abondance sur Jupiter et Saturne, et sur d'autres planètes gazeuses, comme Uranus et Neptune.Ces deux dernières planètes recèlent aussi du méthane, qui peut aussi servir de combustible. Ce qui manque, en revanche sur ces planètes gazeuses, c'est le comburant, autrement dit une substance qui permet la combustion de l'hydrogène ou du méthane.Ainsi, l'oxygène est un excellent comburant, mais il n'y en a pas sur ces planètes gazeuses, sinon des quantités infimes. Faute de ce comburant, ces planètes ne peuvent donc pas exploser.Et s'il y avait un peu plus d'oxygène sur ces planètes gazeuses, que se passerait-il ? En plus d'un carburant et d'un comburant, en effet, il faut une étincelle pour mettre le feu aux poudres.Sur Saturne, par exemple, on pourrait la trouver dans les nombreux orages qui éclatent sur cette planète.Les curieux pourraient encore poser une autre question sur les planètes gazeuses : comment se fait-il que les gaz qui les composent ne se dissipent pas dans l'espace ? On sait à quel point, en effet, ils sont volatils.Prenons par exemple le cas de Jupiter, composée essentiellement d'hydrogène et d'hélium. À la place de la planète, on trouvait, au départ, un grand nuage de poussières, de gaz et de glace.Peu à peu, ces éléments se sont agglomérés pour former un agrégat plus dense, dont la gravité a commencé à attirer ce qui l'entourait, à commencer par les gaz. Et c'est la force gravitationnelle de la planète qui les retient dans son attraction, les empêchant de s'échapper dans l'espace.Pourquoi le cylindre O’Neill serait un habitat spatial fascinant ?
02:32|Le cylindre O’Neill est une structure conceptuelle d’habitat spatial proposée par le physicien Gerard K. O’Neill en 1978, dans son ouvrage The High Frontier: Human Colonies in Space. Il imaginait un avenir où l’humanité s’installerait dans des colonies spatiales autosuffisantes, situées en dehors de la Terre, notamment au point de Lagrange L5. Ce type d’habitat pourrait accueillir des millions de personnes et fournir un cadre de vie similaire à celui de notre planète.Structure et FonctionnementUn cylindre O’Neill se compose de deux immenses cylindres d’environ 30 kilomètres de long et 6 kilomètres de diamètre, tournant en sens inverse pour annuler tout effet de couple (ce qui empêcherait la structure de dériver). Cette rotation permettrait de générer une gravité artificielle par force centrifuge, recréant une pesanteur proche de celle de la Terre.L’intérieur de chaque cylindre est divisé en six bandes longitudinales :- Trois bandes terrestres, où la surface serait aménagée avec des villes, des forêts, des lacs et des infrastructures agricoles.- Trois fenêtres transparentes, faites de verre blindé et équipées de miroirs orientables qui réfléchiraient la lumière du Soleil dans l’habitat, permettant d’alterner entre jour et nuit.Les miroirs extérieurs joueraient aussi un rôle clé dans le contrôle thermique et la protection contre les radiations.Avantages et DéfisLe cylindre O’Neill offre plusieurs avantages :- Un environnement habitable, où la température, l’atmosphère et la gravité seraient ajustables.- Une autosuffisance alimentaire et énergétique, grâce à l’agriculture hydroponique et à l’énergie solaire.- Un espace immense, capable d’accueillir une population équivalente à une grande métropole.Cependant, sa construction poserait des défis majeurs, notamment :- L’extraction et le transport des matériaux, nécessitant l’exploitation de la Lune ou des astéroïdes.- La maîtrise de la rotation et de la stabilité structurelle sur le long terme.- La protection contre les météorites et le rayonnement cosmique.Un Rêve d’Avenir ?Bien qu’encore théorique, le concept du cylindre O’Neill a inspiré des œuvres de science-fiction, comme le film Interstellar et des animes comme Gundam. Avec l’essor du voyage spatial et des projets de colonisation martienne, certaines idées d’O’Neill pourraient un jour devenir réalité.BONUS - Que reste-t-il de Néandertal en nous ?
09:18|Imaginez un instant, vous regardez vos mains, votre visage dans un miroir. Ce que vous voyez, c'est vous. Et pourtant, une partie...Pourquoi le sang et l'urine pourraient servir à construire des habitations sur Mars ?
03:08|La perspective de missions habitées vers Mars soulève des défis majeurs, notamment en matière de construction d'habitats capables de protéger les astronautes des conditions extrêmes de la planète rouge. Transporter des matériaux de construction depuis la Terre étant coûteux et complexe, les scientifiques explorent des solutions utilisant les ressources disponibles sur place, une approche connue sous le nom d'utilisation des ressources in situ (ISRU).Le régolithe martien comme matériau de baseLe sol martien est recouvert d'une couche de poussière et de fragments rocheux appelée régolithe. Abondant et accessible, le régolithe est envisagé comme composant principal pour la fabrication de structures sur Mars. Cependant, pour en faire un matériau de construction solide, il nécessite un liant efficace.Inspiration des techniques de la Rome antiqueLes Romains de l'Antiquité utilisaient des additifs organiques, tels que le sang animal, pour améliorer les propriétés mécaniques de leurs matériaux de construction. Cette pratique augmentait la résistance et la durabilité de leurs édifices. S'inspirant de cette méthode, des chercheurs ont proposé d'utiliser des fluides corporels humains, notamment le sang et l'urine, comme liants pour le régolithe martien. Cette approche vise à créer un béton martien robuste en exploitant les ressources humaines disponibles sur place.Propriétés des fluides corporels comme liantsLe sang humain contient des protéines, telles que l'albumine, qui possèdent des propriétés adhésives. Lorsqu'elles sont mélangées au régolithe, ces protéines peuvent former des liaisons solides entre les particules, produisant un matériau comparable au béton. De même, l'urine contient de l'urée, une substance capable de dénaturer les protéines et d'améliorer leur capacité à lier les particules solides. L'ajout d'urine au mélange pourrait ainsi renforcer davantage le matériau obtenu.Avantages et défis de cette approcheL'utilisation de fluides corporels présente plusieurs avantages :- Réduction de la dépendance aux ressources terrestres : en exploitant des matériaux disponibles sur Mars et produits par les astronautes eux-mêmes, cette méthode diminue le besoin d'approvisionnements depuis la Terre.- Production continue de matériaux : les astronautes génèrent quotidiennement des fluides corporels, offrant une source régulière de liant pour la construction.Cependant, cette approche soulève également des défis :- Quantité de fluides nécessaire : la production de volumes suffisants de sang et d'urine pour des constructions à grande échelle pourrait être contraignante et affecter la santé des astronautes.- Aspects éthiques et psychologiques : l'idée d'utiliser des fluides corporels dans les matériaux de construction peut susciter des réticences et nécessite une acceptation culturelle et individuelle.Perspectives futuresBien que prometteuse, cette technique nécessite des recherches supplémentaires pour évaluer sa faisabilité pratique et son impact sur la santé des astronautes. Parallèlement, d'autres solutions sont explorées, telles que l'utilisation de bactéries ou de champignons pour produire des liants biologiques, ou encore la mise au point de polymères synthétiques à partir de ressources martiennes. L'objectif ultime est de développer des méthodes de construction durables et efficaces, permettant l'établissement de colonies humaines autonomes sur Mars.