Partager

cover art for Pourquoi peut-on dire que le langage binaire a été anticipé au XVIIe siècle ?

Choses à Savoir - Culture générale

Pourquoi peut-on dire que le langage binaire a été anticipé au XVIIe siècle ?

Si on peut effectivement affirmer cela c’est à cause du philosophe et scientifique anglais Francis Bacon grâce à son invention de l'alphabet bilitère. Cet alphabet est un système de codage qui n’utilise que deux symboles, « A » et « B », pour représenter toutes les lettres de l’alphabet latin. L’idée de Bacon repose sur le fait qu’en combinant ces deux symboles selon des séquences spécifiques de cinq caractères, il est possible de représenter chaque lettre de l’alphabet.

 

Par exemple, dans cet alphabet bilitère, la lettre « A » pourrait être codée par « AAAAA », la lettre « B » par « AAAAB », et ainsi de suite. En tout, 32 combinaisons sont possibles (car 2^5 = 32), ce qui est suffisant pour couvrir les 26 lettres de l’alphabet et d’autres caractères nécessaires. Ce système était destiné à des applications cryptographiques, permettant de dissimuler des messages en utilisant des textes apparemment innocents, où les lettres choisies auraient une forme spécifique qui correspondrait aux « A » et « B » du code de Bacon.

 

Ce principe de codage binaire de l’information fait de l’alphabet bilitère un précurseur du système binaire utilisé aujourd’hui dans l'informatique. Le langage binaire moderne repose sur les chiffres 0 et 1, et fonctionne selon une logique similaire : chaque lettre, chiffre ou symbole est traduit en une séquence de bits (0 et 1). Le système de Bacon ne repose pas sur des impulsions électriques ou des technologies numériques comme les ordinateurs, mais le concept fondamental de représenter des informations complexes à l'aide d'une séquence de deux symboles est le même.

 

Ainsi, Francis Bacon a posé une base conceptuelle importante en montrant que toute information textuelle pouvait être encodée avec une combinaison de seulement deux éléments. Ce fut un jalon philosophique qui, bien qu’à visée cryptographique, a ouvert la voie aux idées qui allaient plus tard se concrétiser dans les théories de Gottfried Wilhelm Leibniz sur le binaire, puis dans l’informatique moderne. Le langage binaire que nous connaissons aujourd’hui, utilisé pour le traitement et le stockage de l’information numérique, peut donc en partie remonter à cette idée visionnaire du XVIIe siècle.

More episodes

View all episodes

  • Pourquoi les châteaux forts avaient-ils des toilettes suspendues ?

    02:12|
    Quand on pense aux châteaux forts médiévaux, on imagine tout de suite des murailles épaisses, des ponts-levis et des tours de guet. Mais un détail, souvent oublié, intrigue les visiteurs : ces petites excroissances en pierre, perchées au-dessus du vide, parfois à plusieurs mètres de hauteur. Ce sont les latrines suspendues, ou garde-robes, un élément aussi essentiel qu’ingénieux de la vie quotidienne au Moyen Âge.Pourquoi donc construire les toilettes… à l’extérieur des murs ? La réponse tient à un subtil mélange de praticité, d’hygiène et de défense.D’abord, la question de l’évacuation. Les châteaux abritaient parfois des centaines de personnes : seigneurs, soldats, domestiques. Il fallait bien gérer les besoins naturels sans transformer les salles en cloaques insupportables. En plaçant les latrines en encorbellement au-dessus des fossés ou de la pente extérieure, les déchets étaient directement rejetés à l’extérieur du bâtiment. Un seau ou un simple conduit permettait d’évacuer tout cela par gravité. Pas très élégant, mais rudement efficace.Ensuite, l’hygiène relative. Les conceptions médicales de l’époque n’avaient rien de moderne, mais on comprenait que les miasmes — les mauvaises odeurs — pouvaient rendre malade. Mettre les latrines hors des murs limitait les nuisances et les risques de contamination. Certaines forteresses utilisaient même les fossés remplis d’eau pour entraîner les déchets, créant une forme primitive d’égout.Enfin, l’architecture défensive n’était jamais loin. Dans certains cas, les conduits des latrines donnaient directement sur les fossés, ajoutant aux eaux stagnantes une couche supplémentaire de répulsion pour l’ennemi. Et il arrivait que les assaillants tentent d’utiliser ces ouvertures pour s’infiltrer : d’où la présence de grilles ou de pierres escamotables, preuve que même les toilettes faisaient partie de la stratégie militaire.Bien sûr, le confort restait sommaire. Les sièges étaient en bois, percés d’un simple trou, parfois partagés. Les nobles pouvaient bénéficier de latrines privées attenantes à leur chambre, mais les soldats et les serviteurs se contentaient d’espaces collectifs. Le mot garde-robe lui-même vient de cette habitude d’y suspendre les vêtements : les odeurs fortes repoussaient naturellement les mites et autres parasites du tissu.En somme, ces latrines suspendues sont un symbole du pragmatisme médiéval. Ni luxe, ni raffinement, mais une réponse concrète aux défis d’hygiène et de logistique posés par la vie en autarcie derrière les murailles. La prochaine fois que vous verrez ces petites tourelles en surplomb, rappelez-vous : elles étaient le signe d’une architecture qui pensait autant à l’ennemi qu’aux besoins les plus quotidiens de ses habitants.
  • Pourquoi Pluton n'est plus une planète ?

    02:22|
    Pendant des décennies, Pluton a été la neuvième planète de notre système solaire. Découverte en 1930 par l’astronome américain Clyde Tombaugh, elle figurait dans tous les manuels scolaires. Mais en 2006, coup de théâtre : l’Union astronomique internationale (UAI) décide de la rétrograder, et Pluton cesse officiellement d’être une planète. Pourquoi ?Tout part d’une définition. Jusqu’au début du XXIᵉ siècle, le terme « planète » n’était pas vraiment défini de façon rigoureuse. Les astronomes s’en tenaient surtout à l’usage. Mais les progrès de l’observation ont compliqué les choses. À partir des années 1990, on découvre dans la ceinture de Kuiper — une région glacée aux confins du système solaire — de nombreux corps célestes comparables à Pluton. Le plus marquant fut Éris, découvert en 2005, légèrement plus massif que Pluton. Si Pluton était une planète, fallait-il alors en ajouter des dizaines d’autres ?L’UAI a donc tranché. En 2006, elle adopte une définition précise d’une planète :1. Elle doit orbiter autour du Soleil.2. Elle doit être suffisamment massive pour prendre une forme sphérique, sous l’effet de sa gravité.3. Elle doit avoir « nettoyé » son orbite, c’est-à-dire être dominante et avoir éliminé les autres objets de taille comparable autour d’elle.Pluton remplit les deux premiers critères, mais pas le troisième. Son orbite est encombrée : elle croise celle de Neptune et partage son espace avec d’autres corps de la ceinture de Kuiper. Elle n’est donc pas « maîtresse » de son environnement. Résultat : Pluton perd son statut de planète.Depuis, elle est classée parmi les planètes naines, au même titre qu’Éris, Cérès ou Makémaké. Cela ne la rend pas moins intéressante, bien au contraire. En 2015, la sonde New Horizons a révélé un monde complexe, avec des montagnes de glace, une atmosphère fine et peut-être un océan sous sa surface.La controverse n’a pourtant pas disparu. De nombreux astronomes et une partie du public continuent de considérer Pluton comme une planète « de cœur ». Pour beaucoup, cette décision illustre la tension entre la rigueur scientifique et l’attachement populaire.En résumé, Pluton n’a pas quitté notre système solaire : elle y brille toujours, mais son titre a changé. Ce qui a disparu, ce sont nos certitudes, remplacées par une vision plus nuancée et plus riche de ce qu’est une planète.
  • Pourquoi le rire est-il contagieux ?

    02:21|
    Découverts dans les années 1990 par l’équipe de Giacomo Rizzolatti à Parme, les neurones miroirs s’activent quand on réalise une action, mais aussi quand on voit quelqu’un d’autre la faire. Quand nous entendons ou voyons une personne rire, ces neurones déclenchent dans notre cerveau des circuits moteurs similaires à ceux qui commandent le rire. Cela explique le réflexe d’imitation quasi automatique.Le rire engage plusieurs zones cérébrales :le cortex prémoteur et moteur (contrôle des muscles du visage et de la respiration),le système limbique (amygdale, hypothalamus), impliqué dans la régulation des émotions,et le cortex auditif qui reconnaît les sons du rire et prépare une réponse.Des études en IRM fonctionnelle ont montré que l’écoute d’un rire active ces régions comme si la personne était prête à rire à son tour.Sur le plan neurophysiologique, le rire est une réaction émotionnelle vocale. L’audition d’un rire stimule le gyrus temporal supérieur, spécialisé dans la perception des expressions vocales, et connecte ensuite les zones émotionnelles profondes. Cela provoque une « contagion émotionnelle », comparable à ce qui se passe avec un bâillement.Des chercheurs de l’University College London ont diffusé des enregistrements de rires à des volontaires tout en observant leur activité cérébrale par IRM. Résultat : l’écoute du rire active les circuits moteurs faciaux, comme si les participants s’apprêtaient à sourire. C’est la démonstration directe du mécanisme de contagion.D’un point de vue scientifique, cette contagion aurait un rôle adaptatif : renforcer la synchronisation sociale. Mais au niveau strictement biologique, elle s’explique par l’architecture neuronale qui relie perception (entendre un rire) et action (rire soi-même), rendant la propagation du rire quasiment automatique.En résumé, le rire est contagieux avant tout parce que notre cerveau possède des circuits miroirs et émotionnels qui lient la perception d’un rire à l’activation des zones motrices du rire. C’est un phénomène neurobiologique mesurable, qui illustre la puissance du mimétisme inscrit dans notre système nerveux.
  • Pourquoi le croissant n'est-il pas français ?

    01:50|
    Quand on pense à la France, trois images surgissent souvent : la baguette, le vin… et le croissant. Pourtant, l’histoire de ce dernier réserve une belle surprise : le croissant n’est pas né en France, mais en Autriche.L’histoire remonte à 1683, à Vienne, capitale des Habsbourg. Cette année-là, la ville est assiégée par l’armée ottomane. Les combats font rage et les habitants craignent l’invasion. Une légende raconte que ce sont les boulangers, levés aux aurores pour pétrir la pâte, qui entendirent des bruits suspects sous les remparts. Les Ottomans creusaient des tunnels pour pénétrer dans la cité. Prévenus à temps, les défenseurs purent contrecarrer l’attaque et repousser l’ennemi.La victoire fut éclatante. Pour la célébrer, les boulangers eurent une idée ingénieuse : façonner une pâtisserie en forme de croissant de lune, emblème du drapeau ottoman. Mordre dans cette pâte dorée revenait ainsi, symboliquement, à croquer l’ennemi. C’est la naissance du kipferl, ancêtre du croissant.Ce kipferl viennois n’était pas feuilleté comme celui que nous connaissons aujourd’hui. Il s’agissait plutôt d’une pâte briochée, dense, parfois enrichie d’amandes ou de noisettes. On en trouve d’ailleurs des variantes dans toute l’Europe centrale, où il est consommé depuis le Moyen Âge.Alors, comment cette viennoiserie est-elle devenue française ? La réponse se trouve au XIXᵉ siècle. En 1839, un officier autrichien à la retraite, August Zang, ouvre une boulangerie viennoise à Paris, rue de Richelieu. Ses kipferl séduisent rapidement la clientèle parisienne, avide de nouveautés. Les artisans français adoptent l’idée, mais la transforment : au lieu d’une pâte briochée, ils utilisent la pâte feuilletée levée, déjà employée pour les vol-au-vent ou les chaussons. Le croissant tel que nous le connaissons aujourd’hui, léger, croustillant, beurré, est donc une invention française… à partir d’un concept autrichien.Cette hybridation explique le paradoxe : le croissant est à la fois étranger et profondément français. Étranger par ses origines historiques, français par son perfectionnement culinaire et sa diffusion. C’est d’ailleurs seulement au XXᵉ siècle que le croissant devient un incontournable du petit-déjeuner hexagonal, accompagné d’un café noir ou d’un bol de chocolat chaud.Ainsi, derrière cette viennoiserie dorée se cache une histoire de guerre, de symboles et de métissage culturel. Le croissant n’est pas né en France, mais la France en a fait un emblème universel. Une preuve que, parfois, l’identité culinaire se construit dans la rencontre des traditions plutôt que dans la pureté des origines.
  • Quelle est la différence entre l’avidité et la cupidité ?

    02:04|
    On confond souvent avidité et cupidité, comme si ces deux termes désignaient la même soif insatiable. Pourtant, ils recouvrent des nuances importantes, tant sur le plan psychologique que moral.L’avidité est d’abord un élan intérieur, une pulsion tournée vers la possession ou la consommation. C’est un désir intense, presque animal, d’obtenir toujours plus : plus de nourriture, plus de pouvoir, plus de plaisir. L’avidité se manifeste dans une recherche sans fin, où ce que l’on obtient n’apaise jamais durablement le besoin. Elle peut être matérielle, mais aussi symbolique : une avidité de reconnaissance, d’expériences, d’influence. Le philosophe Spinoza la décrivait déjà comme une passion qui naît du manque et qui s’auto-entretient.La cupidité, elle, est plus précise et plus ciblée. C’est l’amour excessif de l’argent et des richesses matérielles. Être cupide, c’est vouloir accumuler sans relâche de l’or, des biens, des profits, parfois au mépris de l’éthique ou de la justice. Là où l’avidité est une faim généralisée, la cupidité est une obsession particulière pour l’avoir monétaire. Dans l’imaginaire collectif, on pense à l’usurier, au banquier véreux, ou au personnage de l’oncle Picsou, dont la fortune s’accumule dans un coffre géant qu’il ne cesse de remplir.Ces deux notions diffèrent aussi dans leur rapport au monde. L’avidité peut toucher n’importe qui, dans n’importe quel domaine. Un scientifique peut être avide de savoir, un sportif avide de victoires. Cette avidité n’est pas toujours négative : elle peut stimuler la créativité, l’innovation, le dépassement de soi. Mais poussée à l’excès, elle devient destructrice, car elle ne laisse jamais de place à la satisfaction ni à la sérénité. La cupidité, au contraire, porte en elle une connotation presque toujours péjorative. Elle enferme l’individu dans la quête de profit matériel, souvent au détriment d’autrui.On pourrait dire que la cupidité est une forme spécialisée d’avidité : elle en est une branche, centrée sur l’argent. Mais elle a pris dans l’histoire une telle importance morale qu’elle est devenue l’un des sept péchés capitaux du christianisme. L’avidité, elle, ne figure pas dans cette liste, car elle peut encore se décliner sous des formes neutres ou positives.En résumé, l’avidité est une soif sans limite, la cupidité une soif d’argent. L’une peut être moteur ou poison selon le contexte, l’autre est presque toujours perçue comme un vice. Comprendre cette différence, c’est mieux saisir comment nos désirs façonnent nos comportements et parfois nos excès.
  • Quelle est la différence entre les Mayas et les Incas ?

    02:49|
    Quand on évoque les grandes civilisations précolombiennes, deux noms surgissent immédiatement : les Mayas et les Incas. Pourtant, si elles ont toutes deux marqué l’histoire de l’Amérique, elles sont très différentes dans leur localisation, leur organisation et leurs héritages.Les Mayas apparaissent bien avant les Incas. Leur civilisation se développe dès 2000 avant notre ère, dans les forêts tropicales du Yucatán, au sud du Mexique, ainsi qu’au Guatemala, au Belize et au Honduras actuels. Les Incas, eux, émergent beaucoup plus tard, au XIIIᵉ siècle, dans la cordillère des Andes, principalement au Pérou. Cette différence chronologique explique déjà un contraste : quand l’empire inca atteint son apogée au XVe siècle, les grandes cités mayas étaient déjà abandonnées depuis longtemps.Sur le plan politique, le contraste est frappant. Les Mayas n’avaient pas un empire unifié mais une mosaïque de cités-États indépendantes, comme Tikal, Palenque ou Copán, qui rivalisaient entre elles par des guerres et des alliances. Les Incas, au contraire, fondèrent un empire centralisé : le Tawantinsuyu. Depuis Cuzco, l’empereur, appelé le Sapa Inca, exerçait un pouvoir absolu sur des millions de sujets et un territoire immense s’étendant de la Colombie jusqu’au Chili.Sur le plan culturel, les Mayas brillèrent surtout par leur écriture et leurs connaissances scientifiques. Ils développèrent un système d’écriture hiéroglyphique complexe, unique en Amérique, qui permettait de noter aussi bien des événements politiques que des récits mythologiques. Ils élaborèrent également un calendrier extrêmement précis, basé sur l’astronomie, et laissèrent des monuments impressionnants comme les pyramides de Chichén Itzá. Les Incas, eux, ne connaissaient pas l’écriture. Pour conserver la mémoire des tributs ou des recensements, ils utilisaient les quipus, des cordelettes nouées dont les combinaisons servaient de code numérique. Leur génie s’exprima surtout dans l’ingénierie : routes pavées traversant les Andes, ponts suspendus, systèmes d’irrigation et villes perchées comme Machu Picchu.Enfin, leurs religions différaient. Les Mayas pratiquaient des rituels sanglants pour apaiser leurs dieux, y compris des sacrifices humains. Les Incas, eux, adoraient surtout Inti, le dieu Soleil, et considéraient l’empereur comme son descendant direct. Leurs sacrifices humains existaient, mais étaient plus rares et souvent réservés à des moments exceptionnels.En somme, les Mayas furent des astronomes et des scribes brillants, mais fragmentés politiquement. Les Incas, eux, bâtirent un empire solide et organisé, mais sans écriture. Deux civilisations fascinantes, qui montrent la diversité et la richesse des mondes précolombiens bien avant l’arrivée des Européens.
  • Pourquoi l’histoire des 47 rōnins est-elle si célèbre ?

    02:25|
    Au Japon, l’histoire des 47 rōnin est sans doute la plus célèbre des récits de loyauté et de vengeance. Elle s’est déroulée au tout début du XVIIIᵉ siècle et est devenue, au fil du temps, une véritable légende nationale.Tout commence en 1701. Le seigneur Asano Naganori est chargé d’accueillir un émissaire impérial au château d’Edo. Mais il est humilié à plusieurs reprises par Kira Yoshinaka, un haut fonctionnaire corrompu et arrogant. Perdant son sang-froid, Asano dégaine son sabre dans l’enceinte du château, un acte interdit. Pour cette faute, il est condamné au seppuku, le suicide rituel, et ses terres sont confisquées. Ses samouraïs se retrouvent soudain sans maître : ils deviennent des rōnin, des guerriers errants.Au lieu d’accepter leur sort, quarante-sept d’entre eux décident de venger leur seigneur. Pendant près de deux ans, ils dissimulent leurs intentions : certains se font passer pour des ivrognes ou des miséreux, afin de tromper la vigilance de Kira. Puis, une nuit de l’hiver 1703, ils passent à l’action. Ils attaquent la résidence de Kira, la prennent d’assaut et finissent par le trouver caché dans un réduit. Ils le forcent à se suicider, et ramènent sa tête au tombeau de leur maître, accomplissant ainsi leur devoir de fidélité.Mais leur geste les place en contradiction avec la loi. Le shogun, conscient de l’admiration populaire que suscite leur acte, hésite longuement. Finalement, il décide de les condamner au seppuku, afin de respecter la justice tout en leur accordant une mort honorable. Les 47 rōnin se donnent la mort avec dignité, et leur mémoire entre dans l’histoire.Pourquoi cette histoire est-elle devenue si célèbre dans le monde ? Parce qu’elle incarne des valeurs universelles : la loyauté, le sacrifice, l’honneur. Au Japon, elle est enseignée comme un modèle du bushidō, le code d’honneur des samouraïs. Des sanctuaires et des tombes, comme celles du temple Sengaku-ji à Tokyo, attirent encore des milliers de visiteurs. Et cette légende a inspiré innombrables pièces de théâtre kabuki, films, mangas et même productions hollywoodiennes.En résumé, l’affaire des 47 rōnin n’est pas seulement une anecdote de l’histoire japonaise : c’est un récit fondateur, qui résonne bien au-delà des frontières du Japon. Elle rappelle la force des valeurs collectives, mais aussi le prix parfois terrible de la fidélité absolue.
  • Faut-il vraiment avoir une vue parfaite pour piloter un avion ?

    01:46|
    Quand on imagine un pilote d’avion, on pense souvent à quelqu’un doté d’une vue d’aigle, capable de distinguer chaque détail dans le ciel. Mais en réalité, les choses sont plus nuancées. Les autorités aéronautiques n’exigent pas une vision “parfaite”, mais une vision suffisamment bonne, quitte à être corrigée par des lunettes ou des lentilles.Aux États-Unis, par exemple, la FAA impose que les pilotes de ligne obtiennent une acuité visuelle de 20/20 de loin dans chaque œil, mais cela peut être avec correction. Autrement dit, si un pilote a besoin de lunettes, il est tout à fait autorisé à voler, tant que sa vision corrigée atteint le seuil. Pour la vision de près – indispensable pour lire les instruments – une acuité de 20/40 est suffisante. En Europe, sous l’autorité de l’EASA, les règles sont similaires : l’important n’est pas d’avoir une vue naturellement parfaite, mais de pouvoir atteindre les normes grâce à une correction optique. Les pilotes qui portent des lunettes doivent simplement emporter une paire de secours dans le cockpit.Bien sûr, certaines conditions sont encadrées de près. Les lentilles de contact sont admises, mais pas la “monovision” (un œil corrigé pour le loin, l’autre pour le près), car elle perturbe la perception de la profondeur. La chirurgie réfractive, comme le LASIK, est également acceptée, à condition que la vision soit stabilisée et qu’il n’y ait pas de séquelles gênantes, comme des halos lumineux la nuit.Un autre point crucial est la vision des couleurs. Impossible de piloter sans distinguer clairement le rouge, le vert et le blanc : ce sont les couleurs des feux de navigation, des signaux lumineux ou encore des systèmes d’approche visuelle. Les candidats qui échouent aux tests classiques peuvent parfois prouver en situation réelle qu’ils reconnaissent bien ces signaux, mais sinon des restrictions s’appliquent, comme l’interdiction de voler de nuit.Enfin, la vision binoculaire et la perception de la profondeur sont indispensables pour estimer les distances, surtout lors des phases critiques comme l’atterrissage. Certaines pathologies, comme un strabisme important ou une perte du champ visuel, peuvent être éliminatoires.En somme, non, il n’est pas nécessaire d’avoir des yeux parfaits pour devenir pilote. Ce qui compte, c’est de respecter des normes précises, atteignables avec une bonne correction et un suivi médical. Et cela explique pourquoi de nombreux commandants de bord que nous croisons dans les avions de ligne portent… tout simplement des lunettes.
  • Pourquoi dit-on “finir en eau de boudin” et “de but en blanc” ?

    02:12|
    L’expression française « finir en eau de boudin » signifie qu’une affaire qui semblait bien engagée tourne mal ou se termine de façon décevante, presque ridicule. Mais pourquoi associer ce dénouement à du « boudin » et surtout à de l’« eau » ?L’explication vient de la cuisine traditionnelle. Le boudin, qu’il soit noir ou blanc, est une charcuterie préparée en remplissant une enveloppe (souvent l’intestin du porc) avec un mélange à base de sang, de viande ou de lait. Pour que le boudin prenne, il faut le cuire dans de l’eau bouillante. Or, si la peau se perce pendant la cuisson, la farce s’échappe et se répand dans l’eau. Résultat : au lieu d’un bon boudin bien compact, on obtient une bouillie liquide, informe et inutilisable. On dit alors que tout est parti « en eau de boudin ».C’est cette image culinaire qui a nourri la métaphore. Un projet peut sembler solide au départ, mais au moment décisif, il se « perce », se délite, et finit par se dissoudre, tout comme le boudin raté dans sa casserole. L’expression est attestée dès le XVIIIᵉ siècle et a rapidement quitté les cuisines pour s’imposer dans le langage courant.Passons à la seconde expression: « de but en blanc ».Aujourd’hui elle erst utilisée pour désigner quelque chose qui est dit ou fait brusquement, sans préparation ni détour. Par exemple : « Il m’a demandé, de but en blanc, si je comptais démissionner ».Son origine, en revanche, est militaire et assez parlante.Au XVIᵉ siècle, le mot but désignait la cible en tir à l’arc ou en artillerie. Quant au mot blanc, il ne renvoie pas à la couleur banale, mais au point blanc peint ou marqué au centre de la cible, servant à viser avec précision. Le « blanc » était donc la partie la plus visible, la plus claire, que le tireur devait atteindre.L’expression « tirer de but en blanc » signifiait donc tirer directement sur la cible, à courte distance, sans calcul compliqué de trajectoire. L’idée était qu’à cette portée, le tir pouvait aller droit au but, sans correction. Peu à peu, le sens figuré est apparu : faire quelque chose franchement, sans détour, sans précaution.Dès le XVIIᵉ siècle, on retrouve cette formule dans des textes littéraires avec ce sens figuré. Aujourd’hui, l’expression a totalement perdu son lien avec les armes à feu, mais garde cette idée d’action directe et soudaine.En résumé, « de but en blanc » nous vient du vocabulaire du tir et signifie littéralement « droit sur la cible ». Transposé dans le langage courant, cela traduit une parole ou une action spontanée, sans préambule, qui surprend par sa franchise.