Partager

Choses à Savoir TECH
Bientôt un vrai chiffrement de bout en bout sur Gmail ?
Nouvelle avancée sur le front de la confidentialité des données : Google annonce l’arrivée d’un système de chiffrement de bout en bout pour Gmail, destiné dans un premier temps aux utilisateurs professionnels. Une évolution notable, qui ambitionne de simplifier l’accès à une messagerie sécurisée, jusque-là réservée aux initiés du protocole S/MIME et à ses fameux certificats X.509. Mais attention, on parle ici d’un chiffrement “E2EE” à la sauce Google. Car si le message est bien chiffré et déchiffré en local, sur les appareils des utilisateurs, la gestion des clés de chiffrement reste entre les mains de la firme de Mountain View.
Alors, comment ça marche ? Tout commence lorsque l’utilisateur clique sur l’option de chiffrement dans son interface Gmail. Son navigateur chiffre alors le message avant l’envoi, grâce à une clé symétrique temporaire générée par un serveur baptisé KACL – pour Key Access Control List. Ce serveur, hébergé chez Google, fournit la clé à la volée, juste pour cet envoi. Une fois parti, le message reste chiffré tout au long de son trajet, illisible par quiconque, sauf le destinataire. Ce dernier, pour en prendre connaissance, devra lui aussi se connecter à KACL et obtenir la même clé éphémère. Une fois le message déchiffré dans le navigateur, la clé est aussitôt effacée, limitant ainsi les risques de fuite.
Côté sécurité, c’est un net progrès par rapport aux solutions antérieures, souvent complexes à mettre en œuvre. Mais peut-on vraiment parler de chiffrement de bout en bout ? Pas si sûr. Comme le souligne Ars Technica, tant que Google contrôle le serveur qui délivre les clés, le géant californien pourrait, théoriquement, accéder aux messages si une faille était exploitée. Julien Duplant, responsable produit chez Google Workspace, se veut rassurant. Selon lui, “Gmail n’a jamais accès à la clé. Jamais. Et les contenus restent toujours inaccessibles aux serveurs de Google.” Une promesse qui devra être tenue, car dans un monde où la confidentialité numérique devient un critère central, les utilisateurs attendent désormais plus que des engagements techniques : ils veulent des garanties concrètes.
More episodes
View all episodes
Microsoft peut cloner des voix à la perfection ?
01:56|C’est une petite révolution dans le monde de la synthèse vocale. Microsoft vient de lever le voile sur DragonV2.1, la nouvelle version de son moteur vocal intégré à Azure AI Speech. Et les promesses sont ambitieuses : des voix plus naturelles, plus justes… et plus difficiles à distinguer de la réalité. Là où il fallait auparavant plusieurs minutes de données vocales pour créer un clone convaincant, DragonV2.1 se contente désormais de quelques secondes seulement. Le tout, dans plus de 100 langues. De quoi faire frémir les studios de doublage et ravir les développeurs d’assistants vocaux ou de chatbots.Par rapport à la précédente version, DragonV1, les améliorations sont nettes. Le nouveau modèle affiche une réduction de 12,8 % du taux d’erreur de mot, et corrige les défauts de prononciation, notamment sur les noms propres. Microsoft promet une prosodie plus fluide, plus stable, plus humaine. Mais ce qui impressionne, c’est le niveau de personnalisation : accents, intonations, lexiques spécifiques, tout peut être modulé grâce aux balises SSML. Des profils vocaux comme Andrew, Ava ou Brian permettent même de tester rapidement les capacités du modèle.Bien sûr, avec une telle fidélité vocale, le spectre du deepfake plane. Microsoft en est pleinement conscient. Pour prévenir tout usage malveillant, l’entreprise impose des garde-fous stricts : consentement obligatoire, déclaration explicite d’un contenu synthétique, interdiction d’imitation trompeuse, et surtout, ajout automatique d’un filigrane audio. Ce filigrane invisible serait détectable dans 99,7 % des cas, selon l’entreprise. Suffisant pour rassurer ? Rien n’est moins sûr. Mais une chose est claire : avec DragonV2.1, les voix synthétiques viennent de franchir un cap. Entre progrès technologique et enjeu éthique, la voix de demain sera peut-être déjà celle d’une machine.Les ondes wifi permettent de nous pister physiquement ?
02:09|Et si votre réseau Wi-Fi servait à autre chose qu’à regarder des vidéos ou envoyer des mails ? La technologie sans fil pourrait bien devenir un outil de détection et de surveillance redoutable… C’est en tout cas ce que révèle une étude surprenante menée par des chercheurs de l’université La Sapienza, à Rome.Leur invention s’appelle WhoFI. Son principe ? Identifier une personne grâce à la manière dont son corps interagit avec les ondes Wi-Fi. Chaque individu produirait, sans le savoir, une sorte d’empreinte électromagnétique unique. Une fois cette signature enregistrée, le système serait ensuite capable de la reconnaître en temps réel, sans capteur, sans caméra, sans puce : juste en observant les rebonds du signal Wi-Fi dans l’environnement.Une technologie qui va bien au-delà des expérimentations passées. Car si des tentatives similaires ont déjà été menées, les résultats étaient encore trop imprécis. En 2020, un système du même genre n’affichait qu’un taux de reconnaissance de 75%. Avec WhoFI, on monte à 95,5%. Une précision qui pourrait tout changer.Imaginez un lieu public où il devient possible de localiser et suivre une personne, même dans le noir, derrière un mur, sans aucune caméra. Pour les chercheurs, on tient là un outil de surveillance d’une efficacité redoutable. Et même si, pour l’instant, le système reste cantonné au laboratoire, il y a fort à parier que les services de renseignement y jettent déjà un œil très intéressé. Reste une question centrale : jusqu’où sommes-nous prêts à aller au nom de la sécurité ? Car si le Wi-Fi peut vous reconnaître… il pourrait bien, un jour, ne plus jamais vous lâcher.Apple veut finalement créer son propre ChatGPT ?
02:04|Apple avait fait sensation en juin dernier en dévoilant Apple Intelligence, sa grande offensive dans l’intelligence artificielle. Une annonce forte, mais avec un grand absent : aucun chatbot maison. La firme de Cupertino semblait vouloir laisser cette tâche à ChatGPT, discrètement intégré à Siri pour répondre aux requêtes générales. À l’époque, Apple jugeait l’intérêt du public limité pour ce genre d’outil, et certains de ses propres ingénieurs en IA se montraient sceptiques.Mais les lignes ont bougé. Face au succès grandissant de ChatGPT, Claude ou encore Gemini, Apple semble revoir sa copie. Selon les révélations du journaliste spécialisé Mark Gurman, un projet d’envergure serait en cours dans les coulisses. Son nom : Answers, Knowledge and Information, ou AKI. L’objectif ? Développer un chatbot capable d’explorer le web et de fournir des réponses précises, à la manière de ses concurrents. Le chantier est mené par Robby Walker, un vétéran de Siri, et pourrait aboutir à une nouvelle application autonome, mais aussi à des intégrations profondes dans Siri, Spotlight et Safari. Apple recrute d’ailleurs activement des spécialistes en recherche algorithmique. Et un possible rachat stratégique dans le secteur de l’IA ne serait pas à exclure dans les mois à venir.Ce virage n’est pas seulement technologique, il est aussi stratégique. Apple reste très dépendante de Google, qui lui verse chaque année près de 20 milliards de dollars pour rester le moteur de recherche par défaut. Mais si la justice américaine impose une renégociation de cet accord, c’est toute une part de croissance qui pourrait vaciller. En clair, développer son propre moteur IA, c’est pour Apple une question de souveraineté. Cela permettrait non seulement de maîtriser sa chaîne de recherche, mais aussi de renforcer ses engagements en matière de confidentialité. Dans un marché de la recherche bousculé par l’IA générative, attendre n’est plus une option. Reste à savoir si la pomme parviendra à rattraper son léger retard… et à imposer sa propre voix intelligente.Des pays de l’UE abandonnent « la vie privée » et peuvent lire vos messages ?
02:01|Le projet européen baptisé “Chat Control” avance à grands pas… et avec lui, un débat explosif. Soutenu par plusieurs États membres, dont la France, l’Allemagne, l’Espagne et la Pologne, ce texte vise à obliger les applications de messagerie comme WhatsApp, Signal ou Telegram à analyser automatiquement tous les messages – textes comme images – pour détecter des contenus liés à l’exploitation sexuelle d’enfants.Une ambition sécuritaire, oui. Mais derrière, des inquiétudes grandissantes. Car pour parvenir à cet objectif, les plateformes devraient installer des systèmes de surveillance directement sur les appareils – des smartphones ou des ordinateurs. C’est ce qu’on appelle le "client-side scanning" : des outils capables d’analyser les contenus avant même leur chiffrement. Un changement de paradigme. Car même les messageries dites chiffrées de bout en bout, conçues justement pour garantir la confidentialité, seraient concernées. Et c’est là que le tollé commence.Des associations de défense des droits numériques, des experts en cybersécurité, des magistrats et même certains eurodéputés tirent la sonnette d’alarme. Patrick Breyer, élu européen, dénonce une "surveillance de masse inédite", où chaque citoyen serait traité comme un suspect. Les spécialistes en cryptographie alertent : toute porte ouverte, même bien intentionnée, peut être exploitée – par des États autoritaires, des groupes criminels, ou des acteurs malveillants. Plus grave encore : ces outils, conçus pour détecter l’illégal, pourraient produire de nombreux faux positifs. Des photos de famille, des conversations adolescentes, ou des échanges entre victimes et associations pourraient être mal interprétés. Le Conseil de l’UE lui-même a exprimé ses réserves juridiques, jugeant la mesure disproportionnée et inefficace face aux vraies méthodes utilisées par les criminels, qui contournent souvent les messageries classiques. En attendant, la bataille continue dans les couloirs de Bruxelles. Et si vous tombez sur un contenu suspect en ligne, n’oubliez pas : vous pouvez le signaler via la plateforme Pharos.Pourquoi Microsoft cible certaines ambassades ?
01:54|Une enquête publiée par Microsoft révèle une vaste opération d’espionnage informatique visant plusieurs ambassades étrangères à Moscou. En cause : un groupe de hackers lié au FSB, les services de renseignement russes. Le groupe, connu sous le nom de Secret Blizzard, mais aussi sous les alias Turla, Snake ou encore Venomous Bear, sévit depuis la fin des années 1990. Leur dernière trouvaille ? Un malware baptisé ApolloShadow, capable de s’installer discrètement sur les ordinateurs diplomatiques… à partir même des connexions Internet locales.Comment ça fonctionne ? L’attaque débute dès qu’un appareil se connecte à un fournisseur d’accès russe. Les hackers redirigent alors le trafic vers une fausse page de connexion, similaire à celles des réseaux Wi-Fi publics. En coulisses, une requête Windows censée contacter Microsoft est détournée vers un domaine frauduleux. Le piège se referme : le logiciel espion s’installe sans que l’utilisateur ne clique sur quoi que ce soit. ApolloShadow se fait ensuite passer pour un banal installateur Kaspersky, affichant une fenêtre système qui semble légitime. Une fois les droits administrateur accordés, il installe deux certificats racine pour intercepter les connexions sécurisées. Résultat : même les échanges diplomatiques cryptés peuvent être espionnés. Le malware modifie les règles du pare-feu, redéfinit le réseau comme privé, et crée un compte système fantôme, “UpdatusUser”, qui permet aux attaquants de conserver l’accès.L’activité a été détectée en février 2025, mais le malware circulait déjà depuis l’an dernier. Microsoft a fourni aux ambassades les outils pour détecter les infections, et recommande désormais l’usage de VPN ou de connexions satellites pour contourner les infrastructures russes. Un rappel sévère : la diplomatie moderne ne se joue plus seulement autour d’une table… mais aussi dans les câbles.Pourquoi Elon Musk dépose la marque MacroHard ?
02:09|Entre Elon Musk et Bill Gates, ce n’est pas l’amour fou, et ce n’est plus un secret. Mais cette semaine, la rivalité entre les deux géants de la tech a pris un tournant inattendu… et franchement piquant. Elon Musk vient en effet de déposer officiellement la marque “MacroHard” auprès de l’office américain des brevets. Un nom qui fait évidemment référence à Microsoft – et surtout, qui s’en moque ouvertement.“Macro” contre “Micro”, “Hard” contre “Soft”… Musk joue la carte du détournement linguistique pour envoyer un message on ne peut plus clair : il crée l’anti-Microsoft, au moins dans l’intention. D’autant que ce nom pourrait bien être associé à un projet tout droit sorti de ses cartons : un logiciel d’intelligence artificielle multi-agents, capable de générer du code, des images, des vidéos, et même d’émuler des humains dans des machines virtuelles. Une technologie que Musk évoquait récemment sur X – anciennement Twitter – avec, déjà, une petite allusion à un nom “satirique”. Provocation gratuite ou lancement stratégique ? Un peu des deux. Depuis des années, Elon Musk multiplie les tacles contre Bill Gates. En 2020 déjà, le fondateur de Microsoft lui reprochait ses “propos irresponsables” et lui conseillait de se concentrer sur “les fusées et les voitures”. Deux ans plus tard, le torchon brûle définitivement : Gates parie 500 millions de dollars sur une chute de l’action Tesla. Musk, furieux, annule une rencontre sur des projets caritatifs et poste dans la foulée un mème moqueur… représentant Bill Gates comme un homme enceint.Depuis, c’est l’escalade. Entre piques, détournements et petites phrases assassines, la plateforme X est devenue le ring de ce combat de milliardaires. Et l’arrivée d’Elon Musk dans le cercle rapproché de Donald Trump n’a rien arrangé. Dans ce contexte ultra-tendu, le dépôt de “MacroHard” sonne comme une nouvelle déclaration de guerre. Subtile ? Non. Efficace ? Sans doute. Mais surtout, une chose est sûre : l’ironie n’est pas morte dans la Silicon Valley.Anthropic bientôt aussi puissant que Boeing ?
02:00|Elle ne fait pas autant de bruit que ses rivales, mais elle pèse déjà lourd : Anthropic, la start-up fondée en 2021 par d’anciens cadres d’OpenAI, est en train de devenir l’un des poids lourds de l’intelligence artificielle générative. Son chatbot Claude s’impose comme un concurrent sérieux à ChatGPT. Et les investisseurs ne s’y trompent pas.Amazon et Google ont déjà mis près de 10 milliards de dollars sur la table pour soutenir cette jeune entreprise. Et ce n’est qu’un début. Selon plusieurs médias américains, Anthropic est en train de préparer une nouvelle levée de fonds de 5 milliards de dollars, après une précédente opération en mars dernier qui avait porté sa valorisation à 61,5 milliards. Le prochain tour pourrait faire bondir cette valorisation à 170 milliards de dollars, soit l’équivalent de la capitalisation boursière de Boeing. C’est dire l’appétit que suscite la start-up. Elle joue désormais des coudes avec les plus grands : OpenAI, valorisée à 300 milliards, et xAI, la société d’Elon Musk, qui viserait 200 milliards.Un emballement qui interroge. Si certains voient dans l’IA le moteur de la prochaine révolution industrielle, d’autres redoutent une bulle spéculative, alimentée par des promesses qui dépassent largement les revenus réels. Fait marquant : Anthropic change aussi de cap sur ses sources de financement. Longtemps réticente, l’entreprise ouvre désormais ses portes aux fonds souverains du Moyen-Orient. Elle serait en discussion avec MGX, le bras armé d’Abou Dhabi pour l’IA, et le Qatar Investment Authority. Un virage assumé par le PDG Dario Amodei. Dans un mémo interne, il reconnaît que les principes éthiques ne suffisent plus à couvrir les besoins financiers : « Aucune personne mal intentionnée ne devrait jamais bénéficier de notre succès » est un principe difficile à appliquer dans la réalité, écrit-il.Tout ce que vous dite à l’IA peut se retourner contre vous ?
02:03|Peut-on vraiment tout dire à une intelligence artificielle ? Pour Sam Altman, PDG d’OpenAI, la réponse est non. Et c’est lui-même qui le dit, au micro du podcast This Past Weekend. Dans cet entretien, il met en garde contre un usage trop personnel de ChatGPT, son propre chatbot. Le message est clair : vos conversations avec ChatGPT ne sont pas protégées par la loi, comme peuvent l’être celles avec un médecin, un avocat ou un thérapeute. Et en cas de litige, elles pourraient même être présentées devant un tribunal.« Si vous parlez à ChatGPT de sujets sensibles et qu’il y a une action en justice, nous pourrions être légalement contraints de transmettre ces échanges », explique Sam Altman. Une situation qu’il qualifie lui-même de "profondément anormale". Le contexte juridique ne joue pas en faveur des utilisateurs. Une procédure en cours, lancée par The New York Times, oblige OpenAI à conserver l’historique des conversations, y compris celles que les usagers pensent avoir supprimées. Face à cela, Altman plaide pour un encadrement juridique clair. Il estime que les échanges avec une IA devraient bénéficier des mêmes protections que ceux avec des professionnels du soin ou du droit. « Il existe un secret médical, un secret professionnel. Pourquoi pas un secret conversationnel pour l’IA ? », interroge-t-il.Mais pour l’instant, rien de tout cela n’est en place. Et Altman le reconnaît : tant qu’un cadre légal n’existe pas, les utilisateurs sont en droit d’exiger une transparence totale sur la gestion de leurs données privées. Le message est lancé : n’oubliez pas que parler à ChatGPT, ce n’est pas parler en toute confidentialité. Et dans un monde où les frontières entre humain et machine deviennent floues, la protection de la vie privée reste un chantier majeur.Pourquoi doit-on effacer nos mots de passe de Chrome ?
02:14|En cybersécurité, certaines évidences méritent d’être répétées. En voici une : votre navigateur web n’est pas un coffre-fort. Pourtant, des millions d’utilisateurs continuent d’y stocker leurs identifiants sans se poser de questions. Chrome, Edge, Firefox ou Brave : tous proposent une gestion intégrée des mots de passe, pratique, synchronisée, et rassurante en apparence. Mais derrière ce confort se cache un véritable champ de mines numériques.Le dernier danger en date s’appelle Katz Stealer. Un malware vendu pour quelques dizaines de dollars par mois sur le dark web, accessible même aux cybercriminels amateurs. Son mode opératoire ? D’une simplicité redoutable : il siphonne les identifiants, les cookies, les données bancaires et les tokens d’accès stockés dans les navigateurs, pour les envoyer vers un tableau de bord en ligne. Même les protections récentes de Google, comme le chiffrement lié à l’utilisateur, ne tiennent plus face à cette attaque “masquée”.Ce n’est pas une révolution, mais la banalisation d’un risque majeur. Car tant que vos mots de passe sont gérés par le navigateur lui-même, ils restent exposés aux mêmes failles : extensions malveillantes, sites piégés, infostealers invisibles… et l’absence de chiffrement “zero-knowledge”. Autrement dit, Google ou Microsoft peuvent techniquement accéder à vos données. À l’inverse, les gestionnaires dédiés comme Bitwarden, Keepass ou Proton Pass garantissent un chiffrement local et une vraie séparation des usages.Et le paradoxe, c’est que les géants du web encouragent ce stockage à risque. Microsoft abandonne son gestionnaire sécurisé dans Authenticator au profit d’Edge. Google pousse ses utilisateurs vers les passkeys, mais continue de proposer son gestionnaire intégré comme solution par défaut. Le problème ? Les passkeys ne sont pas encore généralisées, et les navigateurs restent des cibles faciles. Alors si vos identifiants dorment encore dans Chrome ou Edge, c’est peut-être le moment de les migrer. Et de se rappeler qu’en cybersécurité, le confort ne vaut pas la sécurité.