Partager

cover art for Netflix coutera plus cher à cause des droits de douane ?

Choses à Savoir TECH

Netflix coutera plus cher à cause des droits de douane ?

C’est une décision qui pourrait bien toucher votre portefeuille. La semaine dernière, le président américain a annoncé de nouveaux droits de douane de 20 % sur tous les produits importés depuis l’Union européenne, taux abaissé temporairement à 10 % jusqu’en juillet 2025. À cela s’ajoutent des taxes de 25 % sur l’acier, l’aluminium et les véhicules. Si ces mesures sont encore suspendues pour 90 jours, Bruxelles prépare déjà la riposte. Et c’est le secteur numérique américain qui pourrait faire les frais de cette guerre commerciale. Invité sur BFMTV, le ministre de l’Économie Éric Lombard a confirmé que les services comme Netflix, Amazon Prime, Apple Music ou Max pourraient être directement visés par des contre-mesures européennes.


Faut-il s’attendre à des hausses d’abonnement ? « C’est tout à fait possible », a prévenu le ministre. En clair : si les plateformes américaines deviennent plus coûteuses à importer ou à exploiter en Europe, ce sont les consommateurs qui paieront la différence. Et dans un contexte où les tarifs de ces services augmentent déjà régulièrement, la pilule pourrait être difficile à avaler. Pour l’heure, les États membres planchent sur un plan de représailles, tout en laissant la porte ouverte aux négociations. L’objectif affiché : inciter Washington à retirer ses mesures punitives. Mais si le bras de fer s’installe, l’escalade tarifaire pourrait toucher tout l’écosystème numérique. Et les effets en chaîne ne s’arrêteraient pas là. En cas de ralentissement économique, les consommateurs pourraient revoir leurs dépenses à la baisse, notamment en matière de divertissement. Même les offres moins chères financées par la pub pourraient en pâtir si les annonceurs réduisent la voilure. Et chez des géants comme Apple ou Amazon, la hausse des droits de douane sur les produits physiques pourrait pousser à répercuter les pertes sur leurs services numériques. Depuis l’annonce de la Maison-Blanche, la valorisation d’Apple a déjà chuté en Bourse.

More episodes

View all episodes

  • Microsoft peut cloner des voix à la perfection ?

    01:56|
    C’est une petite révolution dans le monde de la synthèse vocale. Microsoft vient de lever le voile sur DragonV2.1, la nouvelle version de son moteur vocal intégré à Azure AI Speech. Et les promesses sont ambitieuses : des voix plus naturelles, plus justes… et plus difficiles à distinguer de la réalité. Là où il fallait auparavant plusieurs minutes de données vocales pour créer un clone convaincant, DragonV2.1 se contente désormais de quelques secondes seulement. Le tout, dans plus de 100 langues. De quoi faire frémir les studios de doublage et ravir les développeurs d’assistants vocaux ou de chatbots.Par rapport à la précédente version, DragonV1, les améliorations sont nettes. Le nouveau modèle affiche une réduction de 12,8 % du taux d’erreur de mot, et corrige les défauts de prononciation, notamment sur les noms propres. Microsoft promet une prosodie plus fluide, plus stable, plus humaine. Mais ce qui impressionne, c’est le niveau de personnalisation : accents, intonations, lexiques spécifiques, tout peut être modulé grâce aux balises SSML. Des profils vocaux comme Andrew, Ava ou Brian permettent même de tester rapidement les capacités du modèle.Bien sûr, avec une telle fidélité vocale, le spectre du deepfake plane. Microsoft en est pleinement conscient. Pour prévenir tout usage malveillant, l’entreprise impose des garde-fous stricts : consentement obligatoire, déclaration explicite d’un contenu synthétique, interdiction d’imitation trompeuse, et surtout, ajout automatique d’un filigrane audio. Ce filigrane invisible serait détectable dans 99,7 % des cas, selon l’entreprise. Suffisant pour rassurer ? Rien n’est moins sûr. Mais une chose est claire : avec DragonV2.1, les voix synthétiques viennent de franchir un cap. Entre progrès technologique et enjeu éthique, la voix de demain sera peut-être déjà celle d’une machine.
  • Les ondes wifi permettent de nous pister physiquement ?

    02:09|
    Et si votre réseau Wi-Fi servait à autre chose qu’à regarder des vidéos ou envoyer des mails ? La technologie sans fil pourrait bien devenir un outil de détection et de surveillance redoutable… C’est en tout cas ce que révèle une étude surprenante menée par des chercheurs de l’université La Sapienza, à Rome.Leur invention s’appelle WhoFI. Son principe ? Identifier une personne grâce à la manière dont son corps interagit avec les ondes Wi-Fi. Chaque individu produirait, sans le savoir, une sorte d’empreinte électromagnétique unique. Une fois cette signature enregistrée, le système serait ensuite capable de la reconnaître en temps réel, sans capteur, sans caméra, sans puce : juste en observant les rebonds du signal Wi-Fi dans l’environnement.Une technologie qui va bien au-delà des expérimentations passées. Car si des tentatives similaires ont déjà été menées, les résultats étaient encore trop imprécis. En 2020, un système du même genre n’affichait qu’un taux de reconnaissance de 75%. Avec WhoFI, on monte à 95,5%. Une précision qui pourrait tout changer.Imaginez un lieu public où il devient possible de localiser et suivre une personne, même dans le noir, derrière un mur, sans aucune caméra. Pour les chercheurs, on tient là un outil de surveillance d’une efficacité redoutable. Et même si, pour l’instant, le système reste cantonné au laboratoire, il y a fort à parier que les services de renseignement y jettent déjà un œil très intéressé. Reste une question centrale : jusqu’où sommes-nous prêts à aller au nom de la sécurité ? Car si le Wi-Fi peut vous reconnaître… il pourrait bien, un jour, ne plus jamais vous lâcher.
  • Apple veut finalement créer son propre ChatGPT ?

    02:04|
    Apple avait fait sensation en juin dernier en dévoilant Apple Intelligence, sa grande offensive dans l’intelligence artificielle. Une annonce forte, mais avec un grand absent : aucun chatbot maison. La firme de Cupertino semblait vouloir laisser cette tâche à ChatGPT, discrètement intégré à Siri pour répondre aux requêtes générales. À l’époque, Apple jugeait l’intérêt du public limité pour ce genre d’outil, et certains de ses propres ingénieurs en IA se montraient sceptiques.Mais les lignes ont bougé. Face au succès grandissant de ChatGPT, Claude ou encore Gemini, Apple semble revoir sa copie. Selon les révélations du journaliste spécialisé Mark Gurman, un projet d’envergure serait en cours dans les coulisses. Son nom : Answers, Knowledge and Information, ou AKI. L’objectif ? Développer un chatbot capable d’explorer le web et de fournir des réponses précises, à la manière de ses concurrents. Le chantier est mené par Robby Walker, un vétéran de Siri, et pourrait aboutir à une nouvelle application autonome, mais aussi à des intégrations profondes dans Siri, Spotlight et Safari. Apple recrute d’ailleurs activement des spécialistes en recherche algorithmique. Et un possible rachat stratégique dans le secteur de l’IA ne serait pas à exclure dans les mois à venir.Ce virage n’est pas seulement technologique, il est aussi stratégique. Apple reste très dépendante de Google, qui lui verse chaque année près de 20 milliards de dollars pour rester le moteur de recherche par défaut. Mais si la justice américaine impose une renégociation de cet accord, c’est toute une part de croissance qui pourrait vaciller. En clair, développer son propre moteur IA, c’est pour Apple une question de souveraineté. Cela permettrait non seulement de maîtriser sa chaîne de recherche, mais aussi de renforcer ses engagements en matière de confidentialité. Dans un marché de la recherche bousculé par l’IA générative, attendre n’est plus une option. Reste à savoir si la pomme parviendra à rattraper son léger retard… et à imposer sa propre voix intelligente.
  • Des pays de l’UE abandonnent « la vie privée » et peuvent lire vos messages ?

    02:01|
    Le projet européen baptisé “Chat Control” avance à grands pas… et avec lui, un débat explosif. Soutenu par plusieurs États membres, dont la France, l’Allemagne, l’Espagne et la Pologne, ce texte vise à obliger les applications de messagerie comme WhatsApp, Signal ou Telegram à analyser automatiquement tous les messages – textes comme images – pour détecter des contenus liés à l’exploitation sexuelle d’enfants.Une ambition sécuritaire, oui. Mais derrière, des inquiétudes grandissantes. Car pour parvenir à cet objectif, les plateformes devraient installer des systèmes de surveillance directement sur les appareils – des smartphones ou des ordinateurs. C’est ce qu’on appelle le "client-side scanning" : des outils capables d’analyser les contenus avant même leur chiffrement. Un changement de paradigme. Car même les messageries dites chiffrées de bout en bout, conçues justement pour garantir la confidentialité, seraient concernées. Et c’est là que le tollé commence.Des associations de défense des droits numériques, des experts en cybersécurité, des magistrats et même certains eurodéputés tirent la sonnette d’alarme. Patrick Breyer, élu européen, dénonce une "surveillance de masse inédite", où chaque citoyen serait traité comme un suspect. Les spécialistes en cryptographie alertent : toute porte ouverte, même bien intentionnée, peut être exploitée – par des États autoritaires, des groupes criminels, ou des acteurs malveillants. Plus grave encore : ces outils, conçus pour détecter l’illégal, pourraient produire de nombreux faux positifs. Des photos de famille, des conversations adolescentes, ou des échanges entre victimes et associations pourraient être mal interprétés. Le Conseil de l’UE lui-même a exprimé ses réserves juridiques, jugeant la mesure disproportionnée et inefficace face aux vraies méthodes utilisées par les criminels, qui contournent souvent les messageries classiques. En attendant, la bataille continue dans les couloirs de Bruxelles. Et si vous tombez sur un contenu suspect en ligne, n’oubliez pas : vous pouvez le signaler via la plateforme Pharos. 
  • Pourquoi Microsoft cible certaines ambassades ?

    01:54|
    Une enquête publiée par Microsoft révèle une vaste opération d’espionnage informatique visant plusieurs ambassades étrangères à Moscou. En cause : un groupe de hackers lié au FSB, les services de renseignement russes. Le groupe, connu sous le nom de Secret Blizzard, mais aussi sous les alias Turla, Snake ou encore Venomous Bear, sévit depuis la fin des années 1990. Leur dernière trouvaille ? Un malware baptisé ApolloShadow, capable de s’installer discrètement sur les ordinateurs diplomatiques… à partir même des connexions Internet locales.Comment ça fonctionne ? L’attaque débute dès qu’un appareil se connecte à un fournisseur d’accès russe. Les hackers redirigent alors le trafic vers une fausse page de connexion, similaire à celles des réseaux Wi-Fi publics. En coulisses, une requête Windows censée contacter Microsoft est détournée vers un domaine frauduleux. Le piège se referme : le logiciel espion s’installe sans que l’utilisateur ne clique sur quoi que ce soit. ApolloShadow se fait ensuite passer pour un banal installateur Kaspersky, affichant une fenêtre système qui semble légitime. Une fois les droits administrateur accordés, il installe deux certificats racine pour intercepter les connexions sécurisées. Résultat : même les échanges diplomatiques cryptés peuvent être espionnés. Le malware modifie les règles du pare-feu, redéfinit le réseau comme privé, et crée un compte système fantôme, “UpdatusUser”, qui permet aux attaquants de conserver l’accès.L’activité a été détectée en février 2025, mais le malware circulait déjà depuis l’an dernier. Microsoft a fourni aux ambassades les outils pour détecter les infections, et recommande désormais l’usage de VPN ou de connexions satellites pour contourner les infrastructures russes. Un rappel sévère : la diplomatie moderne ne se joue plus seulement autour d’une table… mais aussi dans les câbles.
  • Pourquoi Elon Musk dépose la marque MacroHard ?

    02:09|
    Entre Elon Musk et Bill Gates, ce n’est pas l’amour fou, et ce n’est plus un secret. Mais cette semaine, la rivalité entre les deux géants de la tech a pris un tournant inattendu… et franchement piquant. Elon Musk vient en effet de déposer officiellement la marque “MacroHard” auprès de l’office américain des brevets. Un nom qui fait évidemment référence à Microsoft – et surtout, qui s’en moque ouvertement.“Macro” contre “Micro”, “Hard” contre “Soft”… Musk joue la carte du détournement linguistique pour envoyer un message on ne peut plus clair : il crée l’anti-Microsoft, au moins dans l’intention. D’autant que ce nom pourrait bien être associé à un projet tout droit sorti de ses cartons : un logiciel d’intelligence artificielle multi-agents, capable de générer du code, des images, des vidéos, et même d’émuler des humains dans des machines virtuelles. Une technologie que Musk évoquait récemment sur X – anciennement Twitter – avec, déjà, une petite allusion à un nom “satirique”. Provocation gratuite ou lancement stratégique ? Un peu des deux. Depuis des années, Elon Musk multiplie les tacles contre Bill Gates. En 2020 déjà, le fondateur de Microsoft lui reprochait ses “propos irresponsables” et lui conseillait de se concentrer sur “les fusées et les voitures”. Deux ans plus tard, le torchon brûle définitivement : Gates parie 500 millions de dollars sur une chute de l’action Tesla. Musk, furieux, annule une rencontre sur des projets caritatifs et poste dans la foulée un mème moqueur… représentant Bill Gates comme un homme enceint.Depuis, c’est l’escalade. Entre piques, détournements et petites phrases assassines, la plateforme X est devenue le ring de ce combat de milliardaires. Et l’arrivée d’Elon Musk dans le cercle rapproché de Donald Trump n’a rien arrangé. Dans ce contexte ultra-tendu, le dépôt de “MacroHard” sonne comme une nouvelle déclaration de guerre. Subtile ? Non. Efficace ? Sans doute. Mais surtout, une chose est sûre : l’ironie n’est pas morte dans la Silicon Valley.
  • Anthropic bientôt aussi puissant que Boeing ?

    02:00|
    Elle ne fait pas autant de bruit que ses rivales, mais elle pèse déjà lourd : Anthropic, la start-up fondée en 2021 par d’anciens cadres d’OpenAI, est en train de devenir l’un des poids lourds de l’intelligence artificielle générative. Son chatbot Claude s’impose comme un concurrent sérieux à ChatGPT. Et les investisseurs ne s’y trompent pas.Amazon et Google ont déjà mis près de 10 milliards de dollars sur la table pour soutenir cette jeune entreprise. Et ce n’est qu’un début. Selon plusieurs médias américains, Anthropic est en train de préparer une nouvelle levée de fonds de 5 milliards de dollars, après une précédente opération en mars dernier qui avait porté sa valorisation à 61,5 milliards. Le prochain tour pourrait faire bondir cette valorisation à 170 milliards de dollars, soit l’équivalent de la capitalisation boursière de Boeing. C’est dire l’appétit que suscite la start-up. Elle joue désormais des coudes avec les plus grands : OpenAI, valorisée à 300 milliards, et xAI, la société d’Elon Musk, qui viserait 200 milliards.Un emballement qui interroge. Si certains voient dans l’IA le moteur de la prochaine révolution industrielle, d’autres redoutent une bulle spéculative, alimentée par des promesses qui dépassent largement les revenus réels. Fait marquant : Anthropic change aussi de cap sur ses sources de financement. Longtemps réticente, l’entreprise ouvre désormais ses portes aux fonds souverains du Moyen-Orient. Elle serait en discussion avec MGX, le bras armé d’Abou Dhabi pour l’IA, et le Qatar Investment Authority. Un virage assumé par le PDG Dario Amodei. Dans un mémo interne, il reconnaît que les principes éthiques ne suffisent plus à couvrir les besoins financiers : « Aucune personne mal intentionnée ne devrait jamais bénéficier de notre succès » est un principe difficile à appliquer dans la réalité, écrit-il.
  • Tout ce que vous dite à l’IA peut se retourner contre vous ?

    02:03|
    Peut-on vraiment tout dire à une intelligence artificielle ? Pour Sam Altman, PDG d’OpenAI, la réponse est non. Et c’est lui-même qui le dit, au micro du podcast This Past Weekend. Dans cet entretien, il met en garde contre un usage trop personnel de ChatGPT, son propre chatbot. Le message est clair : vos conversations avec ChatGPT ne sont pas protégées par la loi, comme peuvent l’être celles avec un médecin, un avocat ou un thérapeute. Et en cas de litige, elles pourraient même être présentées devant un tribunal.« Si vous parlez à ChatGPT de sujets sensibles et qu’il y a une action en justice, nous pourrions être légalement contraints de transmettre ces échanges », explique Sam Altman. Une situation qu’il qualifie lui-même de "profondément anormale". Le contexte juridique ne joue pas en faveur des utilisateurs. Une procédure en cours, lancée par The New York Times, oblige OpenAI à conserver l’historique des conversations, y compris celles que les usagers pensent avoir supprimées. Face à cela, Altman plaide pour un encadrement juridique clair. Il estime que les échanges avec une IA devraient bénéficier des mêmes protections que ceux avec des professionnels du soin ou du droit. « Il existe un secret médical, un secret professionnel. Pourquoi pas un secret conversationnel pour l’IA ? », interroge-t-il.Mais pour l’instant, rien de tout cela n’est en place. Et Altman le reconnaît : tant qu’un cadre légal n’existe pas, les utilisateurs sont en droit d’exiger une transparence totale sur la gestion de leurs données privées. Le message est lancé : n’oubliez pas que parler à ChatGPT, ce n’est pas parler en toute confidentialité. Et dans un monde où les frontières entre humain et machine deviennent floues, la protection de la vie privée reste un chantier majeur.
  • Pourquoi doit-on effacer nos mots de passe de Chrome ?

    02:14|
    En cybersécurité, certaines évidences méritent d’être répétées. En voici une : votre navigateur web n’est pas un coffre-fort. Pourtant, des millions d’utilisateurs continuent d’y stocker leurs identifiants sans se poser de questions. Chrome, Edge, Firefox ou Brave : tous proposent une gestion intégrée des mots de passe, pratique, synchronisée, et rassurante en apparence. Mais derrière ce confort se cache un véritable champ de mines numériques.Le dernier danger en date s’appelle Katz Stealer. Un malware vendu pour quelques dizaines de dollars par mois sur le dark web, accessible même aux cybercriminels amateurs. Son mode opératoire ? D’une simplicité redoutable : il siphonne les identifiants, les cookies, les données bancaires et les tokens d’accès stockés dans les navigateurs, pour les envoyer vers un tableau de bord en ligne. Même les protections récentes de Google, comme le chiffrement lié à l’utilisateur, ne tiennent plus face à cette attaque “masquée”.Ce n’est pas une révolution, mais la banalisation d’un risque majeur. Car tant que vos mots de passe sont gérés par le navigateur lui-même, ils restent exposés aux mêmes failles : extensions malveillantes, sites piégés, infostealers invisibles… et l’absence de chiffrement “zero-knowledge”. Autrement dit, Google ou Microsoft peuvent techniquement accéder à vos données. À l’inverse, les gestionnaires dédiés comme Bitwarden, Keepass ou Proton Pass garantissent un chiffrement local et une vraie séparation des usages.Et le paradoxe, c’est que les géants du web encouragent ce stockage à risque. Microsoft abandonne son gestionnaire sécurisé dans Authenticator au profit d’Edge. Google pousse ses utilisateurs vers les passkeys, mais continue de proposer son gestionnaire intégré comme solution par défaut. Le problème ? Les passkeys ne sont pas encore généralisées, et les navigateurs restent des cibles faciles. Alors si vos identifiants dorment encore dans Chrome ou Edge, c’est peut-être le moment de les migrer. Et de se rappeler qu’en cybersécurité, le confort ne vaut pas la sécurité.