Partager

Choses à Savoir TECH
ChatGPT lance son premier smartphone ?
Le projet n’est plus seulement une rumeur : OpenAI pourrait bientôt passer du logiciel… au matériel. Selon l’analyste Ming-Chi Kuo, la société à l’origine de ChatGPT travaillerait sur un smartphone entièrement pensé autour de l’intelligence artificielle. Un « AI Phone » qui ne se contenterait pas d’intégrer l’IA, mais en ferait le cœur de l’expérience utilisateur.
L’idée est simple, mais ambitieuse : repenser le téléphone non plus comme une collection d’applications, mais comme un assistant centralisé, capable de comprendre et d’anticiper les besoins en continu. Pour y parvenir, OpenAI ne se limiterait pas au design ou à l’interface. L’entreprise s’attaquerait directement à un élément clé : le processeur. En collaboration avec MediaTek et Qualcomm, OpenAI développerait une puce dédiée à l’IA, dont la production de masse pourrait démarrer à l’horizon 2028.
Contrairement aux processeurs classiques, conçus pour gérer des tâches variées, celui-ci serait optimisé pour exécuter des modèles d’intelligence artificielle directement sur l’appareil. On parle ici d’« IA locale » : les calculs sont réalisés sur le téléphone lui-même, sans passer par Internet, ce qui réduit les délais et limite l’envoi de données vers des serveurs distants. Ce processeur fonctionnerait en mode « always-on », c’est-à-dire actif en permanence, mais avec une consommation d’énergie très faible. Il analyserait le contexte, voix, texte, usage, pour proposer des actions sans que l’utilisateur ait à les demander explicitement. Pour les tâches plus complexes, le système pourrait basculer vers le cloud de manière transparente.
Côté production, OpenAI s’appuierait sur Luxshare, déjà intégré dans la chaîne industrielle d’Apple. Les choix techniques définitifs devraient être arrêtés d’ici fin 2026. Mais ce projet soulève aussi des défis majeurs. Une IA active en continu pose des questions de consommation énergétique, mais aussi de confidentialité. Un appareil capable d’analyser en permanence son environnement devra convaincre sur la protection des données. Si ce téléphone voit le jour, il pourrait transformer en profondeur notre rapport au mobile. Moins d’applications, plus d’interactions naturelles. Reste à savoir si les utilisateurs sont prêts à changer leurs habitudes.
More episodes
View all episodes

Des pixels espions vous traquent dans les e-mails ?
02:30|C’est une pratique invisible, mais omniprésente dans nos boîtes mail. Le pixel de suivi — une minuscule image d’un seul pixel — permet aux expéditeurs de savoir si vous avez ouvert un message. Discret, silencieux, et jusqu’ici peu encadré. Mais les règles changent.Le 14 avril 2026, la CNIL a publié une recommandation officielle pour mieux encadrer ces outils de traçage. Une décision qui intervient après une hausse notable des plaintes et une consultation lancée en 2025 auprès d’entreprises, d’associations et du grand public. Concrètement, comment fonctionne ce fameux pixel ? Il s’agit d’une image invisible intégrée dans un e-mail. Dès que vous ouvrez le message, votre appareil charge cette image depuis un serveur distant. Ce simple chargement suffit à signaler que l’e-mail a été consulté. Aucun clic, aucune alerte : tout se fait en arrière-plan.Pour les entreprises, l’intérêt est évident. Ces données permettent de mesurer le taux d’ouverture, d’optimiser les campagnes marketing ou encore de vérifier la bonne réception des messages. Mais pour la CNIL, le problème est ailleurs : ces pratiques collectent des données comportementales dans un espace considéré comme privé — la messagerie personnelle. La nouvelle règle est claire : dans la majorité des cas, l’utilisation de ces pixels nécessite le consentement explicite de l’utilisateur. Un consentement réel, c’est-à-dire libre, éclairé, et surtout non dissimulé dans des conditions générales ou pré-coché par défaut. Les entreprises devront également être capables de prouver qu’elles ont bien obtenu cet accord.Il existe toutefois une exception. Les e-mails dits « transactionnels » — confirmation de commande, suivi de colis ou alerte de compte — peuvent intégrer ces pixels sans consentement préalable. Mais uniquement pour un usage limité : vérifier que le message a bien été délivré, et éviter d’envoyer des e-mails à des adresses inactives. Pour les bases de données existantes, une période de transition de trois mois est prévue. Les organisations devront informer leurs contacts de l’usage de ces traceurs et leur offrir une possibilité simple de s’y opposer. Passé ce délai, la CNIL annonce des contrôles. Et potentiellement des sanctions. Une manière de rappeler que, même invisibles, ces outils ne sont pas sans conséquence sur la vie privée.
Des startups en faillite vendent leurs data pour entraîner l’IA ?
02:13|C’est un marché inattendu, né dans les coulisses de l’économie des startups. Depuis avril 2026, la société SimpleClosure propose une nouvelle activité : revendre les archives numériques d’entreprises en liquidation. Code source, échanges Slack, e-mails internes… tout peut être cédé sous licence. Pour son PDG Dori Yona, il s’agit d’une véritable « ruée vers l’or ».En un an, près d’une centaine de transactions auraient déjà été conclues, pour plus d’un million de dollars redistribués aux fondateurs. Et la concurrence s’organise. La plateforme Sunset, par exemple, valorise particulièrement les données issues de secteurs sensibles comme la santé ou la finance, où les historiques sont riches et interconnectés.Pourquoi un tel engouement ? Parce que les données sont devenues la matière première essentielle de l’intelligence artificielle. Or, comme l’a souligné Ilya Sutskever, les grandes bases publiques, Wikipédia, Reddit ou les livres numérisés, sont aujourd’hui largement exploitées. Les nouveaux systèmes d’IA ont besoin d’exemples concrets de travail réel : des échanges imparfaits, des erreurs, des processus humains. Résultat : un nouveau secteur émerge, celui des environnements d’entraînement simulés. Des entreprises comme AfterQuery vendent des univers professionnels reconstitués, « Finance World » ou « Tax World », où des agents IA apprennent à évoluer comme dans une entreprise. Des acteurs majeurs comme Anthropic ou Scale AI investissent déjà massivement dans ce domaine.Mais cette économie soulève des questions sensibles. Juridiquement, les entreprises détiennent généralement les données produites par leurs salariés, y compris sur des outils comme Slack. Pourtant, pour des experts comme Marc Rotenberg, l’enjeu dépasse la simple propriété intellectuelle : il s’agit aussi de données personnelles. L’anonymisation, souvent mise en avant, reste imparfaite. Des études menées par OpenAI et Google ont montré que certains modèles peuvent mémoriser et restituer des données sensibles.
Fini la diffusion 4K chez France TV ?
02:26|Après l’exploit technologique des Jeux olympiques de Jeux olympiques de Paris 2024, diffusés en 4K HDR avec son immersif, on aurait pu penser que la télévision publique française poursuivrait sur cette lancée. Et pourtant, le signal envoyé aujourd’hui par France Télévisions est tout autre : un retour partiel en arrière sur la 4K native. Un choix qui peut surprendre… mais qui s’explique. Car derrière cette décision, il ne s’agit pas d’un recul technologique, mais d’un arbitrage économique. Depuis plusieurs mois, le groupe évolue sous forte contrainte budgétaire. Une commission d’enquête parlementaire lancée fin 2025, combinée aux alertes répétées de la Cour des comptes, a mis en lumière une situation financière tendue. Résultat : un plan d’économies d’environ 140 millions d’euros a été acté pour 2026.Dans ce contexte, certaines dépenses deviennent difficiles à défendre. La production en 4K native en fait partie. Produire une image en Ultra Haute Définition implique une chaîne technique plus lourde : caméras spécifiques, traitement des images plus complexe, besoins accrus en bande passante pour la diffusion… Autant de coûts supplémentaires, pour un bénéfice visuel qui n’est pas toujours évident pour tous les téléspectateurs.C’est là tout le paradoxe. La 4K promet une qualité d’image supérieure, mais son impact dépend fortement des conditions de visionnage : taille de l’écran, distance, qualité du signal. Sur un événement comme Roland-Garros, dominé par des plans larges, la différence avec une image bien optimisée peut rester discrète. La solution envisagée repose donc sur un compromis technique. Plutôt que filmer directement en 4K, France Télévisions pourrait capter en Full HD, puis utiliser un procédé appelé upscaling. Il s’agit d’un traitement algorithmique qui “reconstruit” une image en Ultra HD à partir d’une source plus basse définition, avec l’aide du HDR, une technologie qui améliore les contrastes et les couleurs.Résultat : une qualité visuelle jugée satisfaisante pour le grand public, à un coût bien inférieur. Ce choix marque un tournant. La 4K native ne disparaît pas, mais elle pourrait devenir l’exception, réservée aux grands événements, plutôt qu’un standard systématique. Un virage pragmatique, dicté par la réalité des finances publiques.
La France et le Japon testent un chiffrement basé sur l’ADN ?
02:36|En cryptographie, il existe un Graal théorique : le chiffrement de Vernam, aussi appelé One-Time Pad. C’est le seul système dont la sécurité est prouvée mathématiquement comme étant infaillible… à une condition très stricte : disposer d’une clé secrète parfaitement aléatoire, aussi longue que le message, et utilisée une seule fois. Un idéal presque impossible à atteindre en pratique. Jusqu’à aujourd’hui, peut-être.Une équipe de chercheurs du CNRS, de l’Université de Tokyo, de l’Université de Limoges, d’IMT Atlantique et de l’ESPCI Paris propose une approche inédite : utiliser l’ADN comme support de ces clés cryptographiques. Concrètement, les scientifiques ont créé de longues séquences d’ADN synthétique, sans lien avec le vivant, dont l’ordre des bases chimiques, les fameuses lettres A, T, C et G, est aléatoire. Ces séquences sont produites en double exemplaire : une copie pour l’émetteur, une autre pour le destinataire. Juste avant l’échange, elles sont lues par des machines de séquençage, des outils capables de décoder l’ordre des bases, afin de générer une clé numérique binaire commune. Cette clé sert ensuite à chiffrer et déchiffrer des messages pouvant atteindre plusieurs centaines de mégaoctets. L’équipe a déjà réalisé une démonstration entre Tokyo et Paris, générant une clé de 400 mégabits avec un niveau d’erreur extrêmement faible. La sécurité repose notamment sur ce que l’on appelle la min-entropie, une mesure du caractère imprévisible d’une clé, ici conforme aux standards les plus exigeants du NIST.Autre point remarquable : la distance n’a aucune importance. Quelques milligrammes d’ADN suffisent à stocker des quantités gigantesques d’information, jusqu’à des exaoctets, soit l’équivalent de millions de disques durs, et le protocole fonctionnerait théoriquement même entre la Terre et la Lune. Côté sécurité, le système est conçu pour détecter toute tentative d’interception. Comme chaque séquence n’existe qu’en deux exemplaires, toute copie frauduleuse laisserait des traces, rendant la clé inutilisable. Le projet est piloté notamment par le biochimiste Yannick Rondelez et le physico-chimiste Matthieu Labousse. Encore en phase de prépublication, ces travaux ouvrent déjà des perspectives majeures, notamment pour les communications sensibles, diplomatiques ou militaires.
100 états dans le monde espionnent nos smartphones ?
02:23|Le scandale Pegasus avait marqué les esprits. Développé par NSO Group, ce spyware (autrement dit un logiciel capable d’infiltrer un appareil pour en extraire des données) avait été utilisé par plusieurs États pour surveiller journalistes, opposants et militants. Mais selon plusieurs experts, ce cas pourrait n’être que la partie visible d’un phénomène en pleine expansion. D’après le National Cyber Security Centre, plus d’une centaine de pays disposeraient aujourd’hui de ce type d’outils. Un chiffre en forte hausse : ils étaient environ 80 en 2023. Sur les 193 États membres de l’ONU, cela représente désormais une majorité potentielle capable de mener des opérations de surveillance numérique avancée.Comment expliquer cette progression ? Principalement par une baisse des barrières d’accès. Autrefois réservés à quelques puissances, ces logiciels sont aujourd’hui plus faciles à acquérir, parfois via des sociétés privées spécialisées dans la cybersurveillance. Résultat : leur diffusion s’accélère, et avec elle, les usages. Car l’enjeu ne se limite pas au nombre d’acteurs équipés. Les cibles évoluent aussi. Officiellement, ces outils sont utilisés pour lutter contre le terrorisme ou la criminalité organisée. Mais dans les faits, de nombreux cas ont déjà montré qu’ils pouvaient viser des profils bien différents : journalistes, figures de l’opposition, défenseurs des droits humains. Et selon les autorités britanniques, le spectre s’élargit encore. Désormais, des profils économiques comme des banquiers ou des chefs d’entreprise seraient également ciblés. L’espionnage numérique ne se limite plus aux enjeux politiques, il touche aussi les intérêts financiers et stratégiques.Autre point marquant : l’origine des attaques. Contrairement à une idée reçue, elles ne proviennent pas majoritairement de cybercriminels isolés. Selon Richard Horne, directeur du NCSC, une grande partie des cyberattaques d’envergure au Royaume-Uni serait le fait… d’États. Autrement dit, la cybersurveillance s’inscrit de plus en plus dans les relations internationales. Un outil de renseignement, mais aussi de pouvoir. Et dans ce contexte, Pegasus pourrait bien apparaître, avec le recul, comme un simple avertissement.
La Chine, un maître de l’IA open source qui séduit les pays du Sud ?
02:20|C’est un signal fort dans la bataille mondiale de l’intelligence artificielle. Selon une étude conjointe du MIT et de Hugging Face, relayée par le MIT Technology Review, les modèles open source chinois représentent désormais 17,1 % des téléchargements mondiaux sur la plateforme. Les modèles américains, eux, tombent à 15,86 %. Une première.Ce basculement remonte à janvier 2025, avec la publication du modèle R1 par DeepSeek. Sa particularité : une licence MIT, très permissive, qui autorise librement l’utilisation, la modification et la redistribution. En clair, n’importe quel développeur peut s’en emparer sans contrainte commerciale. Et surtout, ses performances rivalisent avec celles de modèles fermés américains, pour un coût d’utilisation bien plus faible. Dans la foulée, d’autres acteurs chinois ont suivi : Alibaba avec la famille Qwen, Moonshot AI ou encore MiniMax. Résultat : fin 2025, Qwen dépasse même Llama, le modèle de Meta, en nombre de téléchargements cumulés.La différence de stratégie est nette. Côté américain, les modèles sont souvent accessibles via des API payantes — c’est-à-dire des interfaces permettant d’utiliser l’IA à distance, moyennant abonnement. Côté chinois, ils sont proposés en accès libre, téléchargeables et exploitables localement. Un avantage décisif dans de nombreuses régions du monde.En Afrique, en Asie du Sud-Est ou en Amérique latine, ces modèles comblent un vide. Ils fonctionnent sur des machines modestes, ne nécessitent pas de carte bancaire et évitent les contraintes liées à l’hébergement des données à l’étranger. En Europe, la réponse s’organise autour d’acteurs comme Mistral AI, qui mise sur la souveraineté et la conformité réglementaire, notamment au RGPD. Mais l’approche reste différente : là où les modèles chinois privilégient le volume et l’adoption massive, les Européens ciblent avant tout les entreprises. Au fond, deux visions s’opposent. L’une ouverte, rapide, centrée sur l’écosystème. L’autre plus encadrée, tournée vers la régulation. Et dans cette course, le terrain est désormais mondial.
Euro-Office vs OnlyOffice : un conflit qui pourrait changer l’open source ?
02:24|C’est un débat très technique, mais aux conséquences bien réelles pour le logiciel libre. Le 21 avril, OnlyOffice a publié une lettre ouverte adressée au consortium Euro-Office. Au cœur du désaccord : l’interprétation d’une licence open source bien connue, l’AGPLv3.Pour comprendre, il faut revenir à cette licence, rédigée en 2007. Elle autorise la modification et la redistribution d’un logiciel, à condition de respecter certaines règles, dont la « préservation des attributions d’auteur ». Autrement dit, reconnaître les créateurs du logiciel d’origine. Mais une question se pose aujourd’hui : cette attribution peut-elle prendre la forme… d’un logo d’entreprise ? OnlyOffice répond oui. Depuis 2021, l’éditeur impose que son logo soit visible dans tous les logiciels dérivés. Une position contestée par le consortium Euro-Office, qui regroupe notamment Nextcloud, IONOS et Proton. Fin mars, ces acteurs ont supprimé ce logo en créant leur propre version du logiciel, ce qu’on appelle un “fork”, c’est-à-dire une copie modifiée d’un projet open source. Le problème, selon Nextcloud, est juridique : la licence impose d’afficher le logo, mais interdit en même temps d’utiliser la marque. Une contradiction difficile à tenir. La Free Software Foundation a tranché en janvier dernier : pour elle, une attribution concerne une personne, pas une marque commerciale.OnlyOffice conteste cette lecture. L’éditeur estime que le texte de la licence ne précise pas ce qu’est une “attribution”, et considère la position de la fondation comme un simple avis. En attendant une réponse officielle, il propose un compromis : abandon du logo, mais obligation de mentionner clairement l’origine du logiciel dans une page “À propos”, dans le code et dans la documentation publique. Derrière ce débat technique se joue un enjeu central : l’équilibre entre liberté et reconnaissance dans l’open source. Si les éditeurs ne peuvent plus imposer leur visibilité, ils perdent un levier important. Mais à l’inverse, trop de contraintes pourraient limiter la liberté de modification, pourtant au cœur du logiciel libre. Une question encore loin d’être tranchée.
Les espions étrangers recrutent sur LinkedIn ?
02:18|C’est une menace discrète, mais bien réelle. Selon DGSI, des services de renseignement étrangers ciblent désormais des citoyens français via… des offres d’emploi. Leur méthode ? Se faire passer pour des recruteurs ou des chasseurs de tête, notamment sur des plateformes professionnelles.Contrairement à ce que l’on pourrait penser, tout le monde peut être concerné. Fonctionnaires, ingénieurs, chercheurs, salariés du privé… aucun secteur n’est épargné. Et surtout, les espions ne cherchent pas forcément des documents classifiés. Ce qu’ils visent, ce sont des informations non publiques : un réseau de contacts, une expertise technique, ou une connaissance interne d’un secteur. Le mode opératoire est bien rodé. Tout commence par une prise de contact, souvent via LinkedIn ou une annonce crédible. Parfois, de véritables cabinets de recrutement sont utilisés comme façade pour renforcer la confiance. Ensuite, une proposition arrive : rédiger une note ou un rapport rémunéré. Au départ, les sujets restent larges, presque anodins. Mais en réalité, il s’agit d’évaluer ce que la personne sait… et surtout ce à quoi elle a accès.Certains signaux doivent alerter. D’abord, vérifier l’ancienneté du profil ou du site : une création récente peut être suspecte. Les photos générées par intelligence artificielle sont aussi de plus en plus utilisées, même si elles deviennent difficiles à repérer. Autre indice : des questions insistantes sur votre réseau professionnel, vos accès ou vos collègues. La communication est également un indicateur clé. Très vite, l’interlocuteur cherche à quitter les plateformes officielles pour basculer vers des messageries comme WhatsApp, Telegram ou Signal. Enfin, la rémunération proposée peut paraître inhabituelle, parfois en cryptomonnaies ou en espèces, ce qui complique toute traçabilité.Face à ce type de tentative, la consigne est claire. Il faut cesser immédiatement tout échange, conserver les preuves, captures d’écran, messages, profils, et signaler la situation aux autorités, notamment via l’adresse dédiée de la DGSI.