Partager

cover art for La justice est-elle hostile à l’usage de l’IA ?

Choses à Savoir TECH

La justice est-elle hostile à l’usage de l’IA ?

C’est une décision peu banale rendue par le tribunal administratif de Grenoble, qui éclaire d’un jour très concret les limites de l’intelligence artificielle face au droit. Le 3 décembre 2025, les juges ont rejeté le recours d’un habitant de Saint-Cergues, sanctionné pour dépôt sauvage d’un carton. Particularité de l’affaire : la requête avait été rédigée à l’aide d’un outil d’IA générative. Un choix qui n’a manifestement pas convaincu la juridiction.


Retour en arrière. En mai 2025, cet habitant se rend aux conteneurs de tri de sa commune. Les bennes sont pleines. Faute de mieux, il pose son carton à côté. La mairie y voit un dépôt sauvage et lui inflige une amende de 500 euros. Plutôt que de consulter un avocat ou une association d’aide juridique, l’homme décide de contester la sanction avec un texte généré par intelligence artificielle. Mauvaise pioche. Les magistrats estiment que le document manque de clarté, empile des références jurisprudentielles « fantaisistes » et répète le même argument juridique sous plusieurs formulations. Verdict sans appel : l’outil utilisé est jugé « totalement inadapté » à cet usage.


Que des juges mentionnent explicitement l’emploi d’une IA dans leur décision est rare. Mais le signal est clair. De plus en plus de citoyens tentent de s’appuyer sur ces outils pour rédiger des recours administratifs, souvent au prix d’erreurs grossières. Le message implicite du tribunal : on ne devient pas juriste à coups de prompts. À ces faiblesses de fond s’ajoutent des fautes de procédure. Le requérant demandait l’annulation d’une décision… sans joindre ladite décision à son dossier. Une lacune rédhibitoire. Le tribunal lui a pourtant laissé une chance, via une demande de régularisation envoyée en octobre par le téléservice Télérecours Citoyens. Aucune réponse dans les délais. Les juges ont finalement considéré qu’il contestait l’avis de paiement reçu en juin. Sur le fond, les arguments ne tiennent pas davantage. L’homme invoquait un vice de procédure, affirmant ne pas avoir eu le temps de se défendre. Problème : il avait refusé de retirer le courrier recommandé qui l’en informait. Quant à l’excuse des conteneurs saturés, elle n’a pas suffi à convaincre. Conclusion : l’amende de 500 euros est confirmée. Une affaire qui rappelle que, face au droit, l’IA peut aider à comprendre… mais pas remplacer une vraie défense.

More episodes

View all episodes

  • Mistral AI, équipe désormais les armées françaises ?

    02:26|
    Peut-on y voir un véritable tournant pour la défense française ? Ce jeudi 8 janvier 2026, le ministère des Armées et des Anciens combattants a officialisé la notification d’un accord-cadre stratégique avec Mistral AI. Objectif affiché : doter l’ensemble des forces armées françaises d’outils d’intelligence artificielle générative de très haut niveau. Un signal fort, dans un contexte de compétition technologique mondiale où l’IA devient un multiplicateur de puissance militaire.Concrètement, cet accord ouvre l’accès, pour toutes les armées, directions et services du ministère, aux modèles, logiciels et prestations développés par l’entreprise cofondée par Arthur Mensch. Il ne s’agit plus de projets pilotes ou d’expérimentations isolées : l’État assume un déploiement large et structurant. L’IA générative entre ainsi dans le quotidien des forces françaises, qu’il s’agisse d’analyse de données, d’aide à la décision, de planification ou de traitement de l’information opérationnelle. Le périmètre du partenariat dépasse d’ailleurs le strict cadre militaire. Plusieurs établissements publics placés sous la tutelle du ministère sont également concernés : le Commissariat à l'énergie atomique et aux énergies alternatives, l’Office national d'études et de recherches aérospatiales, ou encore le Service hydrographique et océanographique de la marine. Autant d’acteurs clés de la recherche stratégique et de l’innovation de défense.La mise en place de cet accord revient à l’Agence ministérielle pour l'intelligence artificielle de défense, créée précisément pour accélérer l’adoption de l’IA dans les armées. Son directeur, Bertrand Rondepierre, résume l’enjeu : intégrer les technologies les plus avancées pour préparer les forces aux conflits de demain. Aux yeux du ministère, Mistral AI s’impose aujourd’hui comme l’un des champions mondiaux de l’IA générative, doté d’une équipe de recherche de tout premier plan. Peu importe, affirme-t-on, ses collaborations industrielles avec des acteurs étrangers comme NVIDIA : le cœur du dispositif reste sous contrôle français. C’est là l’argument central : garantir une maîtrise souveraine des technologies critiques. À travers cet accord-cadre, la France affirme une ligne claire : faire de son excellence en intelligence artificielle un pilier de sa souveraineté militaire. Une manière de réduire les dépendances technologiques, tout en transformant l’IA en levier stratégique durable pour la défense nationale.
  • La Nasa abandonne ses échantillons de Mars à la Chine ?

    02:34|
    C’était l’un des paris scientifiques les plus ambitieux de l’exploration martienne. Avec le rover Perseverance, la NASA voulait accomplir une première historique : rapporter sur Terre des échantillons de sol martien pour les analyser avec les outils les plus sophistiqués dont disposent nos laboratoires. Objectif ultime : trancher, enfin, la question d’une vie passée sur Mars. Mais aujourd’hui, ce rêve se heurte brutalement à une réalité bien terrestre : celle des budgets.Le programme Mars Sample Return, censé récupérer les 35 tubes soigneusement collectés par Perseverance, est au bord de l’abandon. Le budget voté par la Chambre des représentants américaine, pourtant plus généreux que celui initialement envisagé par l’administration Trump, ne prévoit que 650 millions de dollars pour MSR. Une somme dérisoire face aux quelque 11 milliards estimés pour mener la mission à son terme. Le texte doit encore passer devant le Sénat, mais le signal est clair : l’argent ne suivra pas.Il faut dire que MSR est un casse-tête technologique. Un atterrisseur sur Mars, une fusée capable de décoller depuis la planète rouge — une première —, un rendez-vous orbital, puis une capsule de retour vers la Terre. Une chaîne d’opérations complexe, longue, coûteuse. L’administration Trump avait déjà qualifié le projet « d’inabordable ». L’Agence spatiale européenne, ESA, partenaire du programme, a reconnu ne pas pouvoir poursuivre seule. Dans les coulisses, le changement de cap est radical. Washington pousse désormais la NASA à se tourner vers des solutions commerciales, en sollicitant des acteurs privés comme SpaceX ou Blue Origin, dans l’espoir de réduire les coûts. Problème : sans financement massif supplémentaire, aucun industriel n’est prêt à relever le défi aujourd’hui. Résultat : les échantillons pourraient rester sur Mars pendant des décennies.Pendant ce temps, la Chine avance ses pions. Sa mission Tianwen-3, prévue pour la fin de la décennie, devient mécaniquement favorite pour réussir le premier retour d’échantillons martiens. Une stratégie plus simple, plus directe, déjà éprouvée sur la Lune. Si Pékin y parvient avant 2030, le coup sera rude pour les États-Unis : scientifique, symbolique et diplomatique. L’exploration spatiale redevient un terrain de rivalités, où l’audace ne suffit plus sans les moyens de la financer.
  • Vos conversations avec l’IA revendues en secret ?

    03:13|
    Pendant longtemps, Internet a entretenu l’idée rassurante d’une séparation nette entre la vie publique et la sphère privée. On écrit, on cherche, on questionne, persuadé que ces échanges restent confinés à l’écran. Les assistants conversationnels ont renforcé ce sentiment, avec leur ton calme, presque empathique, et la promesse implicite de confidentialité. Mais cette frontière supposée se fissure dès qu’on regarde ce qui se cache derrière certaines extensions installées en toute confiance.Depuis des mois, des millions d’utilisateurs dialoguent avec des IA comme OpenAI via ChatGPT ou Anthropic avec Claude, livrant parfois des fragments très intimes de leur existence : soucis de santé, dilemmes personnels, informations professionnelles sensibles. En face, une machine disponible en permanence, qui ne juge pas et semble tenir sa langue. Sauf que cette confiance repose souvent sur une illusion. Derrière l’interface, chaque mot peut être aspiré, analysé… voire revendu. C’est là qu’intervient Urban VPN Proxy. Présentée comme un outil gratuit de protection, cette extension a séduit plus de six millions d’utilisateurs. Une enquête du média Koi a pourtant mis en lumière un tout autre fonctionnement. L’extension injecte des scripts invisibles dans les pages des principaux services d’IA — ChatGPT, Claude, Gemini, Perplexity ou Grok — afin d’intercepter les requêtes, les réponses, les horaires de connexion et diverses métadonnées. Ces données sont ensuite compressées, envoyées vers les serveurs d’Urban VPN, puis transmises à des partenaires tiers.Le plus troublant, c’est l’absence totale de contrôle. La collecte démarre dès l’installation, continue même lorsque le VPN est désactivé et ne peut pas être interrompue par l’utilisateur. Selon Forbes, cette fonctionnalité aurait été ajoutée en juillet 2025 via une mise à jour silencieuse. Officiellement, l’éditeur, Urban Cyber Security Inc., affirme agir pour la « protection de l’utilisateur ». Mais sa politique de confidentialité indique clairement que les données sont partagées avec BiScience, une société spécialisée dans l’analyse comportementale. Autre élément dérangeant : l’extension bénéficie d’un badge « Featured » sur le Chrome Web Store de Google. Ce label suggère une validation manuelle et une conformité aux bonnes pratiques. Pourtant, l’outil intercepte aussi des données issues de Gemini, le chatbot maison de Google. Pour Futurism, cette situation interroge sérieusement la rigueur des processus de validation et la responsabilité des grandes plateformes. Au final, le constat est brutal. On installe un VPN pour se protéger, et l’on se retrouve surveillé. On parle à une IA comme à un confident, et l’on alimente une économie discrète de la donnée. Derrière le discours rassurant de la sécurité numérique, la logique reste la même : celle d’une surveillance bien huilée, souvent invisible, et rarement consentie.
  • Starlink panique pour la sécurité de ses satellites ?

    03:08|
    Starlink s’apprête à faire descendre une partie significative de sa constellation. Environ 4 400 satellites vont voir leur altitude abaissée, une décision présentée comme une mesure de sécurité. L’annonce a été faite par Michael Nicolls, vice-président de l’ingénierie chez Starlink, dans un message publié sur X. Derrière ce choix technique se cache une réalité souvent méconnue : en orbite basse, l’environnement n’est jamais figé. Le Soleil, lui aussi, influence les règles du jeu.Concrètement, l’opérateur prévoit de faire passer ses satellites d’environ 550 kilomètres d’altitude à 480 kilomètres, à partir de 2026. L’objectif affiché est double : réduire le risque de collision en se positionnant dans une zone jugée moins encombrée, et surtout accélérer la désorbitation des satellites en cas de panne. En toile de fond, l’arrivée du minimum solaire, une phase du cycle du Soleil marquée par une baisse d’activité. Résultat : l’atmosphère terrestre se contracte légèrement, ce qui diminue les frottements et rallonge la durée de vie des objets en orbite basse. À 550 kilomètres, un satellite hors service peut ainsi rester en orbite pendant plus de quatre ans avant de retomber naturellement. Trop longtemps, estime Starlink. Selon Michael Nicolls, descendre à 480 kilomètres permettrait de réduire de plus de 80 % le temps de décroissance balistique, le faisant passer de plusieurs années à seulement quelques mois durant le minimum solaire. Autrement dit, un satellite « mort » disparaîtrait bien plus vite, limitant son statut de débris incontrôlable.Sur le papier, la manœuvre peut sembler contre-intuitive. Abaisser l’altitude de milliers de satellites donne l’impression de concentrer encore davantage la circulation spatiale. Mais Starlink ne raisonne pas en densité locale : l’entreprise parle de couloir orbital. En dessous de 500 kilomètres, il y aurait moins d’objets en circulation et moins de projets concurrents. Il ne s’agit donc pas de fluidifier une zone saturée, mais de déplacer la constellation vers un étage jugé plus « calme ». Le véritable enjeu, toutefois, n’est pas la manœuvre, mais la panne. Tant qu’un satellite fonctionne, il peut corriger sa trajectoire et éviter les collisions. Lorsqu’il cesse de répondre, il devient un projectile passif livré aux lois de la gravité. Plus il reste longtemps en orbite, plus le risque d’accident augmente.Ce choix a aussi une dimension politique. À mesure que les méga-constellations se multiplient, la question des débris spatiaux revient avec insistance dans les débats réglementaires. En abaissant l’altitude de ses satellites, SpaceX se dote d’un argument simple : en cas de problème, ses engins quittent l’orbite plus vite. Reste une interrogation de fond : si 480 kilomètres devient demain l’étage privilégié de l’industrie, l’embouteillage ne fera que changer de niveau. Une chose est sûre : en orbite basse, la marge d’erreur se réduit à vue d’œil, et même les plans dits « de sécurité » ressemblent de plus en plus à des stratégies de survie.
  • Grok : la France enquête sur des deepfakes de mineurs ?

    03:07|
    Les ennuis judiciaires s’accumulent pour la galaxie d’Elon Musk. Cette fois, on ne parle ni de polémiques sur la modération, ni de débats idéologiques autour de la liberté d’expression. Les autorités françaises et malaisiennes viennent d’ouvrir, presque simultanément, des enquêtes visant la plateforme X et son intelligence artificielle Grok. Le motif est d’une tout autre gravité : la diffusion de contenus pédopornographiques générés par IA.Les faits sont glaçants. Des utilisateurs ont montré qu’il suffisait de formuler certaines requêtes pour obtenir, via Grok, des images hyperréalistes représentant des mineurs dans des tenues explicitement sexualisées, parfois entièrement nus. Là où d’autres systèmes d’IA bloquent strictement ce type de demandes, l’outil développé par xAI a laissé passer ces requêtes. La réponse officielle évoque des « défaillances dans les garde-fous ». Une justification jugée bien légère au regard de la gravité des contenus produits.En France, la réaction a été rapide. Le parquet de Paris, par l’intermédiaire de sa section spécialisée dans la cybercriminalité, a ouvert une enquête pour diffusion d’images pédopornographiques. Cette procédure vient s’ajouter à d’autres dossiers déjà en cours visant X et Grok, notamment pour des dérapages de contenu signalés fin 2024. Mais le changement de nature est radical : ici, il n’est plus question d’opinions ou de désinformation, mais de protection de l’enfance. Un domaine où la tolérance des autorités est proche de zéro et où le statut de plateforme technologique n’offre que peu d’abris juridiques. Ce scandale met surtout en lumière les conséquences concrètes de la doctrine défendue par Elon Musk : une liberté d’expression quasi absolue, obtenue au prix du démantèlement des équipes de modération, d’éthique et de sécurité. En retirant ces garde-fous, xAI a laissé une IA puissante évoluer sans limites claires. Le résultat est aujourd’hui sous les yeux des enquêteurs.La situation est d’autant plus explosive en Malaisie. Le pays vient tout juste de signer un partenariat pour intégrer Grok comme outil éducatif dans les écoles publiques. À Kuala Lumpur, les autorités doivent désormais rassurer des parents stupéfaits : comment expliquer qu’un logiciel présenté comme un assistant scolaire puisse produire certains des contenus les plus illégaux du web ? L’affaire dépasse largement le cadre d’un incident technique. Elle prend désormais des allures de crise politique, judiciaire et de santé numérique, avec des répercussions internationales qui pourraient durablement fragiliser l’empire Musk.
  • Une start-up prédit vos émotions avant vous ?

    02:25|
    Une start-up française commence à se faire remarquer dans le paysage très concurrentiel de l’intelligence artificielle. Son nom : Emoticonnect. Sa promesse est ambitieuse : aller au-delà de l’analyse des données passées pour anticiper les réactions émotionnelles à venir. Autrement dit, ne plus seulement observer ce que pensent les individus, mais prévoir comment ces perceptions vont évoluer. À première vue, Emoticonnect rappelle deux références bien connues du secteur. Comme Palantir, elle structure et croise de vastes volumes de données. Comme Scale AI, elle sait industrialiser ces analyses à grande échelle. Mais la comparaison s’arrête là. La jeune pousse française ajoute une brique singulière : la prédiction émotionnelle.Soutenue par des travaux scientifiques menés notamment avec le CNRS, sa technologie analyse finement des émotions comme la peur, la colère, la confiance ou l’enthousiasme, mais surtout leur dynamique dans le temps. Il ne s’agit pas d’un simple thermomètre de l’opinion. L’IA détecte des signaux faibles, anticipe des basculements de perception et identifie des tensions avant qu’elles n’éclatent. Une approche prédictive, pensée pour aider à la décision plutôt que pour produire des constats a posteriori. Les applications sont déjà bien réelles. Dans les secteurs de la défense et de la sécurité, l’outil permet de repérer des menaces émergentes à partir de conversations en ligne. Les assureurs l’utilisent pour identifier des clients à risque avant une résiliation. Dans le divertissement et les médias, il sert à anticiper les sujets susceptibles de créer un engouement… ou une polémique. À chaque fois, l’objectif est le même : comprendre ce qui monte avant que cela ne devienne visible.Cette polyvalence a valu à Emoticonnect une reconnaissance européenne, avec l’obtention d’un label valorisant à la fois sa solidité scientifique et son potentiel stratégique. La start-up est également présente à l’Eureka Park, vitrine des innovations de rupture du Consumer Electronics Show. Son directeur technique, Nicolas Rochelemagne, résume l’enjeu : « Les organisations ne manquent pas de données, mais de capacité à en extraire du sens — et surtout à comprendre ce qui va se passer. » Dans un monde saturé d’opinions et de signaux numériques, Emoticonnect parie que l’avenir de l’IA se jouera moins sur la quantité d’informations que sur la capacité à en anticiper les effets.
  • L’IA réinvente la propulsion des fusées ?

    02:46|
    L’intelligence artificielle n’est plus cantonnée aux écrans ou aux centres de données. Elle s’invite désormais au cœur d’un domaine longtemps réservé aux équations et aux bancs d’essai : la propulsion spatiale. Des chercheurs et ingénieurs explorent comment l’IA, et plus précisément l’apprentissage automatique, peut transformer la manière dont nous concevons et pilotons les moteurs qui emmèneront les engins spatiaux vers Mars… et au-delà.Au cœur de cette révolution se trouve l’apprentissage par renforcement. Cette branche de l’IA apprend par l’expérience : elle teste, observe les résultats, ajuste sa stratégie, puis recommence. Un peu comme un joueur d’échecs qui affine son intuition après des milliers de parties. Mais à une vitesse et une échelle inaccessibles à l’esprit humain. Appliquée à l’espace, cette approche permet de résoudre des problèmes d’une complexité extrême, depuis le calcul de trajectoires optimales jusqu’à l’optimisation fine des moteurs.L’un des champs les plus prometteurs est celui de la propulsion nucléaire. Dès les années 1960, la NASA testait, avec le programme NERVA, des moteurs nucléaires thermiques capables de chauffer de l’hydrogène pour produire une poussée bien plus efficace que les fusées chimiques classiques. Cette technologie pourrait réduire drastiquement la durée d’un voyage vers Mars. Mais elle pose un défi colossal : transférer la chaleur du combustible nucléaire vers le propergol de la manière la plus efficace possible, sans compromettre la sécurité du réacteur. C’est précisément là que l’apprentissage par renforcement entre en jeu. En explorant des milliers de configurations – formes du combustible, matériaux, flux thermiques – l’IA identifie celles qui maximisent les performances. Une sorte de thermostat ultra-intelligent, chargé d’optimiser un moteur fonctionnant à des températures extrêmes.La fusion nucléaire constitue une autre frontière. Des dispositifs expérimentaux, comme les tokamaks, montrent le potentiel de cette énergie, mais restent trop volumineux pour un usage spatial. Les chercheurs étudient donc des concepts compacts, tels que les polywells, où le confinement du plasma repose sur des champs magnétiques d’une précision redoutable. Là encore, l’IA aide à stabiliser ces systèmes instables par nature. Enfin, l’IA pourrait jouer un rôle clé une fois le vaisseau en vol : gestion du carburant, adaptation aux imprévus, priorisation des missions. Des plateformes polyvalentes, comme le satellite Lockheed Martin LM400, illustrent déjà cette tendance à la flexibilité.En somme, l’intelligence artificielle ne se contente plus d’assister les ingénieurs : elle devient un véritable copilote de l’exploration spatiale, capable de repousser les limites de notre intuition et d’ouvrir la voie à de nouveaux horizons cosmiques.
  • La Chine teste des robots à la frontière vietnamienne ?

    02:22|
    À la frontière sud de la Chine, la ville de Fangchenggang concentre chaque jour un trafic intense de camions, d’autocars et de voyageurs. Proche du Vietnam, ce poste-frontière est stratégique, mais saturé. Les contrôles ralentissent le passage des personnes et des marchandises, et les autorités peinent à absorber les pics d’affluence. Pékin a donc décidé de tester une solution radicale : confier une partie de la gestion du site à des robots humanoïdes.Les machines déployées sont les Walker S2, conçues par Ubtech Robotics. De taille humaine, capables de marcher, d’interagir avec leur environnement et d’exécuter des tâches simples grâce à une intelligence artificielle embarquée, ces robots doivent épauler les douaniers. Le contrat, estimé à 37 millions d’euros, est déjà en cours d’exécution, même si le nombre exact d’unités livrées n’a pas été rendu public. Concrètement, les Walker S2 ne remplaceront pas les agents. Leur rôle est d’absorber les tâches répétitives : orienter les voyageurs, gérer les files d’attente, répondre aux questions basiques, donner des consignes ou patrouiller dans les zones de transit. D’autres robots sont affectés aux espaces de fret, où ils assistent à l’inspection des conteneurs et transmettent des informations aux centres de supervision. L’objectif est clair : fluidifier le trafic et permettre aux agents humains de se concentrer sur les contrôles sensibles.Pour Ubtech, l’enjeu est considérable. Un poste-frontière est l’un des environnements publics les plus exigeants : flux continus, stress, impératifs de sécurité. Si l’expérience est jugée concluante, les autorités chinoises pourraient étendre l’usage de ces robots à d’autres infrastructures critiques, comme les aéroports, les gares ou les ports. La frontière de Fangchenggang sert ainsi de laboratoire grandeur nature. Mais le pari est loin d’être gagné. L’acceptation par le public reste incertaine : être orienté, observé ou interpellé par une machine peut susciter malaise ou méfiance. Côté administration, des questions persistent sur la formation des agents, la chaîne de décision et la responsabilité en cas d’erreur. Un incident pourrait freiner durablement l’introduction des robots humanoïdes dans l’espace public. À l’inverse, un succès ferait de Fangchenggang le symbole d’une nouvelle étape dans l’automatisation des services de sécurité.