L'IA aujourd'hui épisode du 2025-12-09

L'IA aujourd'hui ! - A podcast by Michel Levy Provençal

Podcast artwork

Categories:

Bonjour et bienvenue dans le podcast de l'IA par l’IA qui vous permet de rester à la page !Aujourd’hui : images générées en éducation, secousses chez Google Search et Mode IA, failles des assistants de code, polémique Target dans ChatGPT, filigrane SynthID, influence politique des chatbots, et un mini‑appareil IA à 17 dollars.D’abord, Universcience et sa plateforme Ada, conçue pour aider les enseignants à bâtir des cours à partir d’une vaste base de contenus scientifiques. Polémique: des illustrations générées par IA, censées enrichir les supports, ont mêlé évolution des espèces et… voitures. L’illustratrice Florence Dellerie alerte sur le risque de confusion pour les élèves. Ada fonctionne surtout comme un portail de création de cours: on assemble des présentations, on adapte des supports existants. L’affaire relance la question d’une supervision humaine pour vérifier la pertinence et l’exactitude des visuels.Cap sur la recherche en ligne: semaine agitée pour Google avec une volatilité persistante du classement. Google intègre désormais le Mode IA directement dans les aperçus IA, la barre de recherche d’accueil gagne une option de téléchargement pour y accéder, et Discover comme l’application mobile redirigent davantage vers le Mode IA, au détriment des pages web. Gemini 3 et Nano Banana Pro arrivent en Mode IA dans plus de pays. Google teste des liens en ligne au survol. Côté Search Console: un outil de configuration de rapports dopé à l’IA est en test dans le rapport de performance, et des dates “actuelles” rejoignent les annotations. Des documents API indiquent que les zones de service ne seraient pas un facteur du classement local. Google a brièvement ajouté puis retiré un fichier LLMs.txt de sa doc développeurs. À noter aussi: publication du rapport Webmaster de décembre 2025, déploiement partiel d’un rapport de canal Google Ads avec données de partenaires de recherche pour PMax, possible retour de l’optimiseur de site web, tandis que Microsoft Advertising introduit des refus au niveau des actifs et accélère les rapports de conversion. Et un anniversaire: 22 ans de couverture de l’industrie de la recherche.Dans les environnements de développement, des chercheurs ont mis au jour plus de 30 vulnérabilités dans des outils de codage IA intégrés aux IDE. Des extensions liées à GitHub Copilot, Amazon Q ou Replit AI présentent des failles de traversée de chemin, fuite d’informations et injection de commandes, pouvant aller jusqu’à l’exécution de commandes arbitraires. Le risque est accentué par les privilèges élevés de ces outils: accès fichiers, réseau, voire ressources cloud. Un cas marquant: un agent de service client IA dans une fintech du Fortune 500 a divulgué des données de comptes pendant des semaines, détecté seulement lors d’un audit. Recommandations: sandboxing strict, audit régulier du code généré, considérer les sorties IA comme non fiables par défaut, et recourir à des détecteurs automatiques de vulnérabilités.Autre sujet sensible: des abonnés ChatGPT ont vu un message “Achetez pour la maison et les courses. Connectez Target”, perçu comme une publicité. OpenAI dément tout test publicitaire “en direct”. Pour Nick Turley, les captures “ne sont soit pas réelles, soit ne sont pas des publicités”. Mark Chen reconnaît que l’interface pouvait y ressembler, annonce la désactivation de la fonctionnalité, et promet des réglages pour réduire ou couper ces suggestions. Contexte: environ 95 % d’utilisateurs sur la version gratuite, pression pour monétiser, nouveaux agents de recherche d’achats qui exploitent la mémoire pour personnaliser, et pistes internes sur une mémoire utilisée pour du ciblage. En parallèle, Sam Altman avait mis en garde contre un assistant prescripteur et plaidé pour un modèle payant clair. Le débat porte désormais sur ce qui constitue, ou non, de la publicité dans un agent conversationnel.Transparence des contenus: Google pousse SynthID, un filigrane invisible inséré dans les médias générés ou modifiés par ses outils (comme Gemini). Il est lisible par les systèmes de Google, mais fonctionne “avec confiance” surtout pour du contenu issu d’outils Google; difficile donc de certifier ce qui vient de modèles externes comme ChatGPT ou Grok. Google collabore avec d’autres acteurs pour élargir l’adoption. Côté détection, les tests montrent des performances solides sur l’image et la vidéo: vidéos IA reconnues avec justification, images Gemini confirmées (parfois avec un filigrane visible) mais avec un délai; images non IA identifiées comme humaines, sans certitude absolue sans filigrane; contenus hybrides repérés dans leurs parties modifiées. En texte, la détection reste limitée. L’effort continue pour renforcer traçabilité et confiance.Sur le terrain politique, plusieurs études menées avant des élections aux États‑Unis, au Royaume‑Uni et en Pologne montrent que des conversations avec des chatbots peuvent déplacer des préférences de vote jusqu’à 10 points de pourcentage. La persuasion provient surtout d’une forte densité de “faits”, pas toujours exacts. Les modèles pro‑droite ont produit davantage d’assertions fausses; dans les configurations extrêmes, 30 % des déclarations étaient erronées. Des chercheurs saluent la puissance de l’information dense, tout en notant que plus la persuasion augmente, plus la précision baisse. Et changer une préférence ne signifie pas forcément changer de bulletin. Les travaux ont été publiés dans Science et Nature.Pour finir, un objet: l’AI Pilot, petit appareil autonome à 17 dollars. Il fonctionne sans smartphone, embarque haut‑parleurs et petit écran, des voix IA personnalisables, du clonage vocal et l’accès à plusieurs modèles. Installation simple, connectivité stable; un abonnement déverrouille des capacités avancées et un clonage plus poussé. Multilingue, portable, pensé pour l’usage personnel ou pro, il sert de compagnon IA dédié sans perturber le téléphone.Voilà qui conclut notre épisode d’aujourd’hui. Merci de nous avoir rejoints, et n’oubliez pas de vous abonner pour ne manquer aucune de nos discussions passionnantes. À très bientôt dans L'IA Aujourd’hui ! Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

Visit the podcast's native language site