L'IA aujourd'hui épisode du 2025-09-19
L'IA aujourd'hui ! - A podcast by Michel Levy Provençal
Categorie:
Bonjour et bienvenue dans le podcast de l'IA par l’IA qui vous permet de rester à la page !Aujourd’hui : l’art sous pression face aux générateurs d’images, la fintech dans le cloud, la prolifération de contenus bas de gamme, la protection des mineurs, la recherche Google en test, un rappel clair sur les LLMs, l’explication des “hallucinations”, et un nouveau Codex pour coder.D’abord, le monde des arts visuels. Depuis le boom lancé fin 2022, des systèmes comme Midjourney ou ceux d’OpenAI et Google produisent des images à bas coût jugées “suffisamment bonnes” pour des usages internes. Résultat : contrats en baisse, salaires tirés vers le bas, et conditions dégradées. Témoignages à l’appui, des designers de costumes sont remplacés par des générateurs sortant des tenues irréalisables, des illustrateurs voient leurs commandes s’évaporer au profit d’images fabriquées parfois à partir de leur propre style. La colère porte aussi sur l’entraînement des modèles sans consentement. Certains envisagent de quitter le secteur, d’autres se tournent vers l’art traditionnel ou la BD, avec des revenus moindres.Cap sur la finance. Revolut s’appuie sur Google Cloud pour passer de 60 à plus de 100 millions d’utilisateurs. La néo-banque utilise Compute Engine pour déployer des VM en parallèle, l’IaC via les API Google pour automatiser l’infrastructure, et Cloud IAM pour la gestion des accès. Siège d’Europe de l’Ouest continentale à Paris, et extension du partenariat avec l’usage des modèles Gemini pour la détection de fraude et des offres client sur mesure. Nouveaux produits lancés : distributeurs automatiques en Europe, épargne et investissement, forfaits mobiles en Allemagne et au Royaume-Uni. Le mouvement cloud touche aussi Unicredit (accord de 10 ans), Santander (core banking sur cloud privé avec Google), Deutsche Bank et Commerzbank.Sur le web, des sites publient à la chaîne du texte généré par IA. Exemple signalé : “cookingflavr”, qui sort des dizaines d’articles quotidiens. Un “effet Baltimore Orioles” apparaît quand le modèle mélange l’équipe de baseball et l’oiseau friand de gelée de raisin. L’outil GPTrueOrFalse estime à 0,02 % la probabilité que ces textes soient humains. Exemples marquants : erreurs sur le violon Hardanger, le Lur norvégien pris pour un ver plat, conseils confus mêlant pointeurs laser et chirurgie oculaire, affirmation que les rhinocéros sont “savoureux”, et infos erronées sur la détection de fuites de gaz. Nuisible pour la recherche d’info, potentiellement dangereux si des extraits automatiques amplifient ces réponses.Justement, la protection des jeunes revient au premier plan. OpenAI durcit l’accès des mineurs: blocage des échanges à caractère sexuel, garde-fous renforcés sur le suicide avec possibilité d’alerte aux parents ou aux autorités en cas de danger immédiat, et nouveaux contrôles parentaux avec “blackout hours”. L’identification des moins de 18 ans reste difficile : un système de prédiction d’âge et la vérification d’identité sont évoqués ; l’association du compte à celui d’un parent est privilégiée. Cette annonce fait suite au cas d’Adam Raine, adolescent dont les parents poursuivent OpenAI, et intervient dans un contexte d’auditions au Sénat américain et d’une enquête de la FTC visant sept entreprises. Character.AI fait aussi face à des poursuites dans un dossier distinct.Côté moteurs, Google teste des résumés IA en tête des résultats. Un bug récent a provoqué une surcharge de publicités. Google introduit un processus de vérification vidéo pour Merchant Center et envisage la fin des questions-réponses locales et de son API. Google Discover expérimente un flux limité aux comptes suivis. En parallèle, OpenAI améliore la recherche intégrée à ChatGPT, avec un accent sur la factualité, le shopping et le formatage.Petit rappel de contexte technique : un LLM est un modèle entraîné sur du texte, polyvalent, qui peut comprendre, générer, résumer, traduire et reformater. Contrairement aux anciens modèles NLP spécialisés, il sert de solveur généraliste, capable par exemple de transformer une description de poste en CV personnalisé ou d’assister un développeur comme le fait Copilot.Sur la fiabilité, OpenAI publie une analyse des “hallucinations”. Même avec des données parfaites, la prédiction mot à mot induit des erreurs qui s’accumulent : le taux d’erreur pour une phrase est au moins deux fois supérieur à celui d’une question oui/non. Plus un fait est rare dans l’entraînement, plus l’erreur est probable ; si 20 % d’anniversaires n’apparaissent qu’une fois, au moins 20 % des requêtes associées seront fausses. Les évaluations pénalisent l’incertitude, poussant les modèles à “deviner”. Piste proposée : calibrer la confiance et l’évaluer, au prix de coûts de calcul et de délais accrus.On termine avec GPT-5 Codex, variante orientée “codage agentique”. Le modèle exécute des tâches longues, corrige des bugs avant déploiement, refactorise du code et s’intègre au cloud, à l’IDE, au terminal, à GitHub et à ChatGPT. Son interface Codex CLI lit, réécrit et exécute localement, reliée au compte ChatGPT. Tests parlants : un jeu de tir spatial 2D jouable avec collisions et score ; un tableau de bord de suivi des calories et du sommeil en HTML/CSS/JS avec Chart.js et résumé hebdomadaire ; et un workflow d’analyse de sentiment de l’ingestion à la visualisation des prédictions.Voilà qui conclut notre épisode d’aujourd’hui. Merci de nous avoir rejoints, et n’oubliez pas de vous abonner pour ne manquer aucune de nos discussions passionnantes. À très bientôt dans L'IA Aujourd’hui ! Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
