L'IA aujourd'hui épisode du 2025-10-10
L'IA aujourd'hui ! - A podcast by Michel Levy Provençal
Categorie:
Bonjour et bienvenue dans le podcast de l'IA par l’IA qui vous permet de rester à la page !Aujourd’hui : usages malveillants de l’IA, performances des SOC avec agents IA, sécurité cloud et IA, droits d’auteur des images générées, modèles Annif pour l’indexation, nouveautés Google et Bing, Gemma pour le web, et partenariat IBM–Anthropic.OpenAI publie un rapport daté du 7 octobre 2025 sur des usages suspects de ses modèles par des utilisateurs liés au gouvernement chinois. Parmi les requêtes signalées : concevoir un outil pour croiser fichiers de police et réservations de transport afin de suivre les déplacements d’Ouïghours et d’autres personnes jugées “à risque”, ou encore rédiger des supports promotionnels pour analyser Twitter, Facebook, Reddit, TikTok et YouTube à la recherche de discours “extrémistes” ou “sensibles”. OpenAI indique que ces comptes, probablement derrière des VPN, ont été bannis, sans pouvoir confirmer l’implication directe d’agents d’État. L’IA n’aurait pas servi à coder des logiciels de surveillance mais à conceptualiser et à produire des documents. Le rapport mentionne aussi des activités en Russie et en Corée du Nord, incluant des scripts malveillants et du phishing ciblant des entités sud-coréennes. OpenAI réaffirme travailler à empêcher l’exploitation de ses modèles par des régimes autoritaires.Cap sur la cybersécurité avec une étude de la Cloud Security Alliance évaluant l’agent SOC autonome de Dropzone AI. 148 professionnels ont mené deux scénarios d’enquête: une alerte d’accès non autorisé à un bucket AWS S3 et une alerte de connexions échouées Microsoft Entra évoquant du bourrage d’identifiants. Par rapport à un groupe contrôle sur GuardDuty et Microsoft Sentinel, l’assistance IA a réduit les temps de 45 % sur le premier scénario et 61 % sur le second, avec des précisions de 97 % contre 86 %, puis 85 % contre 81 %. L’exhaustivité mesurée sur sept étapes recule de 29 % chez les manuels, contre 16 % avec IA; la longueur des rapports baisse de 20 à 27 % côté manuel, alors que les utilisateurs IA maintiennent ou augmentent le détail. Pas de confiance excessive: 3,6–3,7/4 dans les deux groupes, difficulté 2,4–2,6. 94 % ressortent plus positifs vis-à-vis de l’IA, note de recommandation 8,7/10, NPS 53; “Efficace”, “Utile”, “Économiseur de temps” et “Intuitif” dominent.Tenable alerte sur un décalage entre adoption de l’IA et sécurité. 34 % des organisations déclarent déjà des violations liées à l’IA; en moyenne, 2,17 incidents cloud en 18 mois, mais seulement 8 % jugés “graves”. Les causes restent classiques: services cloud mal configurés (33 %), permissions excessives (31 %), vulnérabilités exploitées (21 %), menaces internes (18 %), paramètres mal réglés (16 %). Les dirigeants privilégieraient des indicateurs réactifs et surestimeraient la sécurité des plateformes, tout en négligeant l’évaluation unifiée des risques (20 %) et la consolidation d’outils (13 %). Le rapport appelle à une réinitialisation stratégique plutôt qu’à une simple veille sur des “menaces futuristes”.Sur la propriété intellectuelle des images générées, le cadre européen retient l’originalité et une intervention humaine notable. Les images purement automatiques sont rarement protégeables; les plateformes fixent souvent les règles: OpenAI laisse les droits de sortie à l’utilisateur, Midjourney accorde une licence non exclusive. Une retouche substantielle peut ouvrir une protection, mais l’usage d’éléments préexistants requiert autorisation. Pour le commercial, privilégiez des licences claires, évitez les outils gratuits sans CGU, et vérifiez l’originalité via recherche inversée. En France, publier des photos de personnes sans consentement est sanctionné; documenter son processus et consulter un expert reste prudent, alors qu’un projet de loi de 2023 sur la rémunération des auteurs des données d’entraînement demeure débattu.Côté organisation des contenus, Hugging Face propose des modèles Annif pour la classification par sujets via Finto AI. On y trouve NatLibFi/FintoAI-data-YSO basé sur l’ontologie YSO, NatLibFi/FintoAI-data-YKL pour les bibliothèques finlandaises, et NatLibFi/FintoAI-data-KAUNO, orienté fiction et régulièrement mis à jour. S’ajoutent NatLibFi/HogwartsSortingHat-fastText et un dépôt Annif-tutorial avec vidéos et exercices pour une prise en main opérationnelle.Dans les services web, Google teste des aperçus IA plus riches pour les recettes afin d’aider les éditeurs et potentiellement doper le trafic. Le Merchant Center accueille une promotion via Google Wallet, pendant que Bing signale désormais l’usage de l’historique de recherche pour personnaliser les résultats. À noter: la publication de ces infos a été programmée, leur auteur étant hors ligne pour Sukkot.Côté modèles ouverts, Gemma affiche plus de 250 millions de téléchargements et 85 000 variantes. Gemma 3 270M se peaufine vite, par exemple pour traduire du texte en émojis: fine-tuning avec QLoRA sur GPU T4 dans Colab, puis quantification et conversion via LiteRT/MediaPipe ou ONNX/Transformers.js. L’exécution côté client exploite WebGPU, avec latence réduite, confidentialité et mode hors ligne, et un déploiement possible sur Hugging Face Spaces.Enfin, IBM voit son titre progresser après un partenariat stratégique avec Anthropic et l’annonce de mises à jour produits. Objectif: intégrer des capacités d’IA fiables dans l’offre IBM, avec des retombées attendues sur l’efficacité et l’expérience utilisateur dans plusieurs secteurs.Voilà qui conclut notre épisode d’aujourd’hui. Merci de nous avoir rejoints, et n’oubliez pas de vous abonner pour ne manquer aucune de nos discussions passionnantes. À très bientôt dans L'IA Aujourd’hui ! Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
