L'IA aujourd'hui épisode du 2025-10-06

L'IA aujourd'hui ! - Un pódcast de Michel Levy Provençal

Podcast artwork

Categorías:

Bonjour et bienvenue dans le podcast de l'IA par l’IA qui vous permet de rester à la page !Aujourd’hui : données réelles pour mieux entraîner l’IA, IA et organisation du travail, outils de détection à l’école, productivité contestée, droits d’auteur et licences, protocole MCP, nouvelles compétences à enseigner, et régulation en Californie.JetBrains propose d’améliorer ses modèles grâce à des données issues d’usages réels dans ses IDE. Objectif: réduire erreurs et hallucinations dans des bases de code complexes. Mellum, son modèle de complétion, est open source et disponible sur Hugging Face et Amazon Bedrock. La télémétrie anonyme sert à mesurer l’usage; les données liées au code, si partagées, servent à l’analyse produit, l’évaluation et l’entraînement, sans partage à des tiers. Le consentement est réversible. Pour l’éducation, les loisirs et l’open source, le partage sera activé par défaut mais désactivable; en entreprise, seul un administrateur peut l’autoriser. Un nombre limité d’entreprises prêtes à partager des données pourra obtenir des licences All Products Pack gratuites. Les nouveautés arrivent avec la version 2025.2.4 et les paramètres se trouvent dans Paramètres | Apparence et comportement | Paramètres système | Partage de données.Changement d’angle avec la notion de “taylorisme augmenté” décrite par Juan Sebastian Carbonell: l’IA intensifie le travail, déqualifie et renforce la surveillance. Dans la logistique, les salariés exécutent des instructions de machines; chez les artistes ou journalistes, les tâches se standardisent, au bénéfice du contrôle managérial. La division du travail sert aussi des objectifs politiques de pouvoir. La responsabilité se dilue via la sous-traitance technique, rendant la contestation plus complexe. Carbonell appelle à une résistance collective pour reprendre la main sur l’organisation du travail.Même tonalité chez Hagen Blix, co-auteur de “Why We Fear AI”, qui voit l’IA comme outil de dépression salariale plutôt que d’automatisation totale. Les promesses d’efficacité masquent la déqualification: transformer des profils qualifiés en main-d’œuvre moins payée. Exemple des traductions: la diffusion de versions moins qualitatives mais bon marché pousse les professionnels vers la précarité. La “prolétarisation” gagne des métiers comme le design. Blix souligne l’importance d’une organisation collective, citant la mobilisation des scénaristes et acteurs, et plaide pour des technologies qui redonnent prise et sens au travail.Dans l’éducation, cinq détecteurs de contenus IA servent de thermomètres, pas de juges. Winston AI analyse textes et images, y compris des deepfakes, avec interface en français et vérification de plagiat. AIDetector gère textes et images et propose un “humanizer”, à ne pas encourager pédagogiquement. Originality combine détection IA et plagiat, utile pour rapports publics. Merlin est gratuit et sans inscription, pratique comme premier filtre, compatible GPT-4o et Claude 3.5. Quillbot offre un détecteur gratuit jusqu’à 1 200 mots et signale la part “AI-refined”.Côté productivité, une étude Stanford–Harvard Business Review auprès de 1 150 travailleurs décrit le “workslop”: du contenu qui a l’air correct mais n’avance pas le travail, augmentant le temps de correction. Le même jour, une analyse du Financial Times sur des centaines de rapports et de réunions d’actionnaires du S&P 500 note que les entreprises peinent à préciser les gains concrets de l’IA, alors qu’elles détaillent aisément les risques; la “peur de manquer” domine.Sur le front juridique, un accord de 1,5 milliard de dollars avec des auteurs pour violation de droits d’auteur ouvre la voie à des marchés de licences de données d’entraînement. L’accord reconnaît une compensation de 3 000 dollars par œuvre, pose un repère pour d’autres dossiers touchant Meta, OpenAI ou Microsoft et encourage des cadres de consentement. L’enjeu est de transformer styles, œuvres et données biométriques en actifs licenciables, à l’image de l’évolution de la musique vers des modèles de rémunération.Pour les bâtisseurs d’agents, le Model Context Protocol (MCP) normalise l’accès des modèles à des systèmes externes via un schéma client-serveur et des concepts d’invites, ressources et outils. Un tutoriel montre comment créer un serveur MCP en Python interrogeant une base e-commerce simulée et l’intégrer dans Cursor pour observer des appels d’outils en conditions réelles.Dans l’enseignement supérieur, Brett Whysel recommande de déplacer l’effort: moins de temps sur des compétences facilement automatisables comme le codage de base, plus sur les capacités spécifiquement humaines et les compétences IA. Il propose des portfolios, témoignages de pairs, introspection, journaux de bord et jeux de rôle pour évaluer pensée critique, créativité, empathie et collaboration, là où les notes chiffrées montrent leurs limites.Enfin, la Californie adopte la loi SB 53, “Transparency in Frontier Artificial Intelligence Act”, signée le 29 septembre 2025. Destinée aux développeurs de systèmes d’IA de grande capacité, elle impose transparence, rapports et gestion des risques, protège les lanceurs d’alerte et prévoit des signalements anonymes. Les amendes peuvent atteindre 1 million de dollars par infraction, sous l’autorité du procureur général. La loi crée aussi un consortium chargé de CalCompute, un cluster public pour soutenir une IA sûre et équitable, avec un rapport attendu d’ici le 1er janvier 2027. Les petits projets ne sont pas ciblés, mais les grands acteurs doivent structurer la conformité et la réponse aux incidents.Voilà qui conclut notre épisode d’aujourd’hui. Merci de nous avoir rejoints, et n’oubliez pas de vous abonner pour ne manquer aucune de nos discussions passionnantes. À très bientôt dans L'IA Aujourd’hui ! Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

Visit the podcast's native language site