Speaker #0Bienvenue dans DeepMedia, le podcast qui décrypte les médias à l'ère du numérique. Je suis Julien Bougeot, consultant en social media, IA générative et formateur depuis plusieurs années. Mais avant tout, je suis un passionné et curieux de l'univers médiatique depuis plus de 15 ans. Dans un écosystème en perpétuelle transformation, comment les médias s'adaptent-ils ? Comment se réinventer face aux nouvelles technologies et aux géants du numérique ? Quel avenir pour l'information et ceux qui la produisent ? Si ces questions vous intriguent, alors vous êtes au bon endroit. DeepMedia, c'est un temps de réflexion et d'échange avec celles et ceux qui façonnent l'avenir du secteur. DeepMedia la capsule épisode 13, c'est parti ! Aujourd'hui pas d'invité mais un sujet que je vous propose de mettre en perspective en quelques minutes. La période actuelle est assez fascinante dans le monde de l'IA générative appliquée aux médias puisque nous sommes clairement à la croisée des chemins. Ce moment précis où pendant que la justice européenne freine, l'IA vidéo elle met le pied au plancher. D'un côté vous avez cette décision historique du tribunal régional de Munich mi-novembre. OpenAI est condamné et le juge dit clairement qu'entraîner une IA sur des œuvres protégées sans autorisation, c'est de la contrefaçon. L'exception de texte and data mining est balayée. On n'est plus dans l'analyse statistique, on est dans une reproduction durable des œuvres dans le modèle lui-même au détriment des intérêts économiques des auteurs et autrices. Le message adressé par cette décision est double. Tout d'abord, non, vous ne pouvez pas avaler le patrimoine culturel mondial en douce sous prétexte d'innovation. Ensuite, oui, la responsabilité repose sur l'opérateur d'IA, pas sur l'utilisateur final qui tape sa petite requête sur son chatbot ou son outil d'IA générative. Ce sont des décisions fortes qui singularisent une fois encore plus clairement l'Europe dans le domaine de la régulation. Et pendant que les juges rappellent que le droit d'auteur existe encore, l'industrie, elle, avance à toute vitesse et n'est pas franchement en mode pause. Parce qu'en face, ces dernières semaines sont arrivées Sora 2 chez OpenAI et VO3 3.1 chez Google. En quelques mots, rappelons de quoi s'agit-il. Sora 2, c'est un modèle de génération vidéo avec réalisme physique poussé, contrôle précis des scènes et audio synchronisé. L'idée, produire des plans de qualité quasi cinématographique, multishot avec dialogue et bruitage généré nativement. VO3, côté Google, c'est la même promesse. Des vidéos 1080p, hyper réalistes, 8 secondes avec du son, des effets, des ambiances, tout ça c'est accessible via Gemini ou les plateformes partenaires. En gros... En quelques lignes de texte, vous générez aujourd'hui un plan publicitaire, un faux travel vlog, un clip de cinéma d'animation, une séquence d'émission de TV, etc. avec une qualité qui commence à devenir difficile à distinguer du réel. Or ces modèles ultra spectaculaires n'existent pas dans le vide. Ils sont entraînés sur des masses gigantesques d'images, de vidéos, de sons. Officiellement des données mixtes, issues d'internet et de partenaires. Officieusement, la question que tout le monde se pose est simple. Jusqu'où ces datasets débordent-ils sur des œuvres protégées ? Et si Munich considère déjà que la mémoire d'un modèle constitue une reproduction, comment on articule ça avec Sora 2 et VO3 ? Ajoutez à ça un autre mouvement, la fin du tout gratuit. Ces outils, Sora 2 comme les offres Gemini boostées par VO3, se referment derrière des plans payants avec des quotas de génération de plus en plus serrés pour le grand public. L'argument ? Les GPU fondent, il faut bien les monétiser. Résultat, on a une situation tout à fait paradoxale. D'un côté, la justice dit, vous devez respecter les auteurs, négociés, rémunérés, tracés. De l'autre, les champions de l'IA vidéo sortent des modèles toujours plus puissants, de plus en plus intégrés dans des workflows pro et de moins en moins accessibles sans abonnement. A rebours de la décision de Munich, Sora 2 et VO3 incarnent une course à l'échelle. Plus de réalisme, plus de contrôle, plus de cas d'usage, mais toujours sur un terrain juridique qui reste flou pour celles et ceux dont les œuvres ont nourri ces machines. Pour s'en convaincre, souvenons-nous que Sora 2 saute par-dessus le droit d'auteur ... en intégrant et revendiquant l'intégration de facto de contenu copyrighté. Cela paraît paradoxal, mais c'est au détenteur de droit de contacter OpenAI et faire valoir le retrait de ses œuvres de Sora via un opt-out. Lunaire en termes de conception du droit d'auteur et de protection des artistes. La vraie question pour les médias, producteurs, créateurs, c'est peut-être celle-ci. Sommes-nous en train de construire une nouvelle économie de l'image ou de laisser se constituer un gigantesque Netflix de l'IA bâti sur des catalogues que personne n'a vraiment autorisés ? Si Munich marque un tournant, ce n'est pas seulement pour les juristes. C'est un signal stratégique. Demain, un modèle vidéo qui ne pourra pas prouver la licécité de ses données d'entraînement sera-t-il encore exploitable par une grande chaîne, une plateforme ou alors un studio en Europe ? Je vous remercie d'avoir écouté cette 13e capsule de DeepMedia. N'hésitez pas à réagir à ce sujet en commentaire. DeepMedia, c'est désormais une newsletter mensuelle pour poursuivre l'exploration, dont je vous mets le lien d'inscription en description de cet épisode, ainsi qu'un tout nouveau chatbot de veille IA et Média appelé IA Media Lab. Il est gratuit et vous permet de rester au contact de tous les derniers projets menés en la matière. Je vous mets également le lien pour vous inscrire en commentaire d'épisode. On se retrouve très bientôt pour un nouvel entretien avec celles et ceux qui font l'avenir des médias. En attendant, n'oubliez pas de vous abonner et de déposer des commentaires adéquats sur toutes les plateformes de podcast. A très bientôt !