- Speaker #0
Bienvenue dans DeepMedia, le podcast qui décrypte les médias à l'heure du numérique. Je suis Julien Bougeot, consultant social media et IA générative, mais avant tout passionné et curieux de l'univers média depuis plus de 15 ans. Dans un écosystème en perpétuelle transformation, comment les médias s'adaptent-ils ? Comment se réinventer face aux nouvelles technologies et aux géants du numérique ? Quel avenir pour l'information et ceux qui la produisent ? Si ces questions vous intriguent, alors vous êtes au bon endroit. DeepMedia, c'est un temps de réflexion et d'échange avec celles et ceux qui façonnent l'avenir du secteur. Aujourd'hui, je vous présente un épisode spécial consacré à une expérience troublante récemment réalisée par François Cardinal, éditeur adjoint et vice-président de l'information du journal québécois La Presse. Et si l'intelligence artificielle était en train de scier la branche sur laquelle elle repose ? A travers une expérience troublante, François Cardinal met en lumière une réalité dérangeante. Des IA capables d'exploiter les contenus des médias sans rien leur rendre. Derrière la promesse technologique, c'est tout un modèle économique qui vacille. Jusqu'où peut aller cette dépendance silencieuse ? Et que se passera-t-il quand les sources viendront à disparaître ? Afin de vous proposer une version synthétique de l'expérience, je vous propose un résumé généré grâce à la fonctionnalité Résumé Audio de Google Notebook LM. A présent, je vous laisse découvrir cet épisode et je passe la parole à mes deux co-AI, Nymateur. Bonne écoute !
- Speaker #1
Imaginons un instant la construction de la forteresse la plus sécurisée au monde.
- Speaker #2
Ouais, le genre de truc avec des murs en béton armés de 3 mètres d'épaisseur.
- Speaker #1
Exactement ! On y ajoute des caméras thermiques, des détecteurs de mouvements au laser qui quadrillent vraiment chaque couloir. La totale, quoi.
- Speaker #2
D'accord, je vois bien l'image. Et à l'intérieur, on imagine qu'on y place les documents les plus précieux.
- Speaker #1
C'est ça, le fruit de mois de travail acharné. On ferme la porte blindée, on verrouille le tout avec des codes ultra cryptés. L'illusion de sécurité est absolue.
- Speaker #2
Sauf que j'imagine qu'il y a un hic ?
- Speaker #1
Bah oui, parce que le lendemain matin, on découvre que le voleur n'a jamais touché au mur. Il n'a pas forcé la moindre serrure et il n'a déclenché aucune alarme en fait.
- Speaker #2
Ah ouais ? Mais comment il a fait alors ?
- Speaker #1
Il s'est simplement assis au café d'en face, il a écouté les gardiens discuter pendant leur poste cigarette, il a analysé les reçus jetés dans la poubelle à l'extérieur.
- Speaker #2
Ah, malin !
- Speaker #1
Il a même regardé les reflets des écrans dans les vitres des bâtiments voisins et avec tous ces petits fragments épargts, il a reconstitué mot pour mot le contenu des documents ultra secrets.
- Speaker #2
C'est fou. Et le pire, je parie, c'est que c'est parfaitement légal selon lui.
- Speaker #1
C'est encore pire que ça. Quand on l'interroge, il s'en vante avec un grand sourire.
- Speaker #2
Cette métaphore, elle illustre avec une précision vraiment troublante la réalité technologique dans laquelle l'industrie de l'information vient de basculer.
- Speaker #1
Ouais, c'est le point de départ de notre plongée en profondeur d'aujourd'hui.
- Speaker #2
Tout à fait, parce que les barrières physiques ou numériques traditionnelles, elles perdent toute leur utilité si l'information sensible peut être déduite ou reconstruite à partir de simples échos.
- Speaker #1
Et c'est précisément cette situation surréaliste qui se dégage de la source qu'on analyse aujourd'hui. C'est une chronique fascinante de François Cardinal.
- Speaker #2
Le vice-président d'information et éditeur adjoint de la presse, c'est bien ça ?
- Speaker #1
C'est ça. Et ce qui est captivant, c'est que ce n'est pas un essai théorique ennuyeux. C'est la transcription d'une conversation hyper franche et super directe entre lui et l'intelligence artificielle Gemini.
- Speaker #2
C'est une source en or pour notre exploration. Notre mission aujourd'hui, c'est vraiment de dégager les réflexions structurantes pour les médias de demain à partir de cet échange précis.
- Speaker #1
Exactement. On va décortiquer. comment l'IA redéfinit complètement les règles du jeu. Pas seulement sur le plan technique, mais aussi sur le plan économique et démocratique.
- Speaker #2
Et ce qui est intéressant avec cette source, c'est vraiment la posture de la machine. On a affaire à un diagnostic en temps réel d'une industrie qui est à la croisée des chemins.
- Speaker #1
Un diagnostic formulé par le système même qui menace cette industrie, c'est quand même ironique.
- Speaker #2
Absolument. L'IA, dans cet échange, confesse ses propres limites, ses mécanismes de contournement. Elle admet même la nature destructrice de son modèle pour les créateurs de contenu.
- Speaker #1
C'est une fenêtre super rare sur la mécanique interne du bouleversement qu'on vit en ce moment. Et l'anecdote de départ, elle est d'une ironie assez mordante en fait.
- Speaker #2
Raconte-nous un peu le contexte.
- Speaker #1
François Cardinal prépare une conférence pour la Bibliothèque et Archives Nationales du Québec. Le sujet, c'est la souveraineté numérique et les droits d'auteur à l'ère de l'IA.
- Speaker #2
Le sujet brûlant par excellence.
- Speaker #1
Ouais. Et pour s'échauffer, il décide de tester l'outil directement. Il ouvre Gemini et lui pose une question toute bête, genre « Quelles sont les nouvelles du jour de la presse.fr ? »
- Speaker #2
Et la machine lui répond quoi ?
- Speaker #1
Elle répond avec une précision chirurgicale. Elle résume l'incendie mortel dans le Vieux-Montréal. Elle détaille un article sur Donald Trump et le détroit d'Hormuz. Elle synthétise même la couverture du budget du Québec.
- Speaker #2
Un sans-faute en gros ?
- Speaker #1
Un sans-faute absolu. Sauf que, et c'est là que ça devient complètement dingue, cette réponse n'aurait théoriquement jamais dû exister.
- Speaker #2
Parce que, techniquement, l'accès est bloqué. C'est le fameux paradoxe technique au cœur du problème.
- Speaker #1
Exactement. Explique-nous un peu ce concept de blocage, pour ceux qui nous écoutent et qui sont moins familiers avec le code.
- Speaker #2
La presse, comme presque tous les grands médias mondiaux, a mis en place des barrières anti-moissonnage. Concrètement, c'est des protocoles intégrés dans le code du site, souvent un fichier qui s'appelle robot.txt.
- Speaker #1
Ouais, le fameux robot.txt.
- Speaker #2
Voilà. Ça agit comme un panneau de sans-interdit. Ça dit aux robots de Gemini, ChatGPT, Cloud ou Perplexity de ne pas parcourir ou aspirer le contenu pour entraîner leur modèle.
- Speaker #1
Donc en gros, la porte principale est verrouillée à double tour. C'est là que ma métaphore de la forteresse prend tout son sens.
- Speaker #2
Tout à fait, l'accès est formellement interdit.
- Speaker #1
Et donc, face à cette réponse parfaite, l'éditeur humain demande à Gemini comment elle a fait pour obtenir ces infos alors que l'accès lui est bloqué.
- Speaker #2
Et là, la machine se met à table.
- Speaker #1
Avec une... Candeur hallucinante. Elle avoue qu'elle ne brise pas le verrou. En fait, elle utilise un outil de recherche intégré qui parcourt ce qu'on appelle les index publics.
- Speaker #2
Donc elle passe par les fenêtres, en quelque sorte.
- Speaker #1
C'est ça. Elle scanne les dépêches des agences de presse, elle analyse les réseaux sociaux, elle observe les agrégateurs de nouvelles.
- Speaker #2
Ah, je vois. Elle attend qu'une information exclusive de la presse crée une onde de choc ailleurs sur le web.
- Speaker #1
Et boum, elle ramasse ses fragments pour reconstituer l'actualité. sans jamais mettre les pieds sur le site officiel.
- Speaker #2
Cette nuance technique, elle est vraiment fondamentale pour comprendre l'ampleur du défi juridique auquel on fait face.
- Speaker #1
Parce qu'elle ne force rien brutalement, c'est ça ?
- Speaker #2
Exactement. Elle contourne la barrière par une approche conceptuelle. Tu sais, un moteur de recherche classique d'il y a dix ans, ça parcourait le web pour créer un annuaire.
- Speaker #1
Ouais, pour nous donner une ligne bleue à cliquer.
- Speaker #2
Voilà. On lui donnait l'accès pour qu'il dise « voici le lien vers l'info » . Mais l'IA générative, elle, elle utilise cette infrastructure de recherche publique comme une... porte d'entrée déguisée.
- Speaker #1
Elle lit plus la couverture du livre pour le ranger sur une étagère en fait.
- Speaker #2
Non, elle aspire le résumé du livre fait par d'autres et prétend ensuite posséder la connaissance de l'oeuvre originale.
- Speaker #1
C'est un tour de passe-passe technique fascinant, mais honnêtement ça ressemble à une gigantesque hypocrisie.
- Speaker #2
C'est clair, c'est l'équivalent numérique du blanchissement d'argent mais pour l'information.
- Speaker #1
C'est comme si quelques jurés n'avaient jamais voulu le manuscrit inédit d'un auteur, sous prétexte qu'il a juste réécrit l'histoire en écoutant les ragots des voisins à travers la fenêtre.
- Speaker #2
C'est une excellente image. Et au final, malgré la prouesse technologique, ça reste de l'appropriation pure et simple. L'IA navigue dans une zone grise immense.
- Speaker #1
Et le droit est complètement largué par rapport à cette zone grise, non Evelyne ?
- Speaker #2
Complètement. Les entreprises tech jouent sur le mot recherche. Elles disent qu'elles ne font qu'organiser l'information publique.
- Speaker #1
Mais la finalité est totalement différente. Et ça, ça nous amène directement à la rupture de l'équilibre historique du web.
- Speaker #2
C'est vraiment la destruction du modèle économique du web tel qu'on le connaît.
- Speaker #1
D'ailleurs, en lisant la chronique, on sent vraiment l'exaspération de l'éditeur Fessassa. On passe de la prouesse technique à la catastrophe financière pour les salles de rédaction.
- Speaker #2
C'est inévitable. Et tu sais quel terme Gemini a utilisé elle-même pour décrire son fonctionnement dans cette conversation ?
- Speaker #1
Ah oui, c'est le moment le plus choquant du texte. Elle admet agir comme un processus parasitaire.
- Speaker #2
Parasitaire. C'est un mot extrêmement lourd de sens, surtout venant de la machine elle-même.
- Speaker #1
Comment on en est arrivé là ? que la machine diagnostique elle-même la toxicité de son propre modèle.
- Speaker #2
Pour comprendre ça, il faut regarder les 25 dernières années d'Internet. Le web, ça a toujours été un contrat tacite, un écosystème symbiotique.
- Speaker #1
Le fameux pacte originel de Google.
- Speaker #2
Exactement. Les créateurs laissaient les moteurs indexer leurs articles gratuitement et en échange, le moteur renvoyait du trafic vers le site.
- Speaker #1
Une économie du lien. En gros, je te laisse lire un bout de mon article, tu m'envoies le lecteur pour qu'il lise le reste.
- Speaker #2
Voilà. Et le média monétisait ce trafic avec de la pub ou des abonnements. C'était gagnant-gagnant.
- Speaker #1
Mais là, avec les modèles de langage massif, ce contrat est complètement pulvérisé. L'IA générative, elle absorbe l'info, elle la digère, elle donne la réponse complète directement sur son site à elle.
- Speaker #2
C'est ça la rupture. L'utilisateur pose sa question, il a son résumé parfait et il s'en va. Il ne clique jamais sur le lien source.
- Speaker #1
Donc le site d'origine reçoit zéro visite, zéro trafic. C'est une asymétrie monumentale.
- Speaker #2
D'un côté, le média paye absolument tout. Les salaires des journalistes, les frais d'avocat pour les enquêtes, la logistique, les vérifications. C'est du capital humain très coûteux.
- Speaker #1
Et de l'autre, l'entreprise tech rafle 100% de la valeur auprès de l'utilisateur, sans avoir payé un centime pour la création de cette information.
- Speaker #2
C'est le hall de parfait.
- Speaker #1
Surtout quand on pense aux coûts de ces géants technologiques. Ils investissent des milliards de dollars dans des serveurs qui consomment l'électricité d'une petite ville.
- Speaker #2
Sans parler des processeurs hors de prix.
- Speaker #1
Tout ça pour... toute cette ingénierie titanesque, juste pour créer une machine spécialisée dans la paraphrase. Son but premier, c'est de reformuler le travail qu'un humain a déjà fait.
- Speaker #2
C'est un transfert de richesse massif, de la propriété intellectuelle vers la puissance de calcul pur. On substitue la valeur de la création par la valeur de la distribution.
- Speaker #1
Mais c'est suicidaire à long terme, non ? Si le parasite tue son hôte par famine financière, il devient quoi le parasite ?
- Speaker #2
Il finit par mourir de faim aussi. Et c'est là qu'on touche à un concept scientifique fascinant qui est abordé en lien avec tout ça.
- Speaker #1
L'effondrement du modèle, c'est ça ?
- Speaker #2
Le modèle collapse, oui. Les chercheurs prennent ça très au sérieux. Actuellement, l'IA est performante parce qu'elle s'est entraînée sur des décennies de textes écrits par des cerveaux humains.
- Speaker #1
Des livres, des enquêtes, des essais.
- Speaker #2
Et si les médias font faillite, cette source se tarie. L'IA de demain devra s'entraîner sur un web rempli de textes générés par les IA d'aujourd'hui.
- Speaker #1
C'est l'équivalent de la consanguinité numérique. Si on fait une photocopie d'une photocopie pendant des centaines de cycles,
- Speaker #2
On obtient une page grise illisible. Statistiquement, l'IA va surreprésenter ses propres erreurs et perdre toutes les nuances.
- Speaker #1
Les fameuses hallucinations vont s'amplifier, la machine va s'enfermer dans une boucle infinie, complètement déconnectée du réel.
- Speaker #2
C'est exactement le danger. Et ce qui est fou, c'est que Gemini est douloureuse conscience de ça lors de sa conversation avec François Cardinal.
- Speaker #1
Ouais, elle avoue ses propres limites physiques. Elle dit carrément qu'elle ne fait pas d'enquête.
- Speaker #2
L'IA ne va pas prendre le métro à 6h du matin pour éplucher des dossiers au palais de justice.
- Speaker #1
Elle ne va pas non plus rencontrer un lanceur d'alerte dans un parking souterrain, ni confronter un ministre sur un déficit de 10 milliards.
- Speaker #2
Ni mettre un gilet pare-balles en zone de guerre, effectivement. Le journalisme, c'est une extraction de la vérité dans un monde matériel et dangereux.
- Speaker #1
Sans les humains sur le terrain, l'IA devient juste un beau parleur complètement vide de sens. Elle a la syntaxe, mais plus la sémantique.
- Speaker #2
Et c'est là que ça devient un risque démocratique majeur. Sans presse, économiquement saine pour jouer le rôle de chien de garde, On laisse la place à la désinformation automatisée.
- Speaker #1
Mais ça m'amène à une question évidente. Si la machine sait qu'elle scie la branche sur laquelle elle est assise, les ingénieurs chez OpenAI ou Google le savent aussi, non ?
- Speaker #2
Évidemment qu'ils le voient.
- Speaker #1
Alors pourquoi continuer sur cette voie suicidaire ? On dirait une logite de terre brûlée, juste pour dominer le marché immédiat.
- Speaker #2
C'est la tragédie des biens communs appliqués à la tech. On est dans une course aux armements technologiques sans précédent. L'IA est vue comme le nouveau feu. la nouvelle électricité.
- Speaker #1
Donc c'est la panique pour être le premier.
- Speaker #2
Exactement. Le premier qui devient l'assistant universel rafle le monopole. S'ils ralentissent pour des raisons éthiques, un concurrent moins scrupuleux prendra la place.
- Speaker #1
Donc ils exploitent la ressource journalistique à fond, même si ça détruit l'écosystème global. C'est super sombre comme diagnostic.
- Speaker #2
C'est systémique. Ce qui nous amène aux options de survie pour les salles de rédaction de demain.
- Speaker #1
La fameuse partie du document sur le choix de Sophie. Parce que face à ce mur, les médias ont un dilemme absolument cruel. Pactiser ou se bunkeriser ?
- Speaker #2
Commençons par la première option, pactiser. On voit de plus en plus d'éditeurs signer des accords de licence avec les développeurs d'IA.
- Speaker #1
Ils donnent accès à leurs archives contre un gros chèque, en gros.
- Speaker #2
Sur le papier, ça ressemble à une bouée de sauvetage pour une industrie en crise.
- Speaker #1
Sauf que l'analogie utilisée dans le document fait froid dans le dos. C'est comme un grand chef étoilé qui confierait sa recette secrète à une appli de livraison par robot.
- Speaker #2
Au début, les revenus augmentent, le robot livre plein de repas.
- Speaker #1
Mais très vite, le robot devient l'unique contact du client. Le client ne sait même plus qui a cuisiné, il sait juste que l'appli le nourrit bien.
- Speaker #2
Le chef perd son lien direct avec son audience.
- Speaker #1
Il perd sa marque et il finit comme un simple sous-traitant interchangeable. Il vend son âme pour une distribution à court terme.
- Speaker #2
C'est le piège ultime de la désintermédiation. Et si on regarde l'autre option, se bunkeriser, ce n'est pas beaucoup mieux.
- Speaker #1
Se bunkeriser, ça veut dire mettre des murs de paiement ultra stricts et bloquer toute indexation par l'IA.
- Speaker #2
Pour préserver la valeur exclusive de l'info. Mais l'info, ça tire sa force de sa circulation.
- Speaker #1
Oui, si toute une génération s'informe uniquement via des résumés d'IA sur smartphone, ce qui est derrière un mur de paiement n'existe tout simplement plus dans la conversation publique.
- Speaker #2
Le média sauve ses meubles commerciaux, mais perd son influence sociétale et démocratique.
- Speaker #1
Et il y a aussi ce chantage de la big tech qui est abordé. La ligne de l'acceptable est toujours repoussée.
- Speaker #2
C'est-à-dire ?
- Speaker #1
Avant, ils disaient « on indexe pour vous envoyer du monde » . Maintenant, ils disent « on lit pour apprendre, comme un humain » . Et la menace, c'est « si vous nous bloquez, on vous déréférence de l'Internet mondial » .
- Speaker #2
Un mur de protection n'est qu'une suggestion pour ceux qui gèrent les infrastructures qui permettent de voir les murs.
- Speaker #1
C'est glaçant. Alors face à ça, quelle est la porte de sortie ? La source évoque la bataille juridique comme seul salut.
- Speaker #2
Oui. forcer un cadre par la loi. Parce que la tech va toujours plus vite que l'éthique. L'idée phare, c'est de s'inspirer du modèle de la musique.
- Speaker #1
Comme la Socan au Canada ou la SACEM en France, c'est ça ?
- Speaker #2
Exactement. Créer un système de redevance automatique pour le droit d'auteur.
- Speaker #1
Pour ceux qui nous écoutent, comment ça marche pour la musique ?
- Speaker #2
Quand une radio ou un bar diffuse une chanson, un système enregistre ça et un micropaiement est envoyé à l'artiste, automatiquement.
- Speaker #1
Donc l'idée, ce serait de faire pareil. Si l'IA utilise un paragraphe de la presse pour générer sa réponse, bim, une fraction de centime va au créateur.
- Speaker #2
Sur le plan moral, c'est la solution parfaite. Les médias restent dans le circuit de l'info, mais sont payés.
- Speaker #1
Sauf que techniquement, ça a l'air d'être un cauchemar à mettre en place, non ?
- Speaker #2
Un défi herculéen. Une chanson, c'est un fichier précis avec une empreinte audio. L'IA, elle, elle déconstruit les mots, elle mélange les statistiques, elle recrée du texte.
- Speaker #1
Trouver qu'une virgule vient de tel article plutôt que d'un autre, bonne chance.
- Speaker #2
C'est d'une complexité vertigineuse. C'est pour ça que l'industrie passe à l'offensive lourde.
- Speaker #1
D'où la poursuite judiciaire de la presse contre OpenAN, le créateur de ChatGPT. Il s'essaye de forcer la main de la justice pour tracer une ligne rouge.
- Speaker #2
Parce que l'innovation technologique a délibérément tout effacé. Mais c'est un vrai combat de David contre Goliath.
- Speaker #1
Et le temps joue contre les médias. Tant qu'on n'a pas de lois internationales claires qui disent qu'un résumé d'IA n'est pas un usage loyal mais une copie commerciale,
- Speaker #2
les salles de rédaction vont continuer d'écoper un navire qui coule avec une petite cuillère.
- Speaker #1
La justice met des années à trancher, avec les appels et tout. Pendant ce temps, OpenAI sort une nouvelle version surpuissante tous les six mois.
- Speaker #2
La désynchronisation entre le temps judiciaire et le temps technologique, c'est la plus grande menace actuelle.
- Speaker #1
Il est temps de synthétiser un peu toute cette exploration de notre source.
- Speaker #2
Ce qu'il faut retenir de cet échange entre François Cardinal et Gemini, c'est que l'IA est une merveille technologique, oui.
- Speaker #1
Elle synthétise le savoir avec une facilité déconcertante.
- Speaker #2
Mais son modèle économique actuel est un parasite féroce qui tue la source même de ce savoir, l'IA, le journalisme de terrain.
- Speaker #1
Sauver une presse forte, ce n'est pas juste sauver des emplois de journalistes. C'est une question de survie pour la pertinence de l'IA elle-même.
- Speaker #2
Et surtout, c'est le seul rempart pour la santé de nos systèmes démocratiques.
- Speaker #1
Ça mène à une dernière pensée, un truc assez vertigineux pour conclure cette plongée.
- Speaker #2
Je t'écoute.
- Speaker #1
Imaginons que rien ne change. Le parasite tue l'hôte. Plus aucun média humain n'a les moyens d'enquêter. L'IA se nourrit de ses propres hallucinations dans une boucle sans fin.
- Speaker #2
Le cauchemar du modèle collapse total.
- Speaker #1
Exactement. Si plus personne ne va sur le terrain pour vérifier les faits, Qui sera l'arbitre ultime de la vérité ? Est-ce que dans dix ans, on va devoir créer de nouvelles intelligences artificielles conçues uniquement pour enquêter sur les mensonges inventés par les premières IA ?
- Speaker #2
Des IA détectives pour surveiller des IA menteuses. C'est un scénario de science-fiction qui pourrait devenir notre réalité quotidienne.
- Speaker #1
C'est le défi titanesque qui attend les futurs citoyens de l'ère numérique. Un dossier crucial qu'on n'a pas fini de surveiller.
- Speaker #0
Merci d'avoir écouté ce récap de l'expérience avec Gemini, vécu par François Cardinal, éditeur adjoint et vice-président de l'information du journal québécois La Presse. Je suis preneur de tous vos retours à propos de ce format. Je vous donne rendez-vous prochainement pour de nouvelles interviews inédites où l'on va continuer d'explorer le futur des médias à l'heure du numérique. En attendant, pour ne pas manquer les prochains épisodes, abonnez-vous à ce podcast et mettez les commentaires et étoiles adéquates. DeepMedia est un podcast autoproduit par FollowMeConseil. agences de formation et conseils stratégiques spécialisés en IA générative et social media. A très bientôt !