- Speaker #0
Janvier 2026.
- Speaker #1
Sur les plateformes de streaming, près de 40% des nouveaux morceaux mis en ligne sont désormais l'œuvre d'algorithmes. Dans nos bureaux, le code informatique se génère à une vitesse fulgurante, mais gagne en fragilité ce qu'il perd en âme. Nous vivons une époque de paradoxe total. Depuis l'explosion de l'IA générative fin 2022, on nous promettait une créativité augmentée, un génie à portée de clic. Mais la réalité qui se dessine est plus nuancée. Et si cette technologie agissait comme un immense rabot, lissant nos aspérités, uniformisant nos goûts et nous enfermant dans une monoculture algorithmique ? Aujourd'hui, dans Les signaux du changement, nous explorons le concept du pharmakon, du philosophe Bernard Stiegler, cette idée que la technologie est indissociablement un remède et un poison. Nous allons décortiquer comment l'IA peut devenir un GPS de la pensée, qui nous fait perdre notre propre sens de l'orientation intellectuelle, mais aussi comment elle peut à l'inverse, devenir un compost numérique, fertile pour une innovation radicalement nouvelle.
- Speaker #2
Bienvenue. Aujourd'hui, on va s'attaquer à un sujet qui est un vrai paradoxe, celui de l'intelligence artificielle générative.
- Speaker #0
Bonjour.
- Speaker #2
Depuis fin 2022, on a cette promesse incroyable d'un outil qui augmente la productivité, qui démocratise la créativité.
- Speaker #0
Une sorte de collaborateur virtuel parfait.
- Speaker #2
Exactement. Mais en même temps, il y a cette inquiétude qui monte, l'impression que cette même technologie est en train de tout lisser, de tout uniformiser.
- Speaker #0
C'est ça.
- Speaker #2
Du coup, on a épluché pas mal de recherches, des analyses académiques, des exemples très concrets, surtout en France, pour essayer de décortiquer ce paradoxe.
- Speaker #0
Et pour bien comprendre, il y a une idée assez ancienne d'un philosophe, Bernard Stiegler, qui est super pertinente aujourd'hui.
- Speaker #2
Ah oui ?
- Speaker #0
Il parlait de la technologie comme d'un pharmacon. C'est un mot grec.
- Speaker #2
Qui veut dire quoi ?
- Speaker #0
À la fois le remède et le poison. L'IA en soi, elle n'est ni bonne ni mauvaise, tout dépend de ce qu'on en fait.
- Speaker #2
C'est l'usage qui compte.
- Speaker #0
C'est ça. Et le vrai problème, c'est cette tension entre d'un côté la diversité de l'info, la variance comme disent les chercheurs, et de l'autre, l'efficacité de l'algorithme qui lui va toujours tendre vers la moyenne.
- Speaker #2
D'accord. Alors déballons ça, parce que ça reste un peu contre-intuitif. Comment est-ce qu'une machine qui est conçue pour créer à l'infini peut finir par tout faire se ressembler ? C'est quoi les mécanismes derrière ?
- Speaker #0
Alors, les recherches en identifient plusieurs. Le premier, c'est qu'on commence à traiter l'IA un peu comme un GPS pour la pensée.
- Speaker #2
C'est-à-dire ?
- Speaker #0
On suit ses directions sans vraiment regarder la carte. On arrive à destination, oui, mais on perd complètement notre sens de l'orientation intellectuelle.
- Speaker #2
On devient un peu paresseux, quoi.
- Speaker #0
Un chercheur, Bijan Gafoui, appelle ça l'épistémologie dérivée. On délègue notre réflexion. Et on finit par voir l'IA comme la source de vérité.
- Speaker #2
Et ce prisme de l'IA, il nous montre quoi au juste ?
- Speaker #0
Il nous montre la version la plus probable, la plus moyenne, ce qui nous amène directement au deuxième mécanisme.
- Speaker #2
Qui est ?
- Speaker #0
L'effondrement des connaissances. Un concept d'Andrew J. Peterson. Les IA sont entraînées sur des masses de données gigantesques.
- Speaker #2
Donc leurs réponses sont une sorte de synthèse ?
- Speaker #0
De centre de gravité de tout ce qu'elles ont appris. Et si on ne se base que sur ça, on oublie petit à petit les idées plus rares, les points de vue qui sortent du lot, bref, tout ce qui fait l'innovation.
- Speaker #2
Et il y a un chiffre dans les documents qui m'a vraiment interpellé.
- Speaker #0
Ah oui ?
- Speaker #2
Une modélisation qui montre qu'une simple baisse de 20% du coût pour accéder à l'info via une IA, ça pourrait rendre nos croyances collectives 2,3 fois plus éloignées de la vérité.
- Speaker #0
C'est énorme !
- Speaker #2
C'est énorme, oui. Ça veut dire que... plus c'est facile d'accès, plus on risque de s'enfermer dans une vision appauvrie.
- Speaker #0
C'est exactement ce paradoxe. L'accès est plus simple, mais la richesse collective, elle, peut en prendre un coup. Ce qui est logique en fait si on pense au troisième mécanisme.
- Speaker #2
La monoculture algorithmique, rien que le nom fait un peu peur.
- Speaker #0
C'est un terme de Richie Bomasani.
- Speaker #2
En gros, ça veut dire que si tout le monde utilise le même GPS, on se retrouve tous dans les mêmes bouchons.
- Speaker #0
C'est une excellente image. Si des centaines d'entreprises utilisent des outils de recrutement basés sur les mêmes IA, entraînées sur les mêmes données.
- Speaker #2
Elles vont toutes chercher le même profil.
- Speaker #0
Exactement. Et elles vont toutes écarter les mêmes profils atypiques. Au final, on ne crée pas de la performance, on crée de la conformité à très grandes échelles.
- Speaker #2
Et il y a un autre risque qui est peut-être encore plus grave, une sorte de serpent qui se mord la queue, le fameux modèle collapse.
- Speaker #0
Oui, l'effondrement du modèle. Certains parlent même de « trouble de l'autophagie du modèle » .
- Speaker #2
L'IA qui se mange elle-même.
- Speaker #0
C'est ça. C'est quand les modèles commencent à être entraînés sur des données qui ont elles-mêmes été générées par d'autres IA. Le contenu synthétique pollue la source.
- Speaker #2
C'est la fameuse analogie de la photocopie d'une photocopie.
- Speaker #0
Voilà.
- Speaker #2
On la refait à l'infini. Et à chaque fois, on perd un peu de détail, l'image devient floue, et à la fin, il reste juste une bouillie où toutes les nuances sont disparues.
- Speaker #0
C'est tout à fait ça. Et attention, ce n'est plus un risque juste théorique. Une des estimations pour 2024 suggère que 30 à 40% du texte qui circule sur le web pourrait déjà venir de sources générées par IA.
- Speaker #2
30 à 40%, c'est dingue ?
- Speaker #0
Le risque, c'est que sans un apport constant de données humaines, fraîches, authentiques, la qualité des futurs modèles stagne.
- Speaker #2
Voire régresse. D'accord. Donc le tableau est assez clair, l'IA nous tire vers la moyenne. standardise nos décisions et en plus elle risque de s'auto-asphyxier.
- Speaker #1
Nous venons de voir comment l'IA peut agir comme un GPS de la pensée, nous guidant vers un centre de gravité confortable mais sans relief, au risque de nous éloigner de la vérité et de l'originalité. Mais attention, ce lissage ne serait-il pas, contre toute attente, le terreau d'une nouvelle forme d'innovation ? Entrons maintenant dans le concept surprenant du compost numérique.
- Speaker #2
Logiquement, on devrait s'attendre à une panne sèche de l'innovation.
- Speaker #0
Oui, logiquement.
- Speaker #2
Sauf que, et c'est là que ça devient vraiment fascinant, un des papiers qu'on a analysé, celui de Gaffory justement, avance l'idée complètement inverse.
- Speaker #0
Oui.
- Speaker #2
Que cette homogénéisation pourrait être, paradoxalement, un moteur d'innovation. Alors ça, comment c'est possible ?
- Speaker #0
C'est le cœur de sa thèse. Et c'est un vrai retournement de situation. Son idée ? c'est que quand l'IA standardise les connaissances à l'intérieur d'un domaine, elle les transforme en modules plus simples.
- Speaker #2
Des modules ?
- Speaker #0
Oui, des briques de base, plus faciles à comprendre et à manipuler, même pour quelqu'un qui n'est pas expert du domaine.
- Speaker #2
Attends, si je comprends bien, c'est un peu comme des briques de Lego.
- Speaker #0
Continue.
- Speaker #2
En rendant toutes les briques compatibles, avec une norme simple, on peut tout à coup les combiner de manière totalement nouvelle, pour construire des trucs que même le créateur des briques n'avait pas imaginé.
- Speaker #0
C'est une analogie. parfaite. La simplification dans un domaine permet une créativité explosive entre les domaines.
- Speaker #2
Ah d'accord.
- Speaker #0
L'histoire des sciences est pleine de ça, des idées d'un champ qui viennent en fertiliser un autre. L'IA, en transformant le savoir en briques, rend ces connexions beaucoup plus faciles à faire.
- Speaker #2
L'IA agit donc un peu comme un broyeur culturel géant. Elle prend des idées complexes et elle les décompose en petits morceaux.
- Speaker #0
C'est exactement ça. Et Gaffory appelle ce tas de morceaux le Le compost numérique.
- Speaker #2
Le compost numérique. J'aime bien l'image.
- Speaker #0
Et là, toute la question est, qu'est-ce qu'on fait de ce compost ? Soit on le laisse comme ça et on obtient une monoculture un peu stérie où tout se ressemble.
- Speaker #2
Soit on s'en saisit, on le mélange, on l'air.
- Speaker #0
Et on s'en sert comme d'un terreau incroyablement fertile pour faire pousser des choses radicalement nouvelles. La conclusion, elle n'est pas dans la machine, elle est dans la main du jardinier.
- Speaker #1
L'IA ne serait donc pas une fin en soi, mais un terreau, un compost. que nous devons cultiver. Mais entre la théorie et la pratique, qu'en est-il réellement sur le terrain ? développement informatique, éducation. Nous allons voir que dans le monde réel, la lutte contre la bouillie synthétique a déjà commencé.
- Speaker #2
Cette idée de compost, elle est puissante, mais ça reste un peu théorique. Est-ce qu'on voit déjà cet effet sur le terrain, dans notre quotidien en France par exemple ?
- Speaker #0
Absolument. Les exemples sont très concrets. Prenez l'industrie de la musique, et le cas de Deezer. Les chiffres cités sont assez fous. En janvier 2026, on estime que 39% des nouveaux morceaux mis en ligne sur la plateforme étaient générés par IA.
- Speaker #2
39% ? C'est presque la moitié de la nouvelle musique. Ça représente combien de titres par jour ?
- Speaker #0
Environ 60 000.
- Speaker #2
60 000 ?
- Speaker #0
Et le plus frappant, c'est que 85% des écoutes de ces titres étaient frauduleuses. Sûrement des bottes pour générer des revenus. On est en... plein dans l'homogénéisation quantitative. C'est du remplissage.
- Speaker #2
Et face à ce tsunami de contenus, comment réagit l'écosystème ? Il y a une réponse.
- Speaker #0
Oui, et c'est là qu'on voit des formes de résistance. Deezer, d'après les sources, est la seule grande plateforme à avoir pris des mesures fortes. Ils étiquettent ces contenus comme « générés par IA » .
- Speaker #2
D'accord.
- Speaker #0
Et surtout, ils les excluent de leurs playlists et de leurs recommandations. Et en parallèle, on voit émerger des initiatives comme le label « fabrication humaine » .
- Speaker #2
Un peu comme le « fait maison au restaurant » .
- Speaker #0
C'est exactement l'idée. Garantir un processus créatif sans IA.
- Speaker #2
On voit cette même tension dans le développement de logiciels, non ? D'un côté, une productivité dingue.
- Speaker #0
Oui, un outil comme GitHub Copilot peut augmenter la productivité des développeurs jusqu'à 55,8%. C'est un gain énorme.
- Speaker #2
N'importe quel DSI signe tout de suite pour ça. Mais il y a un mais, j'imagine ?
- Speaker #0
Et le mais est de taille. La même étude montre que ce code, produit plus vite, est aussi beaucoup plus fragile.
- Speaker #2
C'est-à-dire ?
- Speaker #0
Une augmentation de 23,7% des vulnérabilités de sécurité. On gagne en vitesse ce qu'on perd en robustesse. Et il y a une autre standardisation qui s'opère.
- Speaker #2
Laquelle ?
- Speaker #0
Les développeurs juniors acceptent près de 89% des suggestions de l'IA, contre seulement 62% pour les seniors.
- Speaker #2
Ah ! Donc ça veut dire que les bonnes pratiques, mais aussi les mauvaises habitudes de l'IA sont en train de devenir le nouveau standard pour toute une génération de développeurs.
- Speaker #0
On retrouve ce risque de prolétarisation, la perte d'un savoir-faire au profit de la machine. Mais c'est sans doute dans l'éducation que c'est le plus visible.
- Speaker #2
Et le plus inquiétant, peut-être ?
- Speaker #0
Oui. Les chiffres pour la France sont clairs. 26% des élèves disent utiliser l'IA pour leurs devoirs ou leurs examens. Et côté enseignants... 80% constatent une baisse de la pensée critique.
- Speaker #2
Ça me fait penser au débat sur la calculatrice. Si on l'utilise tout le temps, le jour où on ne l'a pas, on est perdu. C'est cette dette cognitive dont parle cette enseignante de la Sorbonne ?
- Speaker #0
C'est exactement ça. Elle décrit des étudiants qui délèguent tellement leur travail de recherche et de pensée qu'ils sont démunis quand l'outil n'est plus là. L'esprit critique, il s'atrophie.
- Speaker #2
Et cette tendance à tout ramener vers le centre, vers la norme, ça a aussi un nom en économie, non ? L'IA comme technologie centripète.
- Speaker #0
Oui, c'est une bonne image. Elle tire tout vers une offre moyenne, standard. Et du coup, proposer quelque chose de vraiment original devient de plus en plus difficile et de plus en plus coûteux.
- Speaker #2
Ce qui rend le cas de Mistraliaï si intéressant.
- Speaker #0
Complètement. On le présente comme le champion de la technodiversité européenne face aux géants américains. Mais les sources soulignent le paradoxe. Même si 75% du capital est présenté comme français, 40% appartiendrait en fait à des fonds américains. La logique de concentration reste très forte.
- Speaker #2
C'est fascinant parce que, peu importe l'angle qu'on prend, culturel, technique, économique, on en revient toujours à la même chose.
- Speaker #0
Au rôle de l'humain ?
- Speaker #2
C'est la variable d'ajustement femal.
- Speaker #0
C'est-à-dire ?
- Speaker #2
Les documents font une distinction qui est vraiment clé, entre deux postures. D'un côté, les consommateurs passifs.
- Speaker #0
Eux, ils subissent l'homogénéisation.
- Speaker #2
Voilà, ils prennent la suggestion de l'IA, ils valident et ils passent à autre chose. Et de l'autre côté, il y a les curateurs actifs.
- Speaker #0
Eux, ce sont les jardiniers du... compost numérique. C'est ça. Ils prennent la proposition de l'IA comme un point de départ, ils la questionnent, la croisent avec autre chose pour en faire quelque chose de nouveau.
- Speaker #2
C'est une belle idée ces curateurs actifs, mais est-ce que c'est vraiment réaliste ? La tendance de fond, c'est quand même la facilité, non ? Le scroll infini, la consommation passive, on n'est pas un peu en train de se bercer d'illusions ?
- Speaker #0
C'est la question centrale, c'est sûr. Et c'est là qu'un autre modèle est éclairant. La différence entre l'IA substitue et l'IA complément.
- Speaker #2
Explique-nous.
- Speaker #0
L'IA substitue, c'est quand on lui délègue toute la tâche. C'est la voie de la facilité, c'est plus efficace à court terme pour l'individu.
- Speaker #2
D'accord.
- Speaker #0
L'IA complément, c'est quand on l'utilise pour augmenter ses propres capacités, pour faire des choses qu'on ne pouvait pas faire seul. C'est plus exigeant, mais c'est bien plus bénéfique pour le groupe à long terme, parce que ça préserve la diversité.
- Speaker #2
Et si on choisit systématiquement la première voie, la facilité ?
- Speaker #0
On accepte cette prolétarisation, cette... cette perte progressive de nos savoirs.
- Speaker #2
Bon, alors si on est d'accord qu'il faut plus de curateurs actifs et d'usages en complément, on fait quoi concrètement ? Pour éviter de tous finir sur la même autoroute algorithmique.
- Speaker #0
Il y a plusieurs pistes qui sont esquissées. D'abord, il y a un cadre de pensée, celui de la technodiversité du philosophe Yuki Hui.
- Speaker #2
Son idée, c'est quoi ?
- Speaker #0
C'est de refuser l'idée qu'il n'y aurait qu'une seule bonne façon de développer la technologie, celle de la Silicon Valley en général. C'est un appel à concevoir des technologies qui reflètent nos différentes cultures.
- Speaker #2
Et au niveau plus institutionnel ?
- Speaker #0
Des organisations comme l'UNESCO ou l'OCDE travaillent sur des cadres de gouvernance pour une IA digne de confiance en France. Ça se traduit par la stratégie nationale du Plan France 2030 et puis par des initiatives plus symboliques comme le label Fabrication Humaine.
- Speaker #2
D'accord. Alors si on essaye de synthétiser un peu tout ça, le paradoxe il est bien là. L'IA, c'est cet outil à double tranchant.
- Speaker #0
Le plus grand accélérateur d'innovation et en même temps le plus grand moteur de standardisation.
- Speaker #2
Et le résultat final, en fait, ce n'est pas une fatalité technologique, ça dépend de nous.
- Speaker #0
C'est la conclusion qui s'impose, oui. Le facteur décisif, ça reste l'humain. Pas juste comme un utilisateur, mais comme un curateur, doté d'une littératie culturelle, d'un esprit critique.
- Speaker #2
Cette capacité à douter de la réponse facile.
- Speaker #0
Et à recombiner les idées. C'est ça qui fera la différence entre subir l'auguminalisation et s'en servir pour vraiment innover.
- Speaker #2
La question qui reste alors, c'est peut-être pas tant de savoir ce que l'IA va nous faire.
- Speaker #0
Mais ce que nous, nous allons en faire.
- Speaker #2
Exactement. Pour que ce compost numérique devienne un jardin fertile, il faut des jardiniers, des curateurs actifs. Mais est-ce que nos systèmes éducatifs, nos entreprises, nos propres habitudes, est-ce qu'ils nous préparent à ça ou est-ce qu'ils sont en train de former sans le vouloir une génération de... consommateur passif, juste parfaitement optimisé pour un monde d'efficacité homogène.
- Speaker #1
L'IA générative nous tire vers la moyenne, c'est un fait. Mais comme nous l'avons entendu, cette moyenne peut être le point de départ d'une créativité renouvelée si nous acceptons de redevenir les acteurs de notre propre réflexion. Merci d'avoir écouté les signaux du changement. Et vous, serez-vous un consommateur passif ou un curateur actif de ce nouveau monde ?