- Speaker #0
L'intelligence artificielle, en 2026, c'est un peu comme une ruée vers l'or, où personne ne sait vraiment quelle carte utiliser. Entre les promesses des modèles de langage comme GPT et les mises en garde des chercheurs historiques, difficile pour un décideur de s'y retrouver. Aujourd'hui, dans ce nouvel épisode des signaux du changement, nous allons dissiper le brouillard. Nous n'allons pas seulement parler tech. Nous allons cartographier les quatre grandes écoles de pensée qui s'affrontent actuellement pour dominer le futur de l'IA. Si vous voulez savoir dans quel train monter sans vous tromper de destination, restez avec nous.
- Speaker #1
Bonjour et bienvenue. Alors aujourd'hui on plonge dans un sujet, un sujet qui est vraiment sur toutes les lèvres, mais qui je trouve reste incroyablement flou, l'intelligence artificielle. En 2026, on a vraiment dépassé le stade de la promesse, n'est-ce pas ? L'IA, elle est là, elle transforme les entreprises. Le problème, c'est que le terme IA est devenu une sorte de grand sac fourre-tout.
- Speaker #2
Ah oui, complètement.
- Speaker #1
On y met des approches radicalement différentes, presque des visions du monde qui s'opposent. Du coup, pour un dirigeant, la question stratégique, ce n'est plus « faut-il y aller ? » mais plutôt « dans quel train on monte ? » .
- Speaker #2
Vous mettez le doigt sur le problème central. Ce mot est devenu... tellement large qu'il ne veut presque plus rien dire. Et c'est pour ça qu'aujourd'hui, on va essayer de mettre un peu d'ordre là-dedans. Notre objectif, en s'appuyant sur les documents qu'on a pu analyser, c'est de cartographier un peu les grandes familles, les grandes écoles de pensée de l'IA.
- Speaker #1
Pour distinguer l'innovation durable.
- Speaker #2
Du simple discours marketing.
- Speaker #1
Exactement.
- Speaker #2
Pour donner des clés de lecture.
- Speaker #1
Parfait. Alors commençons par la plus célèbre, celle que tout le monde connaît maintenant, les grands modèles de langage, les fameux LLM. GPT, Claude et tous les autres.
- Speaker #2
Le fameux système 1 de l'IA, oui, la pensée rapide, intuitive.
- Speaker #1
C'est ça, des modèles connexionnistes qui sont en gros des machines à prédire le mot suivant avec une puissance statistique phénoménale.
- Speaker #2
C'est exactement ça. Et c'est là que la critique la plus virulente, je dirais, devient passionnante, notamment celle de Richard Sutton, un des pères de l'apprentissage par renforcement.
- Speaker #1
Oui.
- Speaker #2
Pour lui, c'est très simple. Les LLM, dans leur format actuel, sont une impasse. Un dead-end, comme il le dit.
- Speaker #1
Une impasse ? C'est un mot très fort. Pourquoi ?
- Speaker #2
Parce qu'ils ne font qu'imiter. Ils miment ce que les humains ont déjà écrit. Ce sont des perroquets stochastiques, incroyablement doués, mais ils ne comprennent rien au monde. Ils n'ont pas de but intrinsèque, pas de définition de ce qui est juste ou faux. Surtout, ils n'apprennent pas de l'expérience directe.
- Speaker #1
C'est-à-dire qu'ils n'apprennent pas en agissant dans le monde réel ?
- Speaker #2
Voilà. Ils apprennent d'un corpus de données figé. C'est très, très différent de l'apprentissage continu.
- Speaker #1
C'est ce qui explique le problème des hallucinations. Le fait que le modèle puisse affirmer des contre-vérités avec une confiance totale.
- Speaker #2
Précisément, ce n'est pas un bug, c'est la nature même du système. Il prédit, il ne sait pas.
- Speaker #1
Le risque pour une entreprise est énorme. On peut imaginer une décision basée sur un fait complètement inventé.
- Speaker #2
Tout à fait. Et on commence à voir, comme le montrent les papiers de recherche, des rendements décroissants. Il faut des ressources absolument délirantes pour gagner quelques points de performance.
- Speaker #1
Ça pousse donc à regarder ailleurs, ce qui nous amène logiquement à l'approche quasi opposée, l'IA symbolique.
- Speaker #2
L'approche historique, oui, celle des années 80. L'IA des règles explicites, le fameux si x alors y.
- Speaker #1
Là on n'est plus dans la statistique.
- Speaker #2
Pas du tout, on est dans la logique formelle. On a une base de connaissances, des règles et un voteur qui résonne dessus. C'est déterministe.
- Speaker #1
Ça peut paraître un peu vieillot, mais ça a un avantage majeur j'imagine.
- Speaker #2
Un avantage absolument crucial. La traçabilité, l'explicabilité, on parle d'auditabilité.
- Speaker #1
C'est-à-dire ?
- Speaker #2
Prenons un exemple. Un système qui refuse un prêt bancaire. Avec l'IA symbolique, on peut dire exactement pourquoi. Le prêt est refusé à cause de la règle 4.B.
- Speaker #1
Oui, je vois. Chose impossible à faire avec un LLM, qui est une boîte noire.
- Speaker #2
Exactement. Et pour des secteurs comme la finance, le droit, la santé, c'est une exigence non négociable. On doit pouvoir expliquer une décision.
- Speaker #1
D'accord. Donc d'un côté, on a la flexibilité des LLM, mais ils peuvent halluciner. De l'autre, la rigueur du symbolique met sa rigidité leur en incapable de gérer l'imprévu ou des données non structurées comme une image.
- Speaker #2
Ils gèrent très mal l'ambiguïté du monde réel.
- Speaker #1
La question est évidente. Pourquoi ne pas marier les deux ?
- Speaker #0
Petite pause pour respirer. Jusqu'ici, nous avons dessiné deux camps retranchés. Le camp des probabilistes, avec les LLM. C'est créatif, c'est fluide, ça parle bien, mais ça peut raconter n'importe quoi avec aplomb. C'est le fameux perroquet stochastique. De l'autre, le camp des logiciens, avec l'IA symbolique. C'est la rigueur absolue, traçable et fiable pour la banque ou la santé, mais c'est rigide et incapable d'improviser face à l'inconnu. L'intuition contre la raison. L'impasse semble totale. À moins qu'on ne puisse fusionner les deux ?
- Speaker #2
Et c'est précisément la direction que prend ce qu'on appelle la troisième vague de l'IA, l'IA neurosymbolique.
- Speaker #1
Hybrider le meilleur des deux mondes.
- Speaker #2
C'est l'idée. Combiner la fluidité des réseaux de neurones pour la perception et la rigueur de la logique pour le raisonnement. Le but, c'est de réduire les hallucinations des LLM tout en gardant leur flexibilité.
- Speaker #1
Et concrètement, comment ça marche ? On branche un système sur l'autre ?
- Speaker #2
C'est une de possibilités. Un chercheur, Henry Codes, a proposé une taxonomie intéressante. Il y a par exemple ce qu'il appelle le type droit. Là, on a un module neuronal très fort pour la reconnaissance d'objets dans une image, par exemple. qui va identifier voiture, arbre, personne. Et il envoie ces informations sous forme de symboles à un module logique.
- Speaker #1
Qui lui va pouvoir raisonner dessus pour répondre à une question comme « La voiture est-elle à gauche de l'arbre ? »
- Speaker #2
Voilà, c'est une collaboration entre deux spécialistes.
- Speaker #1
Mais le rêve j'imagine c'est d'aller plus loin, de ne pas avoir deux modules qui se parlent mais un seul cerveau intégré.
- Speaker #2
Vous avez parfaitement saisi. C'est l'approche la plus élégante. Là, on intègre des règles logiques directement dans la fonction de coût du réseau de neurones, pendant son entraînement.
- Speaker #1
C'est-à-dire que la logique devient une contrainte qui guide l'apprentissage.
- Speaker #2
C'est ça. On peut lui injecter une règle comme « un objet ne peut pas être à deux endroits en même temps » . Cette règle va agir comme un régulariseur, une contrainte souple, qui va forcer le réseau à apprendre des représentations du monde qui sont logiquement cohérentes.
- Speaker #1
Des technologies comme les Logic Tensor Networks font ça, c'est bien ça ?
- Speaker #2
Exactement.
- Speaker #1
L'avantage business est clair, on va vers une IA plus fiable.
- Speaker #2
Plus robuste.
- Speaker #1
Le défi, c'est que c'est encore très complexe techniquement.
- Speaker #2
Oui, on n'est pas encore sur du prêt à l'emploi. Ce qui nous amène à la quatrième et dernière grande vision, celle qui est peut-être la plus disruptive.
- Speaker #1
On a parlé du système 1 des LLM, là on s'attaque au système 2, la pensée délibérée.
- Speaker #2
C'est l'ambition, oui. On parle des world models, les modèles du monde. Une vision très défendue par Yann Lequeu.
- Speaker #1
Et l'idée c'est de ne plus manipuler seulement des mots, mais de construire une IA qui est un modèle mental du fonctionnement du monde.
- Speaker #2
C'est le cœur du concept. L'IA se dote d'une sorte de simulateur interne de la réalité. Avant d'agir, elle peut se projeter. Si je fais l'action A, que va-t-il se passer ? Et si je fais l'action B, elle anticipe les conséquences.
- Speaker #1
C'est un changement de paradigme complet.
- Speaker #2
Total.
- Speaker #1
Comment le système décide quelles conséquences sont bonnes ou mauvaises ? Comment il choisit ?
- Speaker #2
C'est la clé de l'architecture de Lecune. Il y a un module de coût, c'est lui qui évalue si un futur simulé est, disons, désagréable pour l'agent.
- Speaker #1
Et ce coût, il vient d'où ?
- Speaker #2
Il a deux composantes. La première, c'est le coût intrinsèque, c'est non modifiable, c'est câblé en dur. C'est l'équivalent des pulsions de base, la douleur, le plaisir, la curiosité.
- Speaker #1
On parle presque d'émotion pour une machine.
- Speaker #2
Lecune fait lui-même l'analogie. Il dit que la peur, c'est l'anticipation d'un coût intrinsèque élevé. L'autre partie du coût, elle, est entraînable. C'est un critique qui apprend à prédire les désagréments futurs.
- Speaker #1
D'accord. Et ensuite ?
- Speaker #2
Ensuite, un autre module, l'acteur, utilise tout ça. Il utilise le simulateur et le module de coût pour trouver la séquence d'action qui va minimiser le coût futur. C'est de la planification pure.
- Speaker #1
C'est une vision... Incroyablement ambitieuse, le potentiel pour une entreprise est gigantesque. La robotique, la logistique, la conception de produits.
- Speaker #2
On peut imaginer une IA qui apprend avec beaucoup, beaucoup moins de données.
- Speaker #1
Le bémol, c'est l'horizon de temps. On parle de 2 à 5 ans avant une maturité industrielle.
- Speaker #2
C'est ça. On a donc ce paysage avec 4 grandes philosophies qui coexistent et qui s'affrontent.
- Speaker #1
Bon, le paysage est plus clair, mais si je suis une dirigeante aujourd'hui, j'ai l'impression d'être un peu au milieu d'un champ de bataille. Comment je navigue là-dedans sans me tromper, sans parier sur le mauvais cheval ?
- Speaker #0
Résumons cette seconde partie, beaucoup plus avant gardiste. Nous avons vu l'émergence de l'IA neurosymbolique, qui tente de mettre des garde-fous logiques dans les réseaux de neurones. Et nous avons touché du doigt le Graal, les modèles du monde. Ces IA capables de planifier, de réfléchir avant d'agir et d'avoir une forme de bon sens. Techniquement, la feuille de route est fascinante, mais redescendant sur Terre. Pour vous, dirigeants, managers ou entrepreneurs, Ces concepts abstraits doivent se traduire en décisions concrètes, là, tout de suite. Comment transformer ces théories en stratégies d'entreprise ? C'est ce que nous allons voir avec notre guide de survie Spentia en 5 points.
- Speaker #2
C'est la question ! Un des articles qu'on a étudié propose une feuille de route très concrète en 5 points. Un vrai guide de survie.
- Speaker #1
Ah, ça m'intéresse. Le premier point.
- Speaker #2
C'est-à-dire ?
- Speaker #1
Exactement. Il faut utiliser des couches d'abstraction. L'idée, c'est de pouvoir demain changer de moteur d'IA sans savoir à tout reconstruire.
- Speaker #2
D'accord. Point numéro 2.
- Speaker #1
Il est presque contre-intuitif aujourd'hui. Il dit « Considérez vos données structurées comme votre seul actif vraiment durable » .
- Speaker #2
C'est intéressant. À l'heure où tout le monde ne jure que par les teraoctets de données non structurées.
- Speaker #1
Les modes de l'IA passent, mais un graphe de connaissances bien construit, des données bien annotées, c'est le socle des architectures de demain, notamment neurosymboliques. C'est là qu'est la vraie valeur. D'accord. Le troisième point doit concerner les équipes, j'imagine.
- Speaker #2
Oui. Développer des compétences hybrides. Les équipes de demain devront maîtriser à la fois le machine learning,
- Speaker #1
la statistique et la logique formelle.
- Speaker #2
Une double culture.
- Speaker #1
Indispensable.
- Speaker #2
Le quatrième point, c'est du bon sens. Calibrer le risque par secteur.
- Speaker #1
Utiliser le bon outil pour la bonne tâche.
- Speaker #2
Voilà, on peut utiliser les LLM pour aider à la rédaction marketing où une erreur n'est pas critique. Mais pour un diagnostic médical ou une décision de crédit, il faut exiger la traçabilité des approches hybrides ou symboliques.
- Speaker #1
Et le dernier point ?
- Speaker #2
Changer de posture vis-à-vis des fournisseurs. Il faut les challenger, arrêter d'être impressionné et poser les questions difficiles.
- Speaker #1
Comme par exemple ?
- Speaker #2
Comment gérez-vous les hallucinations ? Quelle est votre feuille de route vers le neurosymbolique ? Pouvez-vous me garantir qu'une décision critique est traçable ?
- Speaker #1
Ne pas se laisser aveugler par la technique.
- Speaker #2
Si je résume ce guide de survie, le message est assez clair. L'enjeu n'est pas tant de deviner qui va gagner la course.
- Speaker #1
Non, c'est impossible.
- Speaker #2
Mais de construire une organisation assez agile, avec des fondations assez solides, pour pouvoir intégrer le vainqueur, quel qu'il soit.
- Speaker #1
C'est la seule stratégie vraiment viable face à cette incertitude.
- Speaker #2
Et ça nous amène à une dernière réflexion. Peut-être pour prendre un peu d'auteur.
- Speaker #1
Je vous écoute.
- Speaker #2
Tout ce débat se concentre sur l'architecture technique, le comment. Mais si on écoute bien Sutton, qui parle du manque de but, et Lecune, qui parle du coût intrinsèque, il pointe vers une question plus fondamentale.
- Speaker #1
Une question qui n'est plus seulement technique ?
- Speaker #2
Non.
- Speaker #1
Au-delà de comment UNIA pense, la vraie question stratégique à long terme pourrait être quel but ultime, quel coût intrinsèque allons-nous inscrire au cœur de ces systèmes ? Au fond, le véritable enjeu d'alignement... bien plus important que le choix entre un LLM et un world model, ne serait-il pas de définir avec soin ces motivations profondes que nous allons confier à des intelligences non humaines ? C'est sur cette question que nous allons conclure notre analyse.
- Speaker #0
Et c'est sur cette note presque philosophique que nous terminons cet épisode. On retient donc que la technologie, aussi puissante soit-elle, n'est rien sans une direction claire et des valeurs définies par l'humain. L'agilité plutôt que la prédiction, la structure des données plutôt que la course au modèle le plus gros, vous avez désormais les clés pour naviguer dans cette année 2026. Merci d'avoir écouté Les Signes du Changement. Si cet épisode vous a aidé à y voir plus clair, pensez à le partager à vos équipes ou à laisser une note sur votre plateforme d'écoute. On se retrouve très vite pour décrypter ensemble la prochaine vague technologique. À bientôt !