- Speaker #0
Bienvenue à toutes et à tous pour cette nouvelle exploration. Aujourd'hui, on plonge dans l'univers d'un penseur qui bouscule pas mal, Nassim Nicolas Taleb.
- Speaker #1
Ah oui, Taleb, difficile de rester indifférent.
- Speaker #0
Exactement. Et pour vous mettre direct dans le bain, une de ses idées fortes, refuser un pari qui, sur le papier, a l'air gagnant, ça peut être parfaitement rationnel. Carrément contre-intuitif, non ?
- Speaker #1
Complètement. Ça va à l'encontre de beaucoup de théories classiques.
- Speaker #0
On va donc essayer de décortiquer ensemble cette pensée qui remet en question nos idées sur le risque, le hasard et même la façon dont on prend nos décisions. Et pour nous guider, on s'appuie sur une transcription, un entretien assez récent avec Taleb qu'on a trouvé sur la chaîne YouTube Joseph Noël Walker. Alors, prêt à voir les choses sous un autre angle.
- Speaker #1
Carrément. L'idée, c'est vraiment d'aller chercher l'essence de ces concepts, les trucs fondamentaux. On va parler des limites, des stats habituelles. Vous savez, la fameuse courbe en cloche, le monde gentil des gaussiens.
- Speaker #0
Le médiocristan, comme il dit.
- Speaker #1
Voilà. Et on va explorer son extrémistan. Le monde des événements rares, mais aux conséquences énormes. Et puis bien sûr, on ne va pas se priver d'aborder ces critiques, parfois assez vives, de l'économie comportementale ou des prévisions.
- Speaker #0
Oui, il ne mâche pas ses mots.
- Speaker #1
Non. Mais ce sont des outils super importants, je crois, pour naviguer dans le monde complexe d'aujourd'hui. Vraiment.
- Speaker #0
Bon, alors commençons par la base. Cette fameuse distinction qu'il fait tout le temps, extrémistan contre médiocristan, c'est quoi exactement ?
- Speaker #1
Alors, le médiocristan ?
- Speaker #0
Si je peux me permettre. C'est un peu le monde où les choses varient, mais sans excès délirant. L'exemple qu'il donne souvent, c'est la taille humaine.
- Speaker #1
Oui, c'est ça.
- Speaker #0
Même la personne la plus grande du monde, elle ne va pas faire 3 km de haut. Il y a des limites, quoi. Les extrêmes sont contenus.
- Speaker #1
Exactement. C'est le domaine où les outils statistiques classiques, la moyenne, l'écart-type, la courbe en cloche, ça fonctionne plus ou moins. C'est prévisible, dans une certaine mesure.
- Speaker #0
Et l'extrémistan, alors ?
- Speaker #1
Ah, l'extrémistan ! Là, on change de dimension. C'est le royaume des signes noirs, ou comme il préfère dire maintenant, des déviations extrêmes.
- Speaker #0
Pourquoi déviations extrêmes, plutôt que signes noirs ?
- Speaker #1
Je pense qu'il veut insister sur le fait que ce n'est pas juste l'événement imprévu, mais l'ampleur de son impact qui est clé. et que ça fait partie de la nature même du système, pas juste une anomalie totale.
- Speaker #0
D'accord.
- Speaker #1
Dans ce monde-là, un seul événement, même très rare, peut avoir un impact qui écrase tout le reste. Pensez au crash boursier, au succès viral d'une vidéo, à la fortune d'un auteur de best-seller. Il n'y a pas de plafond évident, pas de limite physique claire.
- Speaker #0
Et le truc qui frappe, c'est sa recommandation « Dans le doute, partez du principe que vous êtes toujours en extrémistan » . C'est un peu radical, non ?
- Speaker #1
C'est radical, mais ça repose sur une logique d'asymétrie. Pourquoi cette prudence extrême ? Parce que observer une longue période de calme, genre des années sans crash majeur, ça ne prouve rien sur la nature du système.
- Speaker #0
Ah oui, pourquoi ?
- Speaker #1
Parce que les événements extrêmes sont rares par définition, donc c'est normal de ne pas les voir souvent. Par contre, il suffit d'un seul, d'un unique événement extrême pour pulvériser un modèle qui disait « ça ne peut pas arriver » , un modèle gaussiant quoi.
- Speaker #0
Donc le pari le plus sûr, c'est de se méfier.
- Speaker #1
Exactement, c'est de supposer des queues épaisses. c'est-à-dire une probabilité non nulle, voire significative, d'événements très très loin de la moyenne, sauf si on a une preuve vraiment vraiment solide qu'on est dans un domaine borné, un médiocristant.
- Speaker #0
D'accord. Mais concrètement, comment on sait où on est ? Comment distinguer un domaine sage d'un domaine sauvage ?
- Speaker #1
Alors, son critère, c'est souvent de chercher des contraintes physiques, biologiques, naturelles. Le poids d'un animal, la hauteur d'un arbre, la température du corps humain. Ça a des limites intrinsèques.
- Speaker #0
Ok.
- Speaker #1
Par contre... Dès qu'on entre dans le social, l'économique, le technologique, là où il y a des effets de réseau, des contagions, des phénomènes multiplicatifs...
- Speaker #0
Genre la popularité sur les réseaux sociaux, le prix d'une action...
- Speaker #1
Voilà, tout ça. Là, il n'y a pas de limite évidente a priori. Et donc la prudence, c'est de suspecter l'extrémistan. L'accent de borne claire, c'est un drapeau rouge.
- Speaker #0
Et c'est pour ça qu'il critique autant les modèles financiers classiques qui utilisent la courbe en cloche.
- Speaker #1
Précisément. C'est le cœur du problème. Appliquer ces modèles gaussiens qui sont bâtis sur l'idée d'une variance connue, limitée, à des domaines comme la finance, où l'impact d'un événement peut être virtuellement sans limite, c'est dangereux. C'est comme il dit, construire un barrage en pensant que la pire inondation sera juste un peu plus forte que la dernière.
- Speaker #0
Jusqu'à ce que la vraie méga-crue arrive.
- Speaker #1
Et là, tout saute. Exactement.
- Speaker #0
Mais ce n'est pas juste de la théorie pour lui, il l'a vécu comme trader. Racontez-nous un peu ça.
- Speaker #1
Oui, et c'est ça qui lui donne une crédibilité particulière, je trouve. Il raconte que bien avant le crash de 87, genre dès 1985, il voyait des mouvements sur les marchés, des sauts, qui étaient tellement énormes. Il parle d'événements à 10 sigma.
- Speaker #0
10 sigma, ça veut dire quoi en clair ?
- Speaker #1
En gros, selon les modèles standards de l'époque, c'était des événements qui ne devaient se produire qu'une fois tous les... Enfin, l'âge de l'univers n'y suffirait pas. C'était jugé quasi impossible.
- Speaker #0
Ah oui, quand même.
- Speaker #1
Et lui, il les voyait arriver. Donc il s'est dit, attendez, il y a un truc qui cloche fondamentalement dans ces modèles. Les outils comme Black Scholes, qui servent à calculer le prix des options, ils sous-estimaient massivement le risque de ces événements extrêmes.
- Speaker #0
Ce qui signifie que les options qui protègent contre ces gros mouvements, les options très En dehors de la monnaie,
- Speaker #1
oui, les tail options,
- Speaker #0
elles étaient vendues beaucoup trop bon marché par rapport au risque réel.
- Speaker #1
Exactement. Il y avait une mauvaise évaluation collective du risque. Et il a vu ça comme une opportunité, bien sûr. Mais la question, c'est pourquoi cette erreur persistait ? Pourquoi le marché ne corrigeait pas ?
- Speaker #0
Oui, bonne question.
- Speaker #1
Thalé pointe deux raisons principales. D'abord, le poids des théories académiques enseignées en boucle dans les MBA qui reposent sur ces modèles simplificateurs gaussiens. C'est ancré dans les têtes.
- Speaker #0
Ok. L'inertie intellectuelle.
- Speaker #1
Voilà. Et deuxièmement, et c'est peut-être le plus important, les incitations institutionnelles. La façon dont les gérants de fonds sont payés.
- Speaker #0
Qu'est-ce que vous entendez par incitation ? Leur bonus ?
- Speaker #1
Oui, entre autres. Un gérant est souvent jugé sur sa performance à court terme, trimestre après trimestre. Pour montrer des chiffres positifs réguliers, c'est très tentant de vendre de la volatilité.
- Speaker #0
Vendre de la volatilité. En gros, parier que rien de grave ne va se passer. Vendre des assurances contre les crashs, par exemple, ça rapporte des petites primes régulièrement tant que le marché reste calme. Ça fait joli sur le reporting trimestriel.
- Speaker #1
Ah, je vois, on encaisse les primes.
- Speaker #0
Jusqu'au jour où l'événement extrême arrive. Et là, non seulement ça efface tous les petits gains accumulés, mais ça peut faire sauter la banque. Alors qu'acheter une protection, une assurance, ça coûte de l'argent tous les jours, ça pèse sur la performance immédiate. Donc le système pousse structurellement à prendre des risques énormes, mais qui ne sont pas les mêmes. caché. Essaye de modéliser très précisément la forme de ces risques extrêmes, non ? Cette histoire de loi semi-cubique.
- Speaker #1
Ah oui, il se méfie énormément des théories trop jolies, trop précises. Quelqu'un a avancé que la distribution des rendements financiers suivrait une loi de puissance avec un exposant pile de 3. Une loi semi-cubique.
- Speaker #0
Et lui, il n'y croit pas.
- Speaker #1
Il trouve ça suspect. Pour lui, les données historiques sont trop courtes, trop bruitées, pleines d'aléas pour pouvoir affirmer un chiffre aussi précis. Et surtout, il regarde des phénomènes récents, genre la taille complètement folle de certaines boîtes tech.
- Speaker #0
Les GAFA, mes compagnies.
- Speaker #1
Il se dit que ça suggère peut-être des queues encore plus épaisses, des risques encore plus fous, que ce que même ces modèles améliorés prédisent. Il préfère une approche plus robuste, moins précise sur le papier, mais qui résiste mieux à l'inconnu et aux surprises.
- Speaker #0
Et cette approche le conduit à critiquer aussi le monde du capital risque, le fameux VC. Il n'y voit pas que des gentils investisseurs qui financent l'innovation.
- Speaker #1
C'est le moins qu'on puisse dire. Pour lui, le modèle dominant du WC aujourd'hui, c'est souvent moins un pari sur le succès économique réel d'une boîte, sa capacité à faire des bénéfices durables, qu'une sorte de mécanisme de compensation. Un jeu de passe-passe.
- Speaker #0
Un jeu de passe-passe ?
- Speaker #1
Oui, l'idée c'est ça. On prend une idée, on l'emballe bien, on lève de l'argent à une certaine valorisation, disons X, Puis, le but, c'est de raconter une histoire encore plus belle pour convaincre d'autres investisseurs de mettre plus d'argent à une valo de 2x puis 5x, etc. C'est ce qu'on appelle parfois l'approche du « greater fool » , le plus grand imbécile.
- Speaker #0
On compte sur le fait qu'il y aura toujours quelqu'un pour acheter plus cher après nous.
- Speaker #1
C'est un peu ça, l'idée. Et pendant ce jeu de valorisation croissante, les premiers investisseurs, les fondateurs, peuvent vendre une partie de leurs actions et empocher le pactole. Même si l'entreprise elle-même ne gagne jamais un euro de bénéfice net. La compétence plie, dans cette vision, c'est moins l'ingénierie ou la gestion que le marketing, le packaging, la capacité à vendre du rêve, de l'espoir. Surtout quand l'argent est facile et pas cher, comme ça a été le cas avec les Ausha pendant longtemps. C'est une critique assez féroce quand même.
- Speaker #0
Clairement. Et toute cette réflexion sur le risque, sur les modèles, ça l'amène à être très critique envers d'autres domaines aussi. Je pense à l'économie comportementale. Qui a pourtant eu un succès fou avec le Nobel pour Kahneman.
- Speaker #1
Oui, alors là, sa relation avec ce champ est complexe et a beaucoup évolué. Au début, dans Le hasard sauvage, il citait Kahneman, il semblait plutôt apprécier leurs travaux sur les biais cognitifs face aux probabilités. Ça collait bien avec ses propres idées.
- Speaker #0
Et puis ?
- Speaker #1
Et puis, le ton a radicalement changé. Il est devenu l'un de leurs critiques les plus systématiques et les plus virulents.
- Speaker #0
Mais pourquoi ? Qu'est-ce qu'il leur reproche fondamentalement ?
- Speaker #1
Il y a deux grands types de critiques, si on simplifie. La première, c'est que l'économie comportementale d'après Taleb, passe complètement à côté de la structure probabiliste du monde réel. Justement, cette histoire de queues épaisses.
- Speaker #0
C'est-à-dire ?
- Speaker #1
La plupart des expériences célèbres de Kahneman, Tversky, Thaler, elles sont menées dans un cadre très contrôlé, très médiocristant, avec des gains et des pertes bien définis, des probabilités fixes données à l'avance. Taleb dit, mais ça, c'est pas la vraie vie.
- Speaker #0
Donnez-nous un exemple concret.
- Speaker #1
Prenons le probability matching, une expérience classique. On dit aux gens qu'une lumière verte s'allume 60% du temps, Une rouge. 40%. La théorie rationnelle dit qu'il faut toujours parier sur la verte.
- Speaker #0
Logique, pour maximiser les gains.
- Speaker #1
Sauf que les gens, en pratique, ils ont tendance à parier sur la verte 60% du temps et sur la rouge 40% du temps. L'économie comportementale dit « Voyez, ils sont irrationnels » .
- Speaker #0
Et Taleb, il dit quoi ?
- Speaker #1
Il dit « Attendez. En se basant sur les travaux comme ceux de Kelly, le critère de Kelly, utilisé en pari et investissement, il montre que si le jeu se répète dans le temps et si on veut survivre sans faire faillite, Cette stratégie d'imiter les fréquences peut être la plus robuste, voire optimale.
- Speaker #0
Ah, intéressant.
- Speaker #1
Autre exemple, la fameuse théorie des perspectives. Elle décrit super bien comment on pèse différemment les gains et les pertes. Mais elle suppose qu'on connaît les probabilités et les montants exacts. Or, dans l'extrémistan, on ne connaît ni l'un ni l'autre. Le risque de perte, ce n'est pas un montant fixe sur un ticket de loterie. Ça peut être tout perdre, voire plus. Donc le cadre de la théorie ne s'applique pas directement au monde réel, selon lui.
- Speaker #0
D'accord. Donc, première critique, ils oublient les queues épaisses et la vraie nature du risque. Et la deuxième grande critique ?
- Speaker #1
Ta deuxième, c'est qu'ils ignorent la dimension temporelle et la dynamique. Et un concept clé pour Taleb, l'ergodicité.
- Speaker #0
L'ergodicité, oula ! Expliquez simplement.
- Speaker #1
Bon, en gros, l'idée c'est, est-ce que la moyenne des résultats de plein de gens qui jouent une fois, c'est la même chose que le résultat moyen d'une seule personne qui joue plein de fois ?
- Speaker #0
Ben oui, non ? Intuitivement ?
- Speaker #1
Pas forcément. Parce que la personne qui joue plein de fois, elle, elle peut faire falide en cours de route. Elle peut être ruinée et éliminée du jeu. La survie est une contrainte qui n'existe pas quand on regarde juste une photo de plein de gens à un instant T. Le parcours individuel dans le temps a ses propres règles.
- Speaker #0
Et c'est là qu'intervient cette histoire du pari à 55% de gain qu'il faudrait refuser. Taller ne comprenait pas ça, c'est ça ?
- Speaker #1
Exactement. Taller trouvait aberrant qu'on refuse un pari unique qui a, disons, 55% de chance de gagner 100 euros et 45% de chance de perdre 100 euros. Statistiquement, l'espérance est positive.
- Speaker #0
Oui, on devrait sauter dessus.
- Speaker #1
Mais Taleb dit, ok, mais si on vous propose ce pari tous les jours, même avec une petite probabilité de perte, à chaque fois, si vous jouez assez longtemps, il y a un risque non négligeable de tout perdre, de finir sur la paille. C'est le problème de la ruine du joueur, l'uncle point.
- Speaker #0
Ce qui semble irrationnel sur un seul coup, peut devenir une stratégie de survie essentielle quand on regarde le long terme.
- Speaker #1
Donc, la vraie rationalité pour Taleb, c'est pas de maximiser le gain à court terme sur le papier. C'est d'abord et avant tout assurer sa survie. Ne pas être éliminé du jeu. Ne pas faire faillite. C'est ça la rationalité fondamentale.
- Speaker #0
Du coup, ça renraisse la perspective. Beaucoup de biais décrits par l'économie comportementale pourraient être en fait des stratégies de survie, des formes de sagesse pratiques.
- Speaker #1
C'est exactement sa thèse. Prenez la comptabilité mentale. Les économistes disent C'est irrationnel de traiter différemment l'argent qu'on vient de gagner au casino et l'argent qu'on avait en arrivant. Taleb répond, mais c'est super malin. Ça veut dire qu'on protège son capital de départ, son noyau dur, et on ne prend des risques qu'avec des gains récents, l'argent de la maison. C'est une règle de prudence élémentaire pour éviter la ruine.
- Speaker #0
Fascinant ! La rationalité vue comme une stratégie de survie et non comme une optimisation mathématique.
- Speaker #1
Tout à fait. Et c'est pour ça qu'il dit que les axiomes de rationalité des économistes, genre la transitivité des préférences, si je préfère A à B et B à C, alors je dois préférer A à C, sont secondaires. Voir, dans certains cas, ils pourraient même être contre-productifs pour la survie.
- Speaker #0
Et il n'hésite pas à critiquer ceux qui ont promu des politiques basées sur ces idées d'économie comportementale ?
- Speaker #1
Effectivement. Il s'en prend souvent à Kassenstein et Richard Thaler. Il leur reproche d'avoir poussé des politiques publiques Il cite par exemple certaines configurations de plans retraite aux US, les 401K, ou la gestion initiale de la pandémie de Covid, qui selon lui reposait sur une mauvaise compréhension des risques extrêmes, une vision trop médiocristante des choses, une implication de modèles inadaptés à des problèmes systémiques.
- Speaker #0
Et Kahneman lui-même, il a réagi à ces critiques de Taleb ?
- Speaker #1
Oui, et c'est intéressant. Vers la fin de sa vie, Kahneman a reconnu publiquement que ses travaux s'appliquaient sans doute moins bien dans le monde de Taleb. se montrent des queues épaisses.
- Speaker #0
Ah bon ?
- Speaker #1
Oui. Taleb y voit une marque d'eunecté intellectuelle de la part de Kahneman, tout en glissant, avec sa malice habituelle, que Kahneman avait peut-être aussi un peu peur de ses critiques.
- Speaker #0
Tout ce champ de l'économie comportementale.
- Speaker #1
Pas grand-chose, honnêtement. Il admet que l'observation centrale de la théorie des perspectives, le fait qu'une perte nous fait plus mal que le plaisir d'un gain équivalent, est probablement vraie et importante. L'asymétrie de la fonction de perte. Mais pour le reste, il est extrêmement critique.
- Speaker #0
Ok. Passons à un autre domaine où il est très sceptique, la prévision. Et notamment ces projets de super forecasting type Philippe Tetlock qui essaie d'identifier les meilleurs prévisionnistes. Pourquoi ça ne lui plaît pas ?
- Speaker #1
Plusieurs raisons. D'abord, il fait une distinction cruciale entre prévoir un résultat binaire, oui-non, qui va gagner l'élection, et prévoir l'ampleur des conséquences.
- Speaker #0
Le fameux payoff.
- Speaker #1
Exactement. Les super prévisionnistes sont peut-être bons pour dire si Poutine va envahir l'Ukraine ou non. Mais Taleb, en tant qu'ancien trader d'options, dit « Ce qui compte vraiment, c'est si ça arrive, ça va faire quoi ? Quel sera l'impact ? » On peut avoir raison 9 fois sur 10 en prédisant que le marché va monter et être totalement ruiné la dixième fois si la baisse est gigantesque. Il appelle ça être « short payoff » , avoir raison sur la probabilité mais tort sur l'impact potentiel.
- Speaker #0
Il leur reproche aussi de se concentrer sur des choses pas très importantes au final.
- Speaker #1
Oui, c'est son deuxième argument. Il trouve que les questions sur lesquelles les super-prévisionnistes excellent, qui va gagner telle élection partielle, quel sera le taux de croissance au prochain trimestre, appartiennent souvent aux médiocristans. Ce sont des événements dont l'impact est limité.
- Speaker #0
Ils sont bons pour prévoir le prévisible, en quelque sorte ?
- Speaker #1
Voilà. Et donc, pour Taleb, il se focalise sur l'inconséquent, en passant à côté des vrais événements transformateurs, des vrais signes noirs ou déviations extrêmes, qui eux façonnent l'histoire, mais sont par nature beaucoup plus difficiles, voire impossibles à prévoir.
- Speaker #0
Et il mentionne aussi l'absence d'échelle caractéristique. Qu'est-ce que ça veut dire ?
- Speaker #1
C'est une idée qu'il reprend de Mandelbrot, le père des fractales. Dans l'extrémistan, il n'y a pas de taille typique pour les grands événements. Prenez les guerres, les pandémies, les crashes financiers. Leur ampleur, le nombre de morts, la perte économique, n'est pas une valeur fixe ou prévisible autour d'une moyenne. C'est elle-même une variable aléatoire qui suit une loi à que zépasse.
- Speaker #0
Donc prévoir une guerre sans savoir si elle sera mineure ou cataclysmique ?
- Speaker #1
Ça n'a pas grand intérêt pratique, selon Taleb. La magnitude est essentielle et elle est imprévisible dans ces domaines.
- Speaker #0
Et ça rejoint son concept de chadomine, la moyenne cachée. L'idée que nos observations passées sous-estiment le vrai risque.
- Speaker #1
Tout à fait. C'est une idée très importante. Imaginez que vous étudiez les données historiques sur les séismes dans une région. Si votre historique ne couvre que 50 ans, vous allez calculer une moyenne moyenne basée sur les petites secousses fréquentes.
- Speaker #0
Ok.
- Speaker #1
Mais vous allez probablement rater le bégouane, le méga-séisme qui n'arrive que tous les 500 ans. Si vous l'incluez dans vos calculs, la vraie moyenne du risque serait beaucoup, beaucoup plus élevée. La moyenne que vous observez dans votre échantillon limité, le shadow min, est une ombre, une sous-estimation systématique de la vraie moyenne du processus sous-jacent. Justement parce que les événements extrêmes qui tirent la moyenne vers le haut sont rares et donc souvent absents de l'échantillon.
- Speaker #0
C'est pour ça qu'il dit que se fier aux données historiques récentes peut être super dangereux.
- Speaker #1
Exactement. Surtout dans les domaines à queue épaisse.
- Speaker #0
Et il applique ça aux guerres. Affirmer que 80 ans de paix relative en Europe occidentale, ça ne dit rien statistiquement sur l'avenir. C'est quand même fou.
- Speaker #1
C'est déstabilisant, mais c'est ce que ses recherches avec Pasquale et Sirio indiquent. Ils ont analysé des siècles de données sur les conflits. Résultat, le nombre de morts dans les guerres suit une loi de puissance avec un exposant très bas, donc des queues très... très épasse. Encore pire, le temps entre les guerres majeures semble suivre une loi exponentielle.
- Speaker #0
Exponentielle, ça veut dire quoi ici ?
- Speaker #1
Ça veut dire sans mémoire. Chaque jour qui passe sans guerre ne rend pas la prochaine guerre moins probable. C'est comme lancer un dé. Le fait qu'il n'ait pas fait 6 pendant 10 lancers ne change rien à la probabilité d'avoir un 6 au 11e lancé. Donc ces 80 ans de paix ne nous donnent aucune information statistique fiable sur une éventuelle diminution de la violence systémique. D'après leurs calculs, il faudrait environ 300 ans de paix ininterrompue pour pouvoir commencer à suspecter que quelque chose a fondamentalement changé dans le processus générateur de guerre.
- Speaker #0
300 ans, c'est vertigineux. Alors, face à cette incertitude radicale, que faire ? Il parle beaucoup du principe de précaution, mais pas n'importe comment.
- Speaker #1
Oui, il défend un principe de précaution qu'il qualifie de non naïf. Il ne s'agit pas du tout de dire « mon » à toute innovation ou à tout risque. Sa version est très ciblée. Elles s'appliquent spécifiquement aux actions, aux technologies qui introduisent des risques systémiques, c'est-à-dire qu'ils peuvent affecter tout le système.
- Speaker #0
Ok.
- Speaker #1
Des risques irréversibles, dont on ne peut pas revenir en arrière. Et des risques potentiellement multiplicatifs ou à propagation rapide qui peuvent s'emballer. C'est cette combinaison qui déclenche son alarme de précaution.
- Speaker #0
Vous avez des exemples pour illustrer la différence ?
- Speaker #1
Oui, il fait des distinctions claires. La recherche sur les OGM en laboratoire confiné, pas de problème majeur pour lui. Mais leur dissémination à grande échelle dans la nature, là oui, principe de précaution. Car les conséquences écologiques globales sont inconnues. potentiellement irréversible et systémique.
- Speaker #0
D'accord.
- Speaker #1
Autre exemple, l'énergie nucléaire. Ils considèrent que même si un accident est grave, les dommages restent relativement localisés. Ce n'est pas un risque multiplicatif global. Par contre, une pandémie, qu'elle soit naturelle ou issue d'une manipulation en labo, c'est l'archétype du risque systémique, multiplicatif et potentiellement irréversible à grande échelle. Là, la précaution maximale s'impose.
- Speaker #0
Et l'intelligence artificielle alors ? C'est le grand sujet du moment, avec beaucoup de crainte.
- Speaker #1
Eh bien, sur l'IA, il est beaucoup plus mesuré, voire sceptique, quant à l'application actuelle du principe de précaution. Pour l'instant en tout cas.
- Speaker #0
Ah bon ? Pourquoi ?
- Speaker #1
Il ne voit pas encore de risque systémique et irréversible du même ordre que les OGM disséminés ou les pandémies globales. Les scénarios où l'IA devient super intelligente et prend le contrôle, ça lui paraît relever de la spéculation, de la science-fiction pour le moment. Et il a cette pique. Un robot sait à peine monter les escaliers et on s'inquiète qu'il prenne le contrôle du monde.
- Speaker #0
Un peu provocateur comme souvent ?
- Speaker #1
Oui, et il doute aussi que les IA actuelles, qui sont essentiellement des machines à détecter des motifs statistiques dans des normes bases de données, puissent faire de vraies découvertes scientifiques révolutionnaires.
- Speaker #0
Pourquoi ?
- Speaker #1
Parce que, dit-il, la science progresse souvent en trouvant l'exception, l'anomalie, ce qui ne colle pas avec le consensus. Alors que ces IA sont conçues pour trouver le schéma le plus probable, pour refléter et renforcer le consensus présent dans les données sur lesquelles ils sont entraînés. C'est presque l'inverse de la démarche scientifique fondamentale, selon lui.
- Speaker #0
C'est un point de vue intéressant et à contre-courant. Bon, si on essaie de synthétiser tout ça, quels seraient les grands messages à emporter de cette plongée dans l'univers de Taleb ?
- Speaker #1
Alors je dirais, premièrement, la prise de conscience. Le monde est peut-être beaucoup plus extrémistant, beaucoup plus sujet au choc extrême, que ce que nos modèles habituels et notre intuition nous disent. C'est le point de départ.
- Speaker #0
D'accord. Conscience du risque extrême.
- Speaker #1
Deuxièmement, la méfiance. Méfiance envers les prévisions chiffrées, surtout à long terme, dans les domaines complexes, économie, géopolitique. Méfiance envers les experts qui affichent une trop grande confiance dans leur modèle. Surtout s'ils ignorent les queues épaisses.
- Speaker #0
Scepticisme éclairé.
- Speaker #1
Troisièmement, repenser la rationalité. Comprendre que ce qui est vraiment rationnel, ce n'est pas forcément l'optimisation théorique à court terme, mais ce qui assure la survie et la robustesse sur le long terme. L'importance de l'ergodicité, éviter la ruine.
- Speaker #0
Rationalité égale survie.
- Speaker #1
Voilà. Et enfin, quatrièmement, la précaution ciblée. Face aux risques qui sont à la fois systémiques, irréversibles et potentiellement multiplicateurs, la prudence extrême n'est pas une option, c'est une nécessité logique. Son principe de précaution non naïf.
- Speaker #0
Et pour les personnes qui nous écoutent, qu'est-ce que ça change d'avoir cette grille de lecture en tête au quotidien ?
- Speaker #1
Je pense que ça change pas mal de choses. Déjà, ça donne des outils pour être plus critique face aux informations qu'on reçoit, aux analyses qu'on lit, aux discours politiques ou économiques qui simplifient à outrance ou ignorent ces dynamiques de risque.
- Speaker #0
On repère mieux les angles morts.
- Speaker #1
Exactement. On voit plus facilement les failles dans les raisonnements basés sur des moyennes trompeuses ou des prévisions trop sûres d'elles. Et puis, au niveau plus personnel ou professionnel, ça peut inciter à chercher plus de robustesse, de marge de sécurité, de redondance. À éviter de se mettre dans des situations où un seul gros pépin peut tout faire s'écrouler. C'est une invitation à être plus résilient, quoi.
- Speaker #0
Une pensée pour être plus robuste dans un manque incertain. C'est passionnant. Pour conclure, j'aimerais proposer une dernière idée de Taleb, un peu comme une devinette pour la route. On connaît tous l'adage « corrélation n'est pas causalité » .
- Speaker #1
Oui, un classique.
- Speaker #0
Mais Taleb, parfois, il va plus loin. Il lance « corrélation n'est pas corrélation » .
- Speaker #1
Ah oui, ça c'est du Taleb plurieux.
- Speaker #0
Qu'est-ce qu'il peut bien vouloir dire par là ? Ça laisse entendre que même cet outil de base de l'analyse de données, la mesure de la corrélation entre deux variables, cette mesure elle-même serait instable, fragile, très dépendante de l'échantillon qu'on regarde, surtout dans ces systèmes complexes, non linéaires, avec des queues épaisses.
- Speaker #1
C'est exactement ça l'idée. La corrélation qu'on mesure sur une période donnée peut être complètement différente, voire s'inverser, sur une autre période, surtout s'il y a des événements extrêmes. Ce n'est pas une propriété stable du système.
- Speaker #0
Alors si même la corrélation n'est pas une mesure fiable, qu'est-ce que ça nous dit sur notre capacité à réellement comprendre les liens entre les choses dans le monde complexe qui nous entoure ? Ça laisse songeur ?
- Speaker #1
Ça remet en question beaucoup de nos certitudes sur l'analyse de données. De quoi méditer, effectivement.