- Speaker #0
En janvier 2025, un petit livre est sorti en Italie. L'auteur en est un jeune philosophe chinois de Hong Kong, Jianwei Jun. Il s'agissait de sa première traduction en langue étrangère. Entre-temps, l'essai a été publié aussi en français et dans d'autres langues. Le livre a fait immédiatement beaucoup de bruit. Journaux, télévision, références dans les conversations online et offline. Il a de toute évidence touché un air à vif. Comme on a essayé de le décrire dans les épisodes précédents, notre société baigne dans la surproduction de réalité, où les technologies, notamment les réseaux sociaux et l'intelligence artificielle, déterminent de plus en plus notre relation au monde et aux autres. Certains de leurs codes sont explicites, comme l'objectif de nous rendre accros, d'autres sont dissimulés, tels que la manipulation algorithmique. Entreprise et politiciens se servent de cette dynamique et en abusent, secondés dans l'ombre par ce que l'écrivain Giuliano da Empoli appelle « les ingénieurs du chaos » . Dans cette confusion, les justes mots peuvent aider à s'orienter, comme un phare dans la tempête. Et Jun a trouvé le bon mot. Son livre s'intitule « Hypnocratie » . Il y décrit, je cite, « le nouveau régime de réalité dans lequel nous vivons » . un système où le pouvoir n'opère plus par la force ou la persuasion rationnelle, mais par la modulation directe et algorithmique des états de conscience collectifs. Les plateformes numériques, et les chatbots, dit-il, se révèlent pour ce qu'ils sont, non pas des outils de communication, mais des systèmes hypnotiques qui fondent ce qu'il appelle une architecture de la suggestion, et remodèlent activement la façon dont nous percevons et interprétons la réalité.
- Speaker #1
L'hypnocratie est le premier régime qui agit directement sur la conscience. Elle ne contrôle pas les corps, elle ne réprime pas les pensées. Elle induit plutôt un état de trance permanente, un sommeil lucide, une trance fonctionnelle. L'éveil a été remplacé par le rêve guidé, la réalité par la suggestion continue. Avec la submersion des sens par des stimuli constants, l'esprit critique est doucement endormi et la perception est remodelée. couche par couche. Pendant ce temps, les écrans ne cessent de briller dans la nuit de la raison.
- Speaker #0
L'idée d'hypocratie est radicale et même inconfortable. Mais dans la pénurie de notions qui nous aident à organiser notre expérience contemporaine, elle offre un cadre de lecture puissant. Elle prend en compte tant la manipulation algorithmique de la perception que la manipulation politique de l'attention, celle de la perception. opérée par exemple par le président américain Donald Trump et son flux incessant d'annonces, de provocations et d'actions outrancières. Elle aide également à expliquer pourquoi les réponses rationnelles n'ont que peu de prise.
- Speaker #1
Alors que la plupart des analystes se concentrent encore sur des phénomènes tels que les fake news ou la post-vérité, à Washington, nous assistons à une transformation bien plus profonde, l'émergence d'un système où le contrôle s'exerce non pas en réprimant la vérité, mais en multipliant les récits au point que tout point fixe devient impossible.
- Speaker #0
La photo de Trump en pape, le bras droit levé dans un salut nazi ou pas nazi de Elon Musk, la théâtralité des déportations d'immigrés, le non-respect des décisions judiciaires, chaque provocation fonctionne comme ce que Hsu appelle un séparateur de réalité, qui brise le contexte partagé et crée des univers interprétatifs parallèles. et placent les observateurs en fonction de leurs convictions préexistantes dans des bulles de réalité distinctes et irréconciliables.
- Speaker #1
Alors que les critiques continuent à opposer des arguments rationnels, des données et un raisonnement logique, ils ignorent totalement que le pouvoir contemporain opère désormais exclusivement par la modulation des états de conscience. Leurs critiques restent prisonnières du modèle de communication des Lumières, où la vérité doit triompher par son mérite intrinsèque. sans comprendre qu'elle est désormais un produit esthétique, une expérience collective générée par la répétition, l'émotion et la suggestion d'une réalité algorithme.
- Speaker #2
Le DevTech Podcast fait partie du programme de prospective technologique d'Arma Suisse Sciences et Technologies. Je suis Quentin Ladetto, responsable de ce dispositif de recherche. Notre mission est d'anticiper les avancées technologiques et leurs usages au service des acteurs du Département fédéral suisse de la Défense, de la protection de la population et des sports, mais également du public. Dans cette première série de six épisodes intitulée « La menace cognitive » , j'ai demandé à Bruno Giussani expert des impacts sociopolitiques des technologies numériques, de décrypter les défis de l'intégrité et de la sécurité cognitive. Avec l'aide d'experts, et aussi de quelques voies artificielles dont ce sera à vous de deviner lesquelles, Bruno nous guidera à travers une exploration des menaces qui pèsent sur nos esprits à l'heure des écrans omniprésents, de l'intelligence artificielle et des neurotechnologies, en évoquant les mécanismes, les impacts individuels et collectifs les risques et, heureusement, les réponses possibles.
- Speaker #0
Quelques semaines plus tard, alors que le livre Hypnocratie, dont je vous ai parlé avant le générique, continuait d'être discuté et commenté, on a découvert que le penseur chinois, en fait, n'existait pas, que le livre était une performance narrative, imaginée par l'éditeur italien et philosophe Andrea Colamedici. Il a réalisé en collaboration avec deux IA génératives, celle d'Enthropic et celle d'OpenAI, avec lesquelles d'ailleurs il entretient une grande familiarité parce que son deuxième job est d'enseigner le prompt thinking à l'Institut européen de design de Rome, c'est-à-dire l'art subtil d'interroger et dialoguer avec l'intelligence artificielle pour obtenir les résultats souhaités. En injectant dans le débat culturel une idée captivante d'origine artificielle, Kolamétici a donc réussi d'un même coup analyse et démonstration. Et si le philosophe chinois n'existe pas, la notion d'hypocratie n'est toutefois pas moins pertinente. Elle n'explique pas tout, mais aide à comprendre beaucoup de ce qu'on a discuté jusqu'ici dans ce podcast. Comment alors, dans cet état d'hypnose, trouver la lucidité pour confronter l'influence algorithmique sur nos esprits ? Et inversement, malgré l'accélération technologique qui nous happe, Comment faire face à l'hypocratie sans avoir la prétention d'être exhaustif ? Essayons quelques pistes. Lorsqu'on est confronté collectivement à une menace d'une telle ampleur et vitesse, la première tentation est souvent d'imposer des règles, de répondre par la loi en fixant des limites, en définissant juridiquement ce qui est permissible et ce qui ne l'est pas. en créant des protections des droits et des obligations et en interdisant des méthodes ou des produits considérés nocifs. C'est une question compliquée parce que la seule évocation des mots « règles » et « interdiction » est suffisante pour susciter de fortes réactions de rejet. Ceci est particulièrement vrai quand on parle de technologie. Ces toutes dernières années, fortement encouragées par les entreprises productrices, C'est en effet imposer le narratif selon lequel la réglementation entraverait l'innovation. Ainsi, par exemple, protéger l'individu de l'extraction de ses données personnelles ralentirait le développement de l'intelligence artificielle. Ce débat est important, mais il dépasse le cadre de nos propos. On va donc se contenter d'en noter l'existence. Reste qu'un type de réponse possible à la menace cognitive est effectivement d'ordre juridique et réglementaire. Et puis, il y a un nombre d'autres réponses d'ordre social et culturel. Mais aujourd'hui, on va commencer par la loi. Pendant longtemps, le fonctionnement de l'esprit humain a été considéré non seulement comme incompréhensible, mais aussi comme inviolable. Les instruments juridiques qui protègent la liberté ne prennent donc généralement pas en compte la sphère cognitive. Cette inviolabilité est maintenant remise en question par la confluence d'une technologie liée qui peut excaver nos données personnelles, et d'une autre, la neurothèque, qui peut décoder nos émotions et commence à percer nos pensées. C'est un enjeu vertigineux qui n'est pour l'instant reflété presque nulle part dans le corpus législatif mondial. Plusieurs accords internationaux, déclarations et recommandations ont certes été élaborés, qui visent à réglementer spécifiquement les neurotechnologies, ont certes été élaborés, mais juridiquement, ils sont tous non contraignants. Il existe aussi des instruments qui contiennent des dispositions ou des principes qu'on peut considérer adjacents. La liberté de penser, par exemple, est protégée par l'article 18 de la Déclaration universelle des droits de l'homme de 1948. par l'article 9 de la Convention européenne des droits de l'homme de 1950 et par l'article 18 du Pacte international relatif aux droits civils et politiques de 1966. En principe, cela signifie que la liberté de penser d'un individu ne doit jamais être violée. Dans les trois chartes, toutefois, elle est associée explicitement à la liberté religieuse et de conscience, alors que l'intégrité cognitive n'y est ni mentionnée. ni sous-entendu. Les normes dont s'est dotée l'Union européenne en matière de technologie numérique sont probablement les plus conséquentes. Le Règlement général sur la protection des données de 2016 définit les règles concernant la collecte, le traitement et la conservation des données à caractère personnel. Il confère également aux individus des droits de contrôle sur l'utilisation des informations, tels que le droit d'accès, de rectification ou le droit à l'effacement, qu'on connaît comme le droit à l'oubli. Il englobe aussi des normes de transparence et de consentement. Une autre loi, la loi européenne sur les services numériques de 2022, contient des mesures de tutelle des consommateurs, notamment en matière de liberté d'expression et de protection des données. Elle attribue aussi plus de responsabilités aux plateformes numériques par rapport aux informations qu'elles diffusent. Bien que les principes qu'ils contiennent puissent indirectement s'y rapporter, aucun de ces deux textes, toutefois, ne traite de façon spécifique des risques d'atteinte à l'intériorité cognitive. On se rapproche de notre sujet avec la loi sur l'intelligence artificielle, le EI Act, promulguée par l'Union européenne en 2024. C'est une normative qui n'a pas plu aux grandes entreprises technologiques. Elle encadre le développement, la mise sur le marché et l'utilisation des systèmes d'IA en tenant compte en particulier des droits fondamentaux. Elle s'articule autour d'une approche par les risques, en classant les systèmes d'IA en quatre groupes en fonction de leur impact potentiel. Certaines applications sont considérées à risque minimal et ne sont donc pas réglementées. D'autres, à risque limité, sont soumises notamment à des obligations de transparence. L'objectif principal ici est de garantir par exemple que les utilisateurs ne soient pas dupés par un chatbot qui prétendrait être un humain et que l'information générée par l'IA soit visiblement indiquée comme telle. La troisième catégorie est celle des systèmes jugés à haut risque et donc réglementés. Il s'agit de ceux utilisés dans les infrastructures critiques, eau, électricité ou dans la santé. ainsi que de ceux qui peuvent déboucher sur un traitement préjudiciable. Rentrent dans ce groupe, par exemple, les outils qui trient les CV pour le recrutement, qui déterminent l'accès à l'éducation ou notent les examens, ou qui évaluent la solvabilité lors de demandes de crédit. Ces systèmes doivent, selon la loi, être testés rigoureusement avant leur mise sur le marché et accompagnés tout au long de leur utilisation par une supervision humaine. Enfin, quatrième niveau, il y a les pratiques qui présentent des risques inacceptables et qui sont donc tout simplement interdites. Il s'agit par exemple de la notation sociale, de la prédiction des crimes et des systèmes de catégorisation biométrique. Et c'est dans cette catégorie que le législateur a choisi d'insérer les menaces cognitives. Voici un extrait de l'article 5.1. Et voici un extrait de l'article 5.1b.
- Speaker #3
Est interdite la mise sur le marché, la mise en service ou l'utilisation d'un système d'IA qui exploite les vulnérabilités d'une personne physique ou d'un groupe spécifique de personnes en raison de leur âge, d'un handicap ou d'une situation sociale ou économique particulière, avec pour objectif ou pour effet d'altérer de manière significative le comportement de cette personne.
- Speaker #0
D'autres points de l'article 5 interdisent par exemple l'utilisation de l'IA pour déduire les émotions d'un individu sur le lieu de travail ou à l'école. Les neurotechnologies, cependant, ne sont pas prises en compte par cette loi. À un océan de distance, les États-Unis ne sont pas très impressés d'encadrer ces développements technologiques. Le président Joe Biden avait signé un décret en octobre 2023, appelé « Pour une intelligence artificielle sûre et fiable » « Safe, secure and trustworthy AI » . Il contenait notamment des mesures de sécurité nationale, de protection de la vie privée, de prévention des biais discriminatoires et de fiabilité des systèmes. Un premier pas qui s'insérait par ailleurs dans une série de consultations avec d'autres pays sur la gouvernance internationale de l'IA, tout en misant beaucoup sur l'autorégulation de l'industrie via des codes de conduite volontaires. Le décret n'a pas duré trois mois. Le 20 janvier 2024, quelques heures à peine après avoir prêté serment en tant que président, entouré des patrons de la tech, Donald Trump l'a révoqué. estimant qu'il entravait l'innovation en matière d'IA, affirmant ainsi la primauté de la compétitivité et des intérêts économiques sur la tutelle des individus. Il y a à cela des raisons stratégiques et industrielles, mais le résultat est qu'aux États-Unis, aujourd'hui, comme l'a dit le pionnier de l'IA Joshua Benjo à la conférence TED d'avril 2025, un sandwich est plus régulé que l'IA. Pour trouver la première constitution qui protège explicitement l'intégrité mentale, il faut regarder vers le sud. Déjà en 2021, le Chili a inclus un paragraphe dans l'article 19 de sa constitution. Le développement scientifique et technologique doit être au service des individus qui effectuent dans le respect de la vie et de l'intégrité scientifique et mentale. La loi protège en particulier l'activité cérébrale, ainsi que les informations qui en découlent. En d'autres mots, l'intégrité mentale est un droit fondamental et tout développement l'affectant doit être autorisé par la loi. Des discussions sont en cours dans d'autres pays d'Amérique latine pour inscrire ces droits dans la loi, comme en Mexique avec une proposition clairement inspirée du Chili, au Brésil ou encore en Argentine. En 2022 d'ailleurs, une organisation qui promeut l'intégration régionale, connue comme ParLatino, a établi une loi type sur les neurodroits. Voici les tutelles principales qu'elle envisage, traduites et résumées par nos soins.
- Speaker #1
Le droit à la vie privée mentale, ainsi que le droit inaliénable de ne pas être soumis à une quelconque forme d'intervention sur ses connexions neuronales, d'interférence avec les processus cognitifs ou d'intrusion au niveau du cerveau par l'utilisation de neurotechnologies, interfaces cerveau-ordinateur ou tout autre système ou appareil, sans consentement libre, exprès, et éclairée, et même dans les cas où cette intervention pourrait se faire de façon inconsciente.
- Speaker #0
Les travaux du Parlatino font écho à ceux de 2017 du Morningside Group, un groupe de scientifiques, d'éthiciens et de technologues qui sont à l'origine de la notion de « neuro-droits » pour désigner les protections en termes de droits humains nécessaires pour relever les défis posés par les neurothèques. Dans leurs travaux, ils ont identifié cinq neuro-droits principaux.
- Speaker #3
Premier. Le droit à la vie privée cognitive, c'est-à-dire la capacité de protéger son activité mentale contre toute divulgation. Deuxième, le droit d'identité, ou la capacité de contrôler son intégrité mentale et son identité. Troisième, le droit à l'autonomie, c'est-à-dire la liberté de penser et la liberté de choisir ses actions. Quatrième, le droit à l'augmentation, ou la garantie d'un accès équitable aux améliorations des capacités cognitives rendues possibles par la technologie. Cinquième, le droit à la protection ou la tutelle contre les biais algorithmiques.
- Speaker #0
Un autre pays où le cadre normatif est en discussion est la Suisse. Fin 2024, une initiative a été déposée au Parlement pour amender l'article 10 de la Constitution. Actuellement, entre autres, il stipule « Tout être humain a droit à la liberté personnelle, notamment à l'intégrité physique et psychique » . L'initiative vise à y ajouter explicitement la tutelle de l'intégrité cognitive. Elle a été présentée par la députée centriste Isabelle Chapuis, qui nous explique pourquoi.
- Speaker #4
Parce que si nos ancêtres ne l'ont pas inscrite dans notre Constitution aux côtés de l'intégrité physique et l'intégrité psychique, c'est simplement qu'ils ne pouvaient pas imaginer que notre esprit devienne une cible. Aujourd'hui, il l'est, alors il faut le protéger. Ce n'est pas un droit « nice to have » , c'est un droit fondamental. En l'ancrant dans la Constitution, on le placerait au-dessus de la liberté de commerce et de la logique de marché. Ce droit deviendrait alors en quelque sorte notre boussole pour légiférer sur les IA, sur les algorithmes ou encore sur les technologies à venir.
- Speaker #0
Isabelle Chapuis plaide ici non seulement pour un amendement constitutionnel, mais aussi pour une réorientation. Dans l'histoire récente, la prééminence de la liberté de commerce a conduit à critiquer, édulcorer ou abandonner de nombreuses tentatives de régulation dans tous les domaines et dans de nombreux pays. Mais face à la menace cognitive, dit-elle, Il est impératif de privilégier notre droit de penser librement, de donner la priorité à la souveraineté cognitive sur la logique mercantile, traçant ainsi une frontière symbolique et juridique qui pourrait devenir l'axe structurant de l'éthique et de la régulation des technologies de demain. Soit dit en passant, c'est l'approche inverse à celle de Donald Trump qu'on a évoquée il y a une minute. Pour boucler ce petit catalogue d'instruments et de propositions légales, qui est représentatif mais pas du tout exhaustif, il nous faut mentionner qu'en septembre 2024, la Californie, siège de nombreuses grandes entreprises technologiques, a été le premier État américain à introduire la protection des données cérébrales dans la loi. Finalement, citons encore les travaux de deux penseurs de la technologie, Marcello Ienca de l'EPFL de Lausanne et de l'Université de Technologie de Munich et Roberto Andorno de l'Université de Zurich. Ils proposent quatre nouveaux droits humains pour protéger ce qu'ils appellent le dernier refuge de la vie privée, c'est-à-dire notre cerveau. On a déjà parlé des trois premiers, les droits à la liberté cognitive, à l'intégrité mentale et à la vie privée mentale. Le quatrième est le droit à la continuité psychologique. Ce concept fait référence à la capacité de chacun à maintenir dans le temps la cohérence et la stabilité de notre expérience psychique, de nous percevoir comme une entité continue malgré les changements de la vie. Répétons cette dernière phrase. La capacité de nous percevoir comme une entité continue. Elle anticipe que les neurosciences et les technologies de demain pourraient interférer avec notre cognition jusqu'à ne plus être en mesure de nous percevoir comme la même personne. Jusqu'en fait à nous faire perdre la tête. Le moins que l'on puisse dire à ce point est que le développement d'outils juridiques pour un domaine en progression accélérée, est d'une grande complexité. Il est indispensable de conjurer la tutelle de valeurs et principes essentiels, comme les droits humains, avec la souplesse nécessaire à ne pas entraver l'innovation. Il faut aussi définir clairement la responsabilité des entreprises qui conçoivent et qui emploient des outils qui peuvent influencer ou altérer les processus cognitifs. Il va falloir trouver également un équilibre entre les droits des individus à leur vie privée cognitive et l'intérêt général de la société. On pourrait être amené par exemple à autoriser une certaine violation légitime de l'intimité mentale. de manière ciblée et proportionnée, comme par exemple quand il s'agit de vérifier par des capteurs le niveau de vigilance des conducteurs de train. Y aurait-il d'ailleurs un niveau d'influence cognitive qui serait généralement acceptable ? Et un tout autre niveau de questionnement. Si nous ne pouvons pas comprendre pleinement comment les intelligences artificielles fonctionnent et pourquoi elles produisent un certain type de résultats, Quel niveau d'autonomie faut-il leur accorder ? Jusqu'à quel point une IA devrait être autorisée à déterminer d'elle-même ce sur quoi elle peut décider ? Si des entités synthétiques vont exister parmi nous, avec des capacités cognitives imitant les nôtres, Faudra-t-il leur attribuer une personnalité juridique ou, à leur tour, des protections d'ordre psychologique ? Ce ne sont là que quelques-unes des énormes questions que soulèvent l'avancée de l'IA et des neurotechnologies. Et puis, il y a la guerre cognitive dont on a déjà parlé dans l'épisode 4, où attaquer nos esprits sert une stratégie de conquête. Petit rappel alors sous forme de question. Qu'est-ce qu'on gagne quand on gagne une guerre cognitive ? Isabelle Chapuis.
- Speaker #4
On gagne les esprits, donc on gagne les décisions. Dans le sens que celui qui maîtrise la guerre cognitive, il n'a pas besoin d'occuper un territoire. Il occupe les cerveaux. Il y sème le doute, il divise, détourne la tension et il affaiblit en gros la volonté collective. Et puis à la fin, l'autre tombe de lui-même. Sans s'en rendre compte, d'ailleurs.
- Speaker #0
L'utilisation de technologies et stratégies cognitives à des fins militaires soulève entre autres la question du droit international et de sa pertinence en relation à ce défi. Les armes algorithmiques et neurocognitives ne font actuellement l'objet d'aucun accord international alors qu'il existe des conventions sur les armes chimiques, les armes biologiques et des traités contre la prolifération nucléaire. Elles ne sont pas considérées explicitement non plus dans les règles internationales qui encadrent. la conduite de la guerre, qui sont principalement contenues dans le droit international humanitaire, par exemple dans les conventions de Genève. Toutefois, nous dit Mauro Vignati, expert du comité international de la Croix-Rouge. De façon générale, je te dis que le droit humanitaire a été conçu de façon assez ample pour pouvoir considérer aussi des technologies qui n'étaient pas encore conçues et présentes au moment où on a formulé les différentes lois qui le composent. cela dit Première chose à faire, c'est que tous les États implémentent correctement le droit pour pré-identifier s'il y a des lacunes et éventuellement proposer des améliorations du droit. Est-ce qu'alors, dans le contexte actuel de réalignement géostratégique et de compétition économique et militaire, des nouvelles règles internationales sur la guerre cognitive seraient utiles et surtout réalistes ?
- Speaker #4
Utiles, évidemment. Réalistes, pas encore, mais... indispensable, ça c'est sûr. C'est un peu comme les armes chimiques ou nucléaires. Ils font un signal normatif fort. Même si certains trichent, et c'est toujours le cas, on le sait, le droit, au moins, trace une sorte de frontière morale. Il dit ce qui est intolérable et il fixe les lignes rouges.
- Speaker #0
Au Centre pour la politique de sécurité à Genève, le directeur des risques globaux et émergents, Jean-Marc Ricli, cadre la discussion en termes de subversion.
- Speaker #5
A l'inverse de la coercition qui utilise la force physique et la violence, la subversion, elle, est une tentative délibérée de saper une autorité légitime et elle est en passe de devenir un élément central des stratégies de pouvoir et d'influence à l'échelle mondiale. Dès lors, il serait judicieux de créer un régime de contrôle de la subversion, notamment dans le domaine algorithmique, à l'instar de ceux du contrôle des armements que l'on a développé au début de l'ère atomique. La croissance exponentielle à la désinformation et des atteintes cognitives assistées par l'IA a donné naissance à une nouvelle classe d'ADM, qui ne sont pas des armes de destruction massive, mais des armes de désinformation de masse, qui pourraient à une finesse transformer en des armes de destruction mentale. À la différence des armes nucléaires, cependant, les technologies de subversion ne sont pas développées par les gouvernements, mais sont essentiellement développées par le secteur privé. Il est impossible de... stopper la prolifération de lignes de code. Et donc, ces développements par le secteur privé, plus la nature même de l'espace digital, font qu'on assiste à des phénomènes de prolifération très rapides. Et cette démocratisation débridée augmente donc encore plus le besoin de structures de gouvernance internationales et nationales.
- Speaker #0
Remenons la question à l'échelle des pays. Isabelle Chapuis, qui est par ailleurs membre de la... La commission de politique de sécurité du Conseil national suisse pense que cela devrait aller de pair avec la dissuasion.
- Speaker #4
Je pense que nous aurions besoin d'une doctrine de dissuasion cognitive, parce qu'en fait une guerre cognitive qui est bien menée, elle peut détruire une démocratie de l'intérieur, sans bombes, sans bruit, juste en fracturant la confiance, en brouillant la vérité et en sapant la volonté d'agir ensemble. En matière de sécurité, ne pas avoir de doctrine. c'est en quelque sorte déjà perdre. Une doctrine, ce n'est pas une menace, c'est un cadre stratégique clair qui définit ce qui constitue une attaque, qui précise ce à quoi on s'engage à répondre et qui dissuade ceux qui seraient tentés de franchir la ligne. Aujourd'hui, franchement, l'absence de doctrine cognitive, je pense que c'est une faille stratégique, parce qu'elle laisse nos sociétés désarmées, vulnérables, dans une guerre invisible, que d'autres, eux, ont déjà théorisé et déjà... instrumentaliser. Et je pense qu'il est temps d'y répondre. Par le droit, par des alliances et des règles internationales et par une doctrine. Notre réplique, si j'ose dire, contre cet ennemi invisible doit absolument être systémique. Parce que notre ennemi est diffus et nous devons agir de manière collective. Nous devons penser « Gesamtverteidigung » « Défense totale » . Défense militaire, économique, évidemment, mais aussi cognitive, émotionnelle et sociale.
- Speaker #0
Ou comment rendre robuste la société et préparer les individus qui la composent ? C'est ce à quoi nous allons nous intéresser dans le sixième et dernier épisode.
- Speaker #1
Pour aujourd'hui, on va s'arrêter ici.
- Speaker #2
Je suis Bruno Giussani. Ceci est le DevTech Podcast.
- Speaker #3
Merci de votre écoute.