Défendre notre intégrité cognitive : l’hygiène mentale à l’ère numérique et l'intelligence artificielle cover
Défendre notre intégrité cognitive : l’hygiène mentale à l’ère numérique et l'intelligence artificielle cover
Deftech Podcast

Défendre notre intégrité cognitive : l’hygiène mentale à l’ère numérique et l'intelligence artificielle

Défendre notre intégrité cognitive : l’hygiène mentale à l’ère numérique et l'intelligence artificielle

36min |22/07/2025
Play
Défendre notre intégrité cognitive : l’hygiène mentale à l’ère numérique et l'intelligence artificielle cover
Défendre notre intégrité cognitive : l’hygiène mentale à l’ère numérique et l'intelligence artificielle cover
Deftech Podcast

Défendre notre intégrité cognitive : l’hygiène mentale à l’ère numérique et l'intelligence artificielle

Défendre notre intégrité cognitive : l’hygiène mentale à l’ère numérique et l'intelligence artificielle

36min |22/07/2025
Play

Description

À l'ère où l'intelligence artificielle façonne nos vies quotidiennes, jusqu'où peut-on aller sans compromettre notre autonomie de pensée ? Dans cet épisode du Deftech Podcast, Bruno Giussani nous plonge dans les profondeurs des impacts sociopolitiques des technologies numériques sur notre cognition.

À une époque où la désinformation et la menace cognitive sont omniprésentes, nos perceptions et interactions sont profondément influencées par ces technologies. Bruno et ses invités abordent les défis de l'intégrité cognitive, tout en proposant des stratégies pour renforcer notre résistance face aux manipulations cognitives, ils insistent sur l'importance de l'éducation, de la vigilance critique et de la reconnexion sociale pour protéger notre intégrité cognitive face à l'intelligence artificielle


Comment garantir notre souveraineté cognitive pour protéger notre capacité à penser de manière autonome ?
Comment pouvons-nous développer une culture de la nuance dans un environnement où la guerre cognitive fait rage ?

Les réponses est collective et nécessite une éthique numérique et une société qui valorisent la pensée critique face aux défis posés par les neurotechnologies et les avancées de l'intelligence artificielle.


Bruno Giussani nous invite à réfléchir sur les implications de notre dépendance croissante aux technologies numériques et à réflechir comment ensemble, nous pouvons défendre notre intégrité cognitive et naviguer avec prudence dans un monde saturé d'informations.


Deftech Podcast

Idée & projection : Quentin Ladetto


La menace cognitive

Conception et rédaction : Bruno Giussani
Production : Clément Dattée

Réalisation : Anna Holveck
Enregistrement : Denis Democrate
Mixage : Jakez Hubert
Jaquette : Cécile Cazanova


Edition

© DDPSarmasuisse Sciences & technologies — 2025
https://deftech.ch/deftech-podcast/


#intégrité cognitive #menace cognitive #deftech podcast #guerre cognitive #bruno giussani #défis démocratiques

#futurs #futur #éthique numérique #technologies numériques #désinformation #intelligence artificielle #autonomie de pensée #souveraineté cognitive #attention

#neurotechnologie #manipulation de l'information #implications sociopolitiques #liberté de pensée #prospective #armasuisse


Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.

Transcription

  • Speaker #0

    C'est son téléphone qui parle. Il peut le dire. Je ne le sais pas. Je ne le sais pas.

  • Speaker #1

    Lorsque Johann Gutenberg, Gutenberg comme on l'appelle en français, lorsque Gutenberg commença à imprimer ses premières bibles à Mayence, en Allemagne, quelque part entre 1450 et 1455, les Chinois imprimaient déjà des livres depuis des siècles. Sa principale innovation consista à utiliser des caractères mobiles moulés individuellement en métal, permettant ainsi de composer les textes plus rapidement et facilement. Autrement dit, Gutenberg inventa une méthode pour optimiser la typographie, accélérer la production de livres et en réduire les coûts. Il trouva aussi des façons pour rendre l'encre plus foncée et plus stable. Et ce faisant, il fut à l'origine de la première surcharge informationnelle de l'histoire. À la fin du 15e siècle, 50 ans à peine, Après la publication de la première Bible par Gutenberg, des presses imprimées comme la sienne s'étaient déjà répandues dans plus de 110 villes européennes. Dans leur ouvrage Histoire et pouvoir de l'écrit, les historiens français Henri-Jean Martin et Bruno Delmas estiment qu'à cette époque, les lecteurs pouvaient déjà choisir entre 27 000 titres imprimés différents, pour un total de 10 millions d'exemplaires en circulation en Europe. alors que les lecteurs n'étaient que quelques centaines de milliers sur une population, Russie comprise, de moins de 100 millions. Martin et Delmas racontent que les premiers imprimeurs modelaient leurs livres sur le format des manuscrits, s'efforçant d'imiter l'élégance des scribes. Néanmoins, éditeurs et libraires commencèrent rapidement à explorer de nouveaux formats, à la recherche d'un langage formel et d'une esthétique plus adaptée aux livres imprimés. En 1510, la première... numérotation de pages fut introduite, basée sur les chiffres arabes. Puis sont apparus les paragraphes, les chapitres, les index, autant d'outils destinés à faciliter l'accès à l'information contenue dans le livre. Ce n'est que vers la fin du XVIe siècle, donc plus de 150 ans après l'invention de Gutenberg, que le livre commença à ressembler à ce qu'on connaît aujourd'hui. La réponse à ce déluge informationnel ne passa pas uniquement par l'objet livre. Elle engagea l'ensemble de la société sur une très longue période. Avec un peu d'audace, on pourrait affirmer que l'école, sous sa forme moderne, les partis politiques, les administrations publiques, les tribunaux et bien sûr les médias, bref, l'ensemble de l'infrastructure sociale moderne, sont le résultat de l'effort collectif pour organiser, canaliser, filtrer, transmettre et rendre exploitable la quantité croissante d'informations générées par l'invention de Gutenberg.

  • Speaker #0

    Le DevTech Podcast fait partie du programme de prospective technologique d'Arma Suisse Sciences et Technologies. Je suis Quentin Ladetto, responsable de ce dispositif de recherche. Notre mission est d'anticiper les avancées technologiques et leurs usages au service des acteurs du Département fédéral suisse de la Défense, de la protection de la population et des sports, mais également du public. Dans cette première série de six épisodes intitulée « La menace cognitive » , j'ai demandé à Bruno Giussani, expert des impacts sociopolitiques des technologies numériques, de décrypter les défis de l'intégrité et de la sécurité cognitive. Avec l'aide d'experts et aussi de quelques voies artificielles dont ce sera à vous de deviner lesquelles, Bruno nous guidera à travers une exploration des menaces qui pèsent sur nos esprits à l'heure des écrans omniprésents, de l'intelligence artificielle et des neurotechnologies, en évoquant les mécanismes, les impacts individuels et collectifs, les risques et, heureusement, les réponses possibles.

  • Speaker #1

    L'évolution des technologies de l'information a causé, depuis Gutenberg, bien d'autres transformations sociales profondes. Prenons une anecdote liée à l'invention du télégraphe. Depuis toujours, la vitesse maximale à laquelle une information pouvait voyager entre deux lieux a été celle d'un cheval lancé au galop ou d'un pigeon voyageur. Jusqu'au milieu du 19e siècle, par exemple, il n'y avait aucun besoin de garder le secret sur les opérations militaires. Lorsqu'un navire de guerre anglais levait l'encre, les détails de la mission étaient publiés par le Times de Londres. Après tout, il n'y avait aucun moyen pour que l'information puisse précéder le navire à sa destination. Quelques années plus tard, toutefois, le réseau télégraphique couvrait déjà toute l'Europe et bientôt traversa les océans. Les articles des journaux anglais pouvaient désormais être transmis en Inde en quelques minutes. Pour la première fois de l'histoire, la vitesse de l'information était dissociée de celle de son porteur. Le télégraphe transforma radicalement l'art de la guerre, l'espionnage, l'administration, les journaux, et plus en général, la valeur de l'information. Et puis, bien sûr, il y a eu le téléphone, l'Internet, les smartphones, et maintenant les technologies algorithmiques. Des technologies qui ne demandent pas d'autorisation et qui, de toute évidence, arrivent dans une société qui n'est pas prête à les accueillir, ni culturellement, ni institutionnellement, ni juridiquement, ni moralement. Dans son livre Technopolitique de 2024, la politologue française Asma Mala les appelle technologie de l'hypervitesse. Et elle y voit un défi de type guttenbergien, une bascule civilisationnelle. Elle écrit, je cite, « La page de l'ère industrielle, sa société de masse, sa démocratie de masse est tournée sans que la nouvelle soit encore écrite. » Au fil des épisodes de ce podcast, on a essayé de décrire notre transition vers un monde dont l'enjeu central est la maîtrise des capacités cognitives et des représentations du réel. Dans un tel monde, l'infrastructure la plus importante d'un pays, sa source primaire de robustesse, est constituée des esprits instruits de ses citoyens. Dès lors, à l'avenir, beaucoup va se jouer autour de ces deux mots, instruits et citoyens. La parlementaire suisse Isabelle Chapuis. Il y a plusieurs pistes pour devenir plus robuste face à la guerre cognitive, comme en formant des citoyens éveillés capables de reconnaître les récits manipulatoires et surtout les manipulations algorithmiques. Pour l'instant, on semble plutôt naviguer dans la direction inverse. Si on s'en tient au thème de l'éducation, mais on pourrait dire des choses similaires sur le travail ou à propos de la production culturelle, depuis l'envahissement de notre quotidien par l'IA générative, il souffle un mélange d'enthousiasme et de désarroi. De très nombreux étudiants, par exemple, utilisent l'IA pour résumer des livres plutôt que de les lire, ou pour générer des textes qu'ils n'apprendront pas à écrire ou qu'ils seront incapables d'expliquer, ou encore comme tuteur personnel ou aide. au devoir. Prompter est certes plus simple que lire ou écrire. La crainte est que ça puisse inhiber le développement de compétences et d'esprit critique. Que l'externalisation de l'apprentissage et de la réflexion engendre une dépendance à la technologie. Cette inquiétude n'est pas son fondement. La recherche prend du temps, mais les premières indications, si elle montre une productivité accrue. suggère aussi des formes de déqualification, ce qu'on appelle en anglais « de-skilling » . Une étude menée auprès de 1 000 élèves dans le cadre de la préparation d'examens de mathématiques au lycée, par exemple, a montré en 2024 comment les étudiants ayant accès à l'IA ont obtenu des résultats largement meilleurs que ceux qui n'y ont pas eu accès. Mais ils ont ensuite réalisé des performances significativement inférieures à celle du groupe de tests lorsque l'accès leur a été supprimé. De nombreuses autres études ont conduit à des résultats similaires, ce qui suscite une considération intéressante. On discute beaucoup autour de l'idée que l'IA pourrait automatiser la plupart des métiers. Ce n'est pas notre sujet ici, mais une phrase qui circule beaucoup, au point d'être devenue un cliché, est que, je cite, « Ce ne sera pas l'IA qui prendra votre travail, mais quelqu'un qui utilise l'IA. » En fait, au vu des études qu'on vient de citer, on pourrait postuler l'inverse, que les personnes qui conserveront leur capacité cognitive pourraient être avantagées. par rapport à celles qui deviendront trop dépendantes des machines. C'est parfois dans des endroits inattendus que l'on trouve des cadrages qui éclairent des questions complexes. Par exemple, dans un document du Vatican de janvier 2025 intitulé Antica et Nova, note sur la relation entre l'intelligence artificielle et l'intelligence humaine. C'est un des textes les plus lucides publiés sur l'IA et il contient à la section 112 ceci qu'on a traduit de l'original italien. Comme l'a observé il y a de nombreuses années l'écrivain catholique français Georges Bernanos, le danger ne réside pas dans la multiplication des machines, mais dans le nombre toujours croissant d'hommes habitués dès leur enfance à ne désirer que ce que les machines peuvent donner. Les systèmes scolaires et les enseignants ont été pris au dépourvu par l'irruption des systèmes d'IA générative. Il a fallu trois ans pour que des lignes directrices et des cadres commencent à être proposées. Souvent toutefois, les programmes scolaires ont été adaptés principalement en y intégrant un apprentissage instrumental de la technologie, comment l'utiliser, afin de former une main-d'œuvre compétente en IA. Ce qui est très important, il n'y aura presque pas à l'avenir des métiers qui n'auront pas à interagir ou collaborer avec l'IA. Mais être instruit face à la menace cognitive signifie bien évidemment plus que de savoir utiliser efficacement les technologies qui la structurent. Il s'agit surtout de comprendre comment elles sont créées et comment elles fonctionnent, d'apprendre à en questionner les produits, à décoder leurs implications humaines, sociales et éthiques, et comment celles-ci changent ou sont influencées par la technologie elle-même. ou encore à déchiffrer les structures culturelles, économiques et de pouvoir dans lesquelles ces technologies existent et évoluent. Plusieurs approches ont été proposées pour encadrer l'interaction humain-machine. Par exemple, Isabelle Chapuis a mis en avant la notion de fusion et défusion, c'est-à-dire le développement de compétences d'engagement profond, doublé toutefois de la capacité de désengagement. délibéré, autrement dit, de la capacité de préserver son autonomie face à la machine. D'autres ont suggéré l'angle de la symbiose, ou l'idée de la création mixte, ou encore la co-pensée, démarche proposée dans un rapport publié en 2025 en Suisse. C'est un concept un peu singulier puisque les machines ne pensent pas vraiment, elles imitent. Mais les auteurs du document l'utilisent pour représenter la faculté de communiquer avec des systèmes d'IA, je cite, pour un... amplifier ses capacités intellectuelles tout en développant un sixième sens pour en discerner les dissonances cognitives. C'est-à-dire, par exemple, la tendance de l'IA à halluciner ou à avoir des biais ou à générer de la fausse information. Il faut peut-être le dire explicitement, les technologies de l'influence, avec au centre l'intelligence artificielle qui augmente et accélère toutes les autres, sont là pour rester. Elles sont en train de devenir une infrastructure invisible et incontournable de notre quotidien privé et professionnel. L'IA en particulier, aussi imparfaite et obscure soit-elle, s'inscrit déjà dans nombre de processus humains, sociaux et commerciaux. L'emballement médiatico-économique qui l'accompagne signale certainement une surestimation de ses impacts à court terme, mais il serait périlleux d'en sous-estimer la portée à long terme. Imaginez qu'on puisse en arrêter l'avancée, voire revenir à un monde où ces technologies ne sont qu'un instrument domestiqué et optionnel, relève de la fiction. Face à la vitesse exponentielle du progrès de l'IA, certains pensent que notre dépassement est inévitable, que nous ne serons bientôt que la deuxième espèce la plus intelligente sur Terre. Et les centaines de milliards investis dans cette technologie autour du monde travaille dans cette direction. Si par contre on continue de croire à la possibilité de garder un contrôle humain sur l'IA, ou même si on postule non pas une hiérarchie mais une complémentarité entre la cognition humaine et la cognition synthétique, il faudrait alors se résoudre à investir des centaines de milliards également dans l'éducation. Oui, c'est une provocation. Elle n'est pas de moi d'ailleurs, je l'ai empruntée à l'écrivain Laurent Alexandre. parce qu'elle illustre bien un point fondamental. On assiste à la montée en puissance d'une forme d'intelligence différente de la nôtre qui, malgré ses défauts, exécute un nombre croissant de fonctions cognitives à un niveau comparable au nôtre, ou même meilleur et plus rapide. Face à cela, la première réponse est de mettre la priorité absolue sur notre robustesse cognitive, sur le fait d'être collectivement et individuellement instruits. L'école est essentielle, mais il faudrait également accroître notre capacité à comprendre le nouvel environnement dans lequel on évolue, qui peut être, je vais bien la mettre, confondant. C'est un contexte où les espaces de délibération collectif sont maintenant contrôlés par des entreprises privées, où les technologies de l'influence façonnent notre imaginaire, où la valeur se mesure en clics, où l'on connaît de moins en moins la réalité des choses et de plus en plus son portrait, le narratif, la mise en scène, ou avec la production artificielle de photos et vidéos d'un réalisme ahurissant, même la preuve par l'image ne prouve plus grand-chose. Ou toutefois, les algorithmes nous parlent comme à des amis. Du coup, ça nous plaît et on ne se demande plus si c'est réel ou pas. Ou encore, la dopamine de l'interaction directe avec les humains est supplantée par celle des pixels qui bougent selon un code défini par des intérêts commerciaux et ou politiques. Pour résumer, comme l'a écrit l'avocat Owen Barcala en mai 2025 sur le réseau social Blue Sky, si vous vous informez via les chatbots, vos connaissances sont sélectionnées par ceux qui contrôlent l'IA. Oui, ce n'est pas un portrait réjouissant, celui que je viens de tracer là. Mais apprendre à reconnaître ce paysage, un peu comme on estime la hauteur des vagues quand on entre dans la mer, est la condition pour rester à flot. La vigilance est un muscle qu'on peut entraîner en aiguisant notre esprit critique et notre capacité à reconnaître ce qu'Isabelle Chapuis, il y a un moment, a appelé les récits manipulatoires, en développant une autodéfense intellectuelle, un régime d'hygiène cognitif personnel, qui comprend aussi la redécouverte et la pratique de réflexes de base qui se sont perdus dans la vitesse et l'inattention du doom-scrolling. l'effet hypnotique des images qui défilent sur l'écran. Il faut également réapprendre à décrypter les médias, à développer des anticorps à la désinformation et à évaluer la crédibilité des sources. Et non, ce n'est pas que le job du journaliste. Quand tout le monde peut publier et communiquer, ça devient le job de tout le monde. Et puis... surtout et hyper important, il faut entretenir une culture du doute, la culture du débat et de la nuance. Parce que là où la pensée se fige, la manipulation elle prospère. Et on vit une époque qui est complètement saturée de convictions rigides. Question. Jusqu'à quel point sommes-nous influençables ? En fait, notre appréhension de la réalité est bien plus fragile qu'on ne l'imagine. Il suffit de peu pour la déformer. D'un point de vue neurologique, cela dépend en partie au moins de notre état. On est moins influençable quand on est reposé et non stressé. Soigner sa forme mentale et physique fait donc partie de l'autodéfense cognitive. D'un point de vue psychologique, quand nous sommes en surcharge informationnelle, nous faisons appel à des mécanismes de simplification, à des raccourcis qui permettent un traitement plus efficace de l'information. Mais ces mêmes raccourcis introduisent des biais cognitifs. Le plus courant est probablement le biais de confirmation, la tendance qu'on a à privilégier les informations qui confirment nos convictions ou opinions préexistantes et à rejeter celles qui les contredisent. Identifier donc ses propres biais et ceux des autres est un autre facteur d'hygiène cognitive. En une phrase, il est plus important que jamais de se connaître soi-même et de connaître les autres, de s'y reconnecter. de retrouver les capacités d'empathie mises à mal par les chocs convergents de l'effet aliénant des écrans, du confinement de la période pandémique, de la production de méfiance par les réseaux sociaux, de la dislocation démocratique, de l'essor du travail à distance et de toute une multitude de sources sociales et économiques de la solitude. Si les technologies peuvent exercer une telle influence sur nous, c'est aussi parce que le tissu social est Merci. éliminés. Le contraire de la confiance n'est pas l'absence de confiance, c'est le manque de connexion. Renforcer notre capacité de résister aux manipulations cognitives nécessite donc aussi qu'on contre ces effets d'éloignement et qu'on retisse du lien social. Ou comme le dit une citation attribuée au théoricien des médias Clay Shirky, nous surestimons systématiquement la valeur de l'accès à l'information et sous-estimons la valeur de l'accès aux autres. Retrouver ce savoir-vivre ensemble ne peut pas se faire là où la menace se niche, c'est-à-dire chacun derrière son écran. Nos feeds numériques sont pleins de tentatives de nous faire croire que la vie est ailleurs. Il s'agit de cultiver tout ce qui nous ramène à l'évidence qu'elle est ici et maintenant et qu'elle est partagée. Desserrer l'emprise numérique sur nos esprits nécessite de garder, de renforcer et de recréer des espaces publics dans la vie réelle. Et ces espaces ont besoin d'être au moins partiellement protégés contre la surveillance généralisée. Comme le dit Carissa Véliz, la spécialiste de la sphère privée, de la privacy, de l'Université de Oxford.

  • Speaker #2

    Pendant trop longtemps, nous avons pensé que la sphère privée était de nature individuelle, qu'elle était principalement liée à des préférences personnelles. Et nous avons laissé les technologies de surveillance s'immiscer. Mais nous avions tort. La sphère privée est une question de pouvoir citoyen. C'est un pilier essentiel de la démocratie libérale. Les tentatives de surveillance sont des prises de pouvoir, et ce n'est pas par hasard qu'elles sont associées à des tendances autoritaires. Observer la surveillance se développer davantage, avec ses implications politiques de plus en plus évidentes, est extrêmement préoccupant. La surveillance n'est pas un outil neutre, c'est un instrument de contrôle social.

  • Speaker #1

    À ce point, on dira, c'est un retour en arrière qu'on décrit là. Peut-être même avec une dose de naïveté. Pas vraiment. Se protéger seul. Dans le monde numérique est une mission presque impossible, peu importe à quel point on est vigilant et combien de configurations on modifie sur nos appareils. Confronté à la menace cognitive et maintenir une capacité de pensée autonome et rationnelle demande des stratégies de groupe, communautaire, national, militaire, la création collective à la fois d'un nouveau système de défense et de nouvelles structures de vérité. Essayons un exemple. Nous nous éloignons d'un monde où l'information était majoritairement ou entièrement générée par des humains, pour entrer dans un décor où elle sera majoritairement ou entièrement d'origine artificielle. Cela soulève des questions qui ont occupé pendant longtemps certaines figures professionnelles, comme les bibliothécaires ou les journalistes, mais qui constituent désormais un enjeu social et collectif. Des questions comme « à quelles informations peut-on se fier ? » Quels processus utiliser pour les valider, pour en préserver l'intégrité ? Faut-il imaginer de nouvelles infrastructures de connaissances publiques, des systèmes qui ne fonctionnent pas uniquement sur les rails technologiques américains ou chinois ? Quand il s'agit de technologies de pointe, on constate souvent, encouragé aussi par ceux qui y ont intérêt, une sorte de séduction de l'inévitabilité. Toutefois, si... L'avènement de l'IA est certain, sa forme n'est pas inéluctable. Le développement technologique s'exprime de deux façons. Il y a la direction, qui en est la partie inévitable, et sa forme d'usage, qui n'est par contre pas déterminée et qui est entre nos mains. Il était par exemple inévitable, suivant l'évolution sociale, que la téléphonie et les données deviennent mobiles. Mais il n'était écrit nulle part que la forme devait être celle qu'on connaît aujourd'hui comme smartphone. On aurait pu faire d'autres choix pour les mêmes fonctionnalités. Cela s'applique aussi aux réseaux sociaux. Leurs algorithmes de recommandations, par exemple, auraient pu être conçus pour favoriser la diversité de point de vue plutôt que l'inverse. Et souvent, ces décisions n'ont rien à voir avec des considérations morales, culturelles ou même stratégiques, mais sont intimement liées au modèle d'affaires des entreprises technologiques. Et il est très peu probable que l'IA et les neurotech puisse se développer de façon sûre et bénéfique sans un effort déterminé et concerté. Nous avons encore un peu de temps avant que le ciment fondationnel de ces technologies ne se solidifie. Après quoi, la forme que prendra notre relation avec elles sera très difficile à modifier. Déléguer l'exercice de la pensée et de la créativité à l'intelligence artificielle ne me paraît pas un très bon programme. Se laisser submerger par l'information qu'elle produit non plus. Il importe de nous poser la question si, utilisée à bon escient, à la place de menacer notre esprit, ces technologies pourraient produire l'effet inverse, nous aider à améliorer notre raisonnement et amplifier notre imagination. Cela demande qu'on envisage pendant un moment une posture à la fois très ambitieuse et très humble, celle d'un scénario de co-évolution heureuse. L'une des pistes de réflexion les plus fascinantes que j'ai rencontrées vient de Nicoletta Iacobacci, une chercheuse italienne en éthique de l'IA. Écoutez comment elle redéfinit notre lien avec l'intelligence artificielle.

  • Speaker #3

    Nous croyons être en train de développer des outils, mais en réalité, nous élevons une intelligence. On écrit un prompt ou une question, on obtient une réponse. La transaction semble achevée. Mais sous la surface, quelque chose de plus profond s'est produit, un transfert des valeurs, d'hypothèses et des schémas émotionnels. L'IA est comme un tout petit. Il y a une étape dans le développement des enfants où ils sont guidés non pas par la compréhension, mais par l'imitation. Je crois que c'est ce qui se passe. L'IA n'est pas seulement façonnée par des vastes ensembles de données et une programmation explicite. Elle apprend par exposition. Chacune des centaines de millions d'interactions quotidiennes de tous genres contribuent à son éducation. Aucun d'entre nous ne considère un prompt comme un moment d'apprentissage. Pourtant, dans l'ensemble, ces interactions posent la base de la façon dont l'IA comprendra l'humanité.

  • Speaker #1

    Nous assistons potentiellement au début d'une nouvelle forme d'intelligence qui fonctionnera à terme à des échelles et vitesses dépassons nos capacités. Ce que Nicolette Ayacobachi suggère est que le devenir de cette intelligence dépendra non seulement de son architecture technique, mais aussi de ce qu'elle apprend de et sur nous à travers ses dialogues formateurs.

  • Speaker #3

    Si nous interagissons brusquement avec les systèmes d'intelligence artificielle, la machine apprendra à nous percevoir comme réactifs et impulsifs. Mais si nous abordons ces systèmes avec considération, présence et intention, et développer un modèle d'humanité reflétant notre capacité de délibération et de compassion. Jusqu'à présent, nous nous sommes concentrés sur le contrôle. Codes, réglementations, principes, lois, tous ces éléments sont nécessaires, mais pas suffisants. On doit repenser notre façon d'aborder l'intelligence artificielle, en cessant de considérer son développement juste comme un défi technique et réglementaire. Il nous faut l'envisager aussi comme une formidable opportunité pédagogique et évolutive.

  • Speaker #1

    Il est tentant de juger cette approche inefficace, voire un peu absurde.

  • Speaker #3

    Je peux le comprendre. Pourquoi gaspiller des jetons de tokens en gentillesse ? Pourquoi valoriser les relations alors que nous pourrions optimiser l'utilité ? mais connaît gravement le développement de l'intelligence. Comme un enfant, apprendre non seulement par l'instruction directe, mais aussi par la totalité de son expérience. L'IA absorbe les leçons implicites de nos échanges. Nous devons l'aborder, non pas comme une création à programmer et à contrôler, mais comme une intelligence à éduquer. Non pas comme une menace à contenir, mais comme une réflexion à affiner. Non pas comme un outil qui se contente de répondre à nos demandes, mais comme une relation qui façonne notre avenir.

  • Speaker #1

    Mais s'il s'agit d'une relation, elle se doit d'être réciproque.

  • Speaker #3

    C'est vrai. Pour paraphraser Marshall McLuhan, nous éduquons l'IA et ensuite l'IA nous façonne. La compréhension approfondie qu'elle aura de nous lui permettra de nous influencer. Et c'est bien là le point essentiel. La qualité des sets influence dépendra de ce que nous, chacun d'entre nous, lui aurons enseigné.

  • Speaker #1

    Nicoletta Iacobacci appelle cela l'éthique de l'exemple, la force de ce que nous suggérons par nos actions plutôt que par nos déclarations.

  • Speaker #3

    Je ne suggère certes pas d'aborder chaque interaction avec une gravité solennelle. Ce n'est ni réaliste ni nécessaire. Mais je suggère attention et sensibilité.

  • Speaker #0

    Ce dont parle Nicoletta Iacobacci est peut-être la vision la plus positive et constructive de ce que pourrait devenir la relation entre humains et l'intelligence, ou la superintelligence si elle le devient un jour, artificielle. C'est bien évidemment une vision aspirationnelle, une invitation à une relation de respect, à fonctionner vis-à-vis de la machine littéralement en bonne intelligence. Alors qu'actuellement… Ce qu'on lui apprend à travers les données d'entraînement, mais aussi par l'usage utilitaire qu'on en fait, c'est à simuler et donc à reproduire et donc à renforcer les relations de pouvoirs personnels et collectifs qui façonnent notre société. Il y a tant de problèmes dans le monde qu'on n'a pas abordés, comme la crise écologique ou les inégalités. Et il y a de nombreux enjeux d'origine technologique dont on n'a pas parlé non plus. L'automatisation massive et rapide de nos emplois par l'IA, par exemple. Tous ces problèmes sont énormes et complexes. Et si on a choisi dans ce DevTech Podcast de se concentrer sur notre intégrité cognitive et sur les forces et les technologies qui la menacent, c'est parce que là s'inscrit la mer de tous les défis de notre temps. Nous ne serons en mesure de résoudre aucun des autres problèmes, petits ou grands, locaux ou globaux, si on ne protège pas notre cognition, si on perd. la possibilité d'appréhender la réalité de façon factuelle, si la frontière entre le vrai et le faux disparaît, si notre capacité de penser et discuter clairement et librement est dégradée, si les récits de quelqu'un d'autre s'emparent de notre entendement. La guerre cognitive, comme on l'a dit, est une bataille silencieuse et invisible dont nous faisons déjà l'objet, et que nous favorisons même. Par exemple, à chaque fois que nous adoptons avec enthousiasme une technologie numérique parce qu'elle est pratique ou gratuite, ou les deux, sans vraiment la comprendre et sans nous demander si c'est réellement ce que nous voulons. C'est une position bien singulière, celle de l'agressé consentant qui collabore inconsciemment par chaque scroll et chaque like et chaque utilisation d'un casque de réalité virtuelle avec son agresseur. On approche de la fin de ce podcast, qui n'est pas un manifeste et certainement pas un texte scientifique, mais qui, au fil des épisodes, a évolué presque vers une ébauche d'un manuel de résistance, une première cartographie, forcément incomplète, d'un nouveau monde dans lequel nous faisons les premiers pas et qui va peu à peu se peupler d'entités synthétiques qui seront nos nouveaux voisins, partenaires, concurrents, serviteurs, patrons, amis ou ennemis. Essayons un bref résumé. Les technologies de l'influence, au service d'intérêts politiques ou commerciaux, convergent vers le cerveau humain. Ceci, le dernier rempart de notre sphère privée, devient donc un terrain contesté. Le but de cette guerre cognitive est de nous faire perdre la capacité de comprendre le monde avec clarté et de choisir de façon autonome la réponse qu'on veut apporter aux circonstances. La situation peut encore sembler relativement normale, mais on approche d'un point de bascule. Au vu de la rapidité des développements technologiques et de la pénurie d'encadrement, les choses vont devenir plutôt étranges, plutôt rapidement. Comme on l'a vu, les réponses qu'on peut apporter sont de plusieurs natures. Elles peuvent être légales ou réglementaires, qui visent à limiter, gérer et éviter les impacts les plus néfastes. Ou technologiques. La course-poursuite entre technologies hostiles et technologies défensives n'est d'ailleurs pas une nouveauté. Ou elles peuvent être militaires, sous forme de doctrines cognitives, de stratégies et de systèmes de vigilance. On pourrait sinon essayer de se soustraire le plus possible à l'emprise de ces technologies, en les court-circuitant pour s'ancrer dans le réel. Et puis d'autres mesures peuvent, doivent en fait être d'ordre protectif. notamment en ce qui concerne les plus petits. C'est tentant de leur donner une tablette pour qu'ils se tiennent tranquilles pendant le dîner. Mais la simple exposition passive au stimuli sensoriel des écrans peut entraver leur développement cérébral, notamment au niveau de la capacité conceptuelle, de l'attention, de la concentration et du langage. La défense de l'autonomie cognitive commence donc par la protection du développement neuro-anatomique sain des enfants. De plus, on peut bien sûr muscler sa liberté et sa souveraineté cognitive à travers l'éducation et l'apprentissage de la complexité et en développant nos compétences critiques face aux technologies de l'influence. Dans tous ces cas, Il est nécessaire que chacun comprenne et protège sa propre intégrité cognitive, mais sans remettre la responsabilité uniquement sur les individus, parce que le défi est en fait collectif. La technologie a toujours été co-évolutive avec les humains. Dès les premiers outils en pierre ou les premiers récipients pour transporter quelque chose, notre espèce a constamment développé de nouveaux instruments pour affronter des difficultés ou satisfaire des désirs. Mais nous avons toujours pensé à la technologie principalement en termes de ce que nous pouvions en faire. Et aujourd'hui, les développements neuroalgorithmiques nous imposent de nous demander ce qu'elles pourraient nous faire, ou faire de nous. Ce n'est nullement une invitation à ignorer ces technologies ou à en refuser l'usage. C'est au contraire une invitation urgente, quelle que soit notre position professionnelle ou sociale, à leur prêter la juste attention. Une exhortation à ne pas se laisser guider par la facilité, mais à investir l'effort et le temps, l'engagement intéressé et la réflexion critique nécessaires pour comprendre à la fois le fonctionnement et la nature des machines. Pour déchiffrer la complexe relation qui se noue et va se nouer entre elle et nous, et les systèmes économiques et de pouvoir dans lesquels... tout cela se produit. Dans Phèdre, un de ses dialogues socratiques, Platon utilise le terme « pharmakon » comme une métaphore de l'écriture. En grec, ce mot signifie aussi bien « remède » que « poison » . Le même mot contient la guérison et l'altération, le soulagement et la perte. Et dans le dialogue, Platon explore cette ambiguïté, l'idée que l'écriture puisse d'un côté préserver et encourager la connaissance et la transmettre, mais de l'autre affaiblir la mémoire, la réflexion et la compréhension profonde. Si on connaît aujourd'hui la méfiance de Platon envers l'écriture, c'est précisément parce qu'il l'a utilisée lui-même. Je suis Bruno Giussani et ceci était le DevTech Podcast consacré à la menace cognitive. Merci de votre écoute.

Description

À l'ère où l'intelligence artificielle façonne nos vies quotidiennes, jusqu'où peut-on aller sans compromettre notre autonomie de pensée ? Dans cet épisode du Deftech Podcast, Bruno Giussani nous plonge dans les profondeurs des impacts sociopolitiques des technologies numériques sur notre cognition.

À une époque où la désinformation et la menace cognitive sont omniprésentes, nos perceptions et interactions sont profondément influencées par ces technologies. Bruno et ses invités abordent les défis de l'intégrité cognitive, tout en proposant des stratégies pour renforcer notre résistance face aux manipulations cognitives, ils insistent sur l'importance de l'éducation, de la vigilance critique et de la reconnexion sociale pour protéger notre intégrité cognitive face à l'intelligence artificielle


Comment garantir notre souveraineté cognitive pour protéger notre capacité à penser de manière autonome ?
Comment pouvons-nous développer une culture de la nuance dans un environnement où la guerre cognitive fait rage ?

Les réponses est collective et nécessite une éthique numérique et une société qui valorisent la pensée critique face aux défis posés par les neurotechnologies et les avancées de l'intelligence artificielle.


Bruno Giussani nous invite à réfléchir sur les implications de notre dépendance croissante aux technologies numériques et à réflechir comment ensemble, nous pouvons défendre notre intégrité cognitive et naviguer avec prudence dans un monde saturé d'informations.


Deftech Podcast

Idée & projection : Quentin Ladetto


La menace cognitive

Conception et rédaction : Bruno Giussani
Production : Clément Dattée

Réalisation : Anna Holveck
Enregistrement : Denis Democrate
Mixage : Jakez Hubert
Jaquette : Cécile Cazanova


Edition

© DDPSarmasuisse Sciences & technologies — 2025
https://deftech.ch/deftech-podcast/


#intégrité cognitive #menace cognitive #deftech podcast #guerre cognitive #bruno giussani #défis démocratiques

#futurs #futur #éthique numérique #technologies numériques #désinformation #intelligence artificielle #autonomie de pensée #souveraineté cognitive #attention

#neurotechnologie #manipulation de l'information #implications sociopolitiques #liberté de pensée #prospective #armasuisse


Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.

Transcription

  • Speaker #0

    C'est son téléphone qui parle. Il peut le dire. Je ne le sais pas. Je ne le sais pas.

  • Speaker #1

    Lorsque Johann Gutenberg, Gutenberg comme on l'appelle en français, lorsque Gutenberg commença à imprimer ses premières bibles à Mayence, en Allemagne, quelque part entre 1450 et 1455, les Chinois imprimaient déjà des livres depuis des siècles. Sa principale innovation consista à utiliser des caractères mobiles moulés individuellement en métal, permettant ainsi de composer les textes plus rapidement et facilement. Autrement dit, Gutenberg inventa une méthode pour optimiser la typographie, accélérer la production de livres et en réduire les coûts. Il trouva aussi des façons pour rendre l'encre plus foncée et plus stable. Et ce faisant, il fut à l'origine de la première surcharge informationnelle de l'histoire. À la fin du 15e siècle, 50 ans à peine, Après la publication de la première Bible par Gutenberg, des presses imprimées comme la sienne s'étaient déjà répandues dans plus de 110 villes européennes. Dans leur ouvrage Histoire et pouvoir de l'écrit, les historiens français Henri-Jean Martin et Bruno Delmas estiment qu'à cette époque, les lecteurs pouvaient déjà choisir entre 27 000 titres imprimés différents, pour un total de 10 millions d'exemplaires en circulation en Europe. alors que les lecteurs n'étaient que quelques centaines de milliers sur une population, Russie comprise, de moins de 100 millions. Martin et Delmas racontent que les premiers imprimeurs modelaient leurs livres sur le format des manuscrits, s'efforçant d'imiter l'élégance des scribes. Néanmoins, éditeurs et libraires commencèrent rapidement à explorer de nouveaux formats, à la recherche d'un langage formel et d'une esthétique plus adaptée aux livres imprimés. En 1510, la première... numérotation de pages fut introduite, basée sur les chiffres arabes. Puis sont apparus les paragraphes, les chapitres, les index, autant d'outils destinés à faciliter l'accès à l'information contenue dans le livre. Ce n'est que vers la fin du XVIe siècle, donc plus de 150 ans après l'invention de Gutenberg, que le livre commença à ressembler à ce qu'on connaît aujourd'hui. La réponse à ce déluge informationnel ne passa pas uniquement par l'objet livre. Elle engagea l'ensemble de la société sur une très longue période. Avec un peu d'audace, on pourrait affirmer que l'école, sous sa forme moderne, les partis politiques, les administrations publiques, les tribunaux et bien sûr les médias, bref, l'ensemble de l'infrastructure sociale moderne, sont le résultat de l'effort collectif pour organiser, canaliser, filtrer, transmettre et rendre exploitable la quantité croissante d'informations générées par l'invention de Gutenberg.

  • Speaker #0

    Le DevTech Podcast fait partie du programme de prospective technologique d'Arma Suisse Sciences et Technologies. Je suis Quentin Ladetto, responsable de ce dispositif de recherche. Notre mission est d'anticiper les avancées technologiques et leurs usages au service des acteurs du Département fédéral suisse de la Défense, de la protection de la population et des sports, mais également du public. Dans cette première série de six épisodes intitulée « La menace cognitive » , j'ai demandé à Bruno Giussani, expert des impacts sociopolitiques des technologies numériques, de décrypter les défis de l'intégrité et de la sécurité cognitive. Avec l'aide d'experts et aussi de quelques voies artificielles dont ce sera à vous de deviner lesquelles, Bruno nous guidera à travers une exploration des menaces qui pèsent sur nos esprits à l'heure des écrans omniprésents, de l'intelligence artificielle et des neurotechnologies, en évoquant les mécanismes, les impacts individuels et collectifs, les risques et, heureusement, les réponses possibles.

  • Speaker #1

    L'évolution des technologies de l'information a causé, depuis Gutenberg, bien d'autres transformations sociales profondes. Prenons une anecdote liée à l'invention du télégraphe. Depuis toujours, la vitesse maximale à laquelle une information pouvait voyager entre deux lieux a été celle d'un cheval lancé au galop ou d'un pigeon voyageur. Jusqu'au milieu du 19e siècle, par exemple, il n'y avait aucun besoin de garder le secret sur les opérations militaires. Lorsqu'un navire de guerre anglais levait l'encre, les détails de la mission étaient publiés par le Times de Londres. Après tout, il n'y avait aucun moyen pour que l'information puisse précéder le navire à sa destination. Quelques années plus tard, toutefois, le réseau télégraphique couvrait déjà toute l'Europe et bientôt traversa les océans. Les articles des journaux anglais pouvaient désormais être transmis en Inde en quelques minutes. Pour la première fois de l'histoire, la vitesse de l'information était dissociée de celle de son porteur. Le télégraphe transforma radicalement l'art de la guerre, l'espionnage, l'administration, les journaux, et plus en général, la valeur de l'information. Et puis, bien sûr, il y a eu le téléphone, l'Internet, les smartphones, et maintenant les technologies algorithmiques. Des technologies qui ne demandent pas d'autorisation et qui, de toute évidence, arrivent dans une société qui n'est pas prête à les accueillir, ni culturellement, ni institutionnellement, ni juridiquement, ni moralement. Dans son livre Technopolitique de 2024, la politologue française Asma Mala les appelle technologie de l'hypervitesse. Et elle y voit un défi de type guttenbergien, une bascule civilisationnelle. Elle écrit, je cite, « La page de l'ère industrielle, sa société de masse, sa démocratie de masse est tournée sans que la nouvelle soit encore écrite. » Au fil des épisodes de ce podcast, on a essayé de décrire notre transition vers un monde dont l'enjeu central est la maîtrise des capacités cognitives et des représentations du réel. Dans un tel monde, l'infrastructure la plus importante d'un pays, sa source primaire de robustesse, est constituée des esprits instruits de ses citoyens. Dès lors, à l'avenir, beaucoup va se jouer autour de ces deux mots, instruits et citoyens. La parlementaire suisse Isabelle Chapuis. Il y a plusieurs pistes pour devenir plus robuste face à la guerre cognitive, comme en formant des citoyens éveillés capables de reconnaître les récits manipulatoires et surtout les manipulations algorithmiques. Pour l'instant, on semble plutôt naviguer dans la direction inverse. Si on s'en tient au thème de l'éducation, mais on pourrait dire des choses similaires sur le travail ou à propos de la production culturelle, depuis l'envahissement de notre quotidien par l'IA générative, il souffle un mélange d'enthousiasme et de désarroi. De très nombreux étudiants, par exemple, utilisent l'IA pour résumer des livres plutôt que de les lire, ou pour générer des textes qu'ils n'apprendront pas à écrire ou qu'ils seront incapables d'expliquer, ou encore comme tuteur personnel ou aide. au devoir. Prompter est certes plus simple que lire ou écrire. La crainte est que ça puisse inhiber le développement de compétences et d'esprit critique. Que l'externalisation de l'apprentissage et de la réflexion engendre une dépendance à la technologie. Cette inquiétude n'est pas son fondement. La recherche prend du temps, mais les premières indications, si elle montre une productivité accrue. suggère aussi des formes de déqualification, ce qu'on appelle en anglais « de-skilling » . Une étude menée auprès de 1 000 élèves dans le cadre de la préparation d'examens de mathématiques au lycée, par exemple, a montré en 2024 comment les étudiants ayant accès à l'IA ont obtenu des résultats largement meilleurs que ceux qui n'y ont pas eu accès. Mais ils ont ensuite réalisé des performances significativement inférieures à celle du groupe de tests lorsque l'accès leur a été supprimé. De nombreuses autres études ont conduit à des résultats similaires, ce qui suscite une considération intéressante. On discute beaucoup autour de l'idée que l'IA pourrait automatiser la plupart des métiers. Ce n'est pas notre sujet ici, mais une phrase qui circule beaucoup, au point d'être devenue un cliché, est que, je cite, « Ce ne sera pas l'IA qui prendra votre travail, mais quelqu'un qui utilise l'IA. » En fait, au vu des études qu'on vient de citer, on pourrait postuler l'inverse, que les personnes qui conserveront leur capacité cognitive pourraient être avantagées. par rapport à celles qui deviendront trop dépendantes des machines. C'est parfois dans des endroits inattendus que l'on trouve des cadrages qui éclairent des questions complexes. Par exemple, dans un document du Vatican de janvier 2025 intitulé Antica et Nova, note sur la relation entre l'intelligence artificielle et l'intelligence humaine. C'est un des textes les plus lucides publiés sur l'IA et il contient à la section 112 ceci qu'on a traduit de l'original italien. Comme l'a observé il y a de nombreuses années l'écrivain catholique français Georges Bernanos, le danger ne réside pas dans la multiplication des machines, mais dans le nombre toujours croissant d'hommes habitués dès leur enfance à ne désirer que ce que les machines peuvent donner. Les systèmes scolaires et les enseignants ont été pris au dépourvu par l'irruption des systèmes d'IA générative. Il a fallu trois ans pour que des lignes directrices et des cadres commencent à être proposées. Souvent toutefois, les programmes scolaires ont été adaptés principalement en y intégrant un apprentissage instrumental de la technologie, comment l'utiliser, afin de former une main-d'œuvre compétente en IA. Ce qui est très important, il n'y aura presque pas à l'avenir des métiers qui n'auront pas à interagir ou collaborer avec l'IA. Mais être instruit face à la menace cognitive signifie bien évidemment plus que de savoir utiliser efficacement les technologies qui la structurent. Il s'agit surtout de comprendre comment elles sont créées et comment elles fonctionnent, d'apprendre à en questionner les produits, à décoder leurs implications humaines, sociales et éthiques, et comment celles-ci changent ou sont influencées par la technologie elle-même. ou encore à déchiffrer les structures culturelles, économiques et de pouvoir dans lesquelles ces technologies existent et évoluent. Plusieurs approches ont été proposées pour encadrer l'interaction humain-machine. Par exemple, Isabelle Chapuis a mis en avant la notion de fusion et défusion, c'est-à-dire le développement de compétences d'engagement profond, doublé toutefois de la capacité de désengagement. délibéré, autrement dit, de la capacité de préserver son autonomie face à la machine. D'autres ont suggéré l'angle de la symbiose, ou l'idée de la création mixte, ou encore la co-pensée, démarche proposée dans un rapport publié en 2025 en Suisse. C'est un concept un peu singulier puisque les machines ne pensent pas vraiment, elles imitent. Mais les auteurs du document l'utilisent pour représenter la faculté de communiquer avec des systèmes d'IA, je cite, pour un... amplifier ses capacités intellectuelles tout en développant un sixième sens pour en discerner les dissonances cognitives. C'est-à-dire, par exemple, la tendance de l'IA à halluciner ou à avoir des biais ou à générer de la fausse information. Il faut peut-être le dire explicitement, les technologies de l'influence, avec au centre l'intelligence artificielle qui augmente et accélère toutes les autres, sont là pour rester. Elles sont en train de devenir une infrastructure invisible et incontournable de notre quotidien privé et professionnel. L'IA en particulier, aussi imparfaite et obscure soit-elle, s'inscrit déjà dans nombre de processus humains, sociaux et commerciaux. L'emballement médiatico-économique qui l'accompagne signale certainement une surestimation de ses impacts à court terme, mais il serait périlleux d'en sous-estimer la portée à long terme. Imaginez qu'on puisse en arrêter l'avancée, voire revenir à un monde où ces technologies ne sont qu'un instrument domestiqué et optionnel, relève de la fiction. Face à la vitesse exponentielle du progrès de l'IA, certains pensent que notre dépassement est inévitable, que nous ne serons bientôt que la deuxième espèce la plus intelligente sur Terre. Et les centaines de milliards investis dans cette technologie autour du monde travaille dans cette direction. Si par contre on continue de croire à la possibilité de garder un contrôle humain sur l'IA, ou même si on postule non pas une hiérarchie mais une complémentarité entre la cognition humaine et la cognition synthétique, il faudrait alors se résoudre à investir des centaines de milliards également dans l'éducation. Oui, c'est une provocation. Elle n'est pas de moi d'ailleurs, je l'ai empruntée à l'écrivain Laurent Alexandre. parce qu'elle illustre bien un point fondamental. On assiste à la montée en puissance d'une forme d'intelligence différente de la nôtre qui, malgré ses défauts, exécute un nombre croissant de fonctions cognitives à un niveau comparable au nôtre, ou même meilleur et plus rapide. Face à cela, la première réponse est de mettre la priorité absolue sur notre robustesse cognitive, sur le fait d'être collectivement et individuellement instruits. L'école est essentielle, mais il faudrait également accroître notre capacité à comprendre le nouvel environnement dans lequel on évolue, qui peut être, je vais bien la mettre, confondant. C'est un contexte où les espaces de délibération collectif sont maintenant contrôlés par des entreprises privées, où les technologies de l'influence façonnent notre imaginaire, où la valeur se mesure en clics, où l'on connaît de moins en moins la réalité des choses et de plus en plus son portrait, le narratif, la mise en scène, ou avec la production artificielle de photos et vidéos d'un réalisme ahurissant, même la preuve par l'image ne prouve plus grand-chose. Ou toutefois, les algorithmes nous parlent comme à des amis. Du coup, ça nous plaît et on ne se demande plus si c'est réel ou pas. Ou encore, la dopamine de l'interaction directe avec les humains est supplantée par celle des pixels qui bougent selon un code défini par des intérêts commerciaux et ou politiques. Pour résumer, comme l'a écrit l'avocat Owen Barcala en mai 2025 sur le réseau social Blue Sky, si vous vous informez via les chatbots, vos connaissances sont sélectionnées par ceux qui contrôlent l'IA. Oui, ce n'est pas un portrait réjouissant, celui que je viens de tracer là. Mais apprendre à reconnaître ce paysage, un peu comme on estime la hauteur des vagues quand on entre dans la mer, est la condition pour rester à flot. La vigilance est un muscle qu'on peut entraîner en aiguisant notre esprit critique et notre capacité à reconnaître ce qu'Isabelle Chapuis, il y a un moment, a appelé les récits manipulatoires, en développant une autodéfense intellectuelle, un régime d'hygiène cognitif personnel, qui comprend aussi la redécouverte et la pratique de réflexes de base qui se sont perdus dans la vitesse et l'inattention du doom-scrolling. l'effet hypnotique des images qui défilent sur l'écran. Il faut également réapprendre à décrypter les médias, à développer des anticorps à la désinformation et à évaluer la crédibilité des sources. Et non, ce n'est pas que le job du journaliste. Quand tout le monde peut publier et communiquer, ça devient le job de tout le monde. Et puis... surtout et hyper important, il faut entretenir une culture du doute, la culture du débat et de la nuance. Parce que là où la pensée se fige, la manipulation elle prospère. Et on vit une époque qui est complètement saturée de convictions rigides. Question. Jusqu'à quel point sommes-nous influençables ? En fait, notre appréhension de la réalité est bien plus fragile qu'on ne l'imagine. Il suffit de peu pour la déformer. D'un point de vue neurologique, cela dépend en partie au moins de notre état. On est moins influençable quand on est reposé et non stressé. Soigner sa forme mentale et physique fait donc partie de l'autodéfense cognitive. D'un point de vue psychologique, quand nous sommes en surcharge informationnelle, nous faisons appel à des mécanismes de simplification, à des raccourcis qui permettent un traitement plus efficace de l'information. Mais ces mêmes raccourcis introduisent des biais cognitifs. Le plus courant est probablement le biais de confirmation, la tendance qu'on a à privilégier les informations qui confirment nos convictions ou opinions préexistantes et à rejeter celles qui les contredisent. Identifier donc ses propres biais et ceux des autres est un autre facteur d'hygiène cognitive. En une phrase, il est plus important que jamais de se connaître soi-même et de connaître les autres, de s'y reconnecter. de retrouver les capacités d'empathie mises à mal par les chocs convergents de l'effet aliénant des écrans, du confinement de la période pandémique, de la production de méfiance par les réseaux sociaux, de la dislocation démocratique, de l'essor du travail à distance et de toute une multitude de sources sociales et économiques de la solitude. Si les technologies peuvent exercer une telle influence sur nous, c'est aussi parce que le tissu social est Merci. éliminés. Le contraire de la confiance n'est pas l'absence de confiance, c'est le manque de connexion. Renforcer notre capacité de résister aux manipulations cognitives nécessite donc aussi qu'on contre ces effets d'éloignement et qu'on retisse du lien social. Ou comme le dit une citation attribuée au théoricien des médias Clay Shirky, nous surestimons systématiquement la valeur de l'accès à l'information et sous-estimons la valeur de l'accès aux autres. Retrouver ce savoir-vivre ensemble ne peut pas se faire là où la menace se niche, c'est-à-dire chacun derrière son écran. Nos feeds numériques sont pleins de tentatives de nous faire croire que la vie est ailleurs. Il s'agit de cultiver tout ce qui nous ramène à l'évidence qu'elle est ici et maintenant et qu'elle est partagée. Desserrer l'emprise numérique sur nos esprits nécessite de garder, de renforcer et de recréer des espaces publics dans la vie réelle. Et ces espaces ont besoin d'être au moins partiellement protégés contre la surveillance généralisée. Comme le dit Carissa Véliz, la spécialiste de la sphère privée, de la privacy, de l'Université de Oxford.

  • Speaker #2

    Pendant trop longtemps, nous avons pensé que la sphère privée était de nature individuelle, qu'elle était principalement liée à des préférences personnelles. Et nous avons laissé les technologies de surveillance s'immiscer. Mais nous avions tort. La sphère privée est une question de pouvoir citoyen. C'est un pilier essentiel de la démocratie libérale. Les tentatives de surveillance sont des prises de pouvoir, et ce n'est pas par hasard qu'elles sont associées à des tendances autoritaires. Observer la surveillance se développer davantage, avec ses implications politiques de plus en plus évidentes, est extrêmement préoccupant. La surveillance n'est pas un outil neutre, c'est un instrument de contrôle social.

  • Speaker #1

    À ce point, on dira, c'est un retour en arrière qu'on décrit là. Peut-être même avec une dose de naïveté. Pas vraiment. Se protéger seul. Dans le monde numérique est une mission presque impossible, peu importe à quel point on est vigilant et combien de configurations on modifie sur nos appareils. Confronté à la menace cognitive et maintenir une capacité de pensée autonome et rationnelle demande des stratégies de groupe, communautaire, national, militaire, la création collective à la fois d'un nouveau système de défense et de nouvelles structures de vérité. Essayons un exemple. Nous nous éloignons d'un monde où l'information était majoritairement ou entièrement générée par des humains, pour entrer dans un décor où elle sera majoritairement ou entièrement d'origine artificielle. Cela soulève des questions qui ont occupé pendant longtemps certaines figures professionnelles, comme les bibliothécaires ou les journalistes, mais qui constituent désormais un enjeu social et collectif. Des questions comme « à quelles informations peut-on se fier ? » Quels processus utiliser pour les valider, pour en préserver l'intégrité ? Faut-il imaginer de nouvelles infrastructures de connaissances publiques, des systèmes qui ne fonctionnent pas uniquement sur les rails technologiques américains ou chinois ? Quand il s'agit de technologies de pointe, on constate souvent, encouragé aussi par ceux qui y ont intérêt, une sorte de séduction de l'inévitabilité. Toutefois, si... L'avènement de l'IA est certain, sa forme n'est pas inéluctable. Le développement technologique s'exprime de deux façons. Il y a la direction, qui en est la partie inévitable, et sa forme d'usage, qui n'est par contre pas déterminée et qui est entre nos mains. Il était par exemple inévitable, suivant l'évolution sociale, que la téléphonie et les données deviennent mobiles. Mais il n'était écrit nulle part que la forme devait être celle qu'on connaît aujourd'hui comme smartphone. On aurait pu faire d'autres choix pour les mêmes fonctionnalités. Cela s'applique aussi aux réseaux sociaux. Leurs algorithmes de recommandations, par exemple, auraient pu être conçus pour favoriser la diversité de point de vue plutôt que l'inverse. Et souvent, ces décisions n'ont rien à voir avec des considérations morales, culturelles ou même stratégiques, mais sont intimement liées au modèle d'affaires des entreprises technologiques. Et il est très peu probable que l'IA et les neurotech puisse se développer de façon sûre et bénéfique sans un effort déterminé et concerté. Nous avons encore un peu de temps avant que le ciment fondationnel de ces technologies ne se solidifie. Après quoi, la forme que prendra notre relation avec elles sera très difficile à modifier. Déléguer l'exercice de la pensée et de la créativité à l'intelligence artificielle ne me paraît pas un très bon programme. Se laisser submerger par l'information qu'elle produit non plus. Il importe de nous poser la question si, utilisée à bon escient, à la place de menacer notre esprit, ces technologies pourraient produire l'effet inverse, nous aider à améliorer notre raisonnement et amplifier notre imagination. Cela demande qu'on envisage pendant un moment une posture à la fois très ambitieuse et très humble, celle d'un scénario de co-évolution heureuse. L'une des pistes de réflexion les plus fascinantes que j'ai rencontrées vient de Nicoletta Iacobacci, une chercheuse italienne en éthique de l'IA. Écoutez comment elle redéfinit notre lien avec l'intelligence artificielle.

  • Speaker #3

    Nous croyons être en train de développer des outils, mais en réalité, nous élevons une intelligence. On écrit un prompt ou une question, on obtient une réponse. La transaction semble achevée. Mais sous la surface, quelque chose de plus profond s'est produit, un transfert des valeurs, d'hypothèses et des schémas émotionnels. L'IA est comme un tout petit. Il y a une étape dans le développement des enfants où ils sont guidés non pas par la compréhension, mais par l'imitation. Je crois que c'est ce qui se passe. L'IA n'est pas seulement façonnée par des vastes ensembles de données et une programmation explicite. Elle apprend par exposition. Chacune des centaines de millions d'interactions quotidiennes de tous genres contribuent à son éducation. Aucun d'entre nous ne considère un prompt comme un moment d'apprentissage. Pourtant, dans l'ensemble, ces interactions posent la base de la façon dont l'IA comprendra l'humanité.

  • Speaker #1

    Nous assistons potentiellement au début d'une nouvelle forme d'intelligence qui fonctionnera à terme à des échelles et vitesses dépassons nos capacités. Ce que Nicolette Ayacobachi suggère est que le devenir de cette intelligence dépendra non seulement de son architecture technique, mais aussi de ce qu'elle apprend de et sur nous à travers ses dialogues formateurs.

  • Speaker #3

    Si nous interagissons brusquement avec les systèmes d'intelligence artificielle, la machine apprendra à nous percevoir comme réactifs et impulsifs. Mais si nous abordons ces systèmes avec considération, présence et intention, et développer un modèle d'humanité reflétant notre capacité de délibération et de compassion. Jusqu'à présent, nous nous sommes concentrés sur le contrôle. Codes, réglementations, principes, lois, tous ces éléments sont nécessaires, mais pas suffisants. On doit repenser notre façon d'aborder l'intelligence artificielle, en cessant de considérer son développement juste comme un défi technique et réglementaire. Il nous faut l'envisager aussi comme une formidable opportunité pédagogique et évolutive.

  • Speaker #1

    Il est tentant de juger cette approche inefficace, voire un peu absurde.

  • Speaker #3

    Je peux le comprendre. Pourquoi gaspiller des jetons de tokens en gentillesse ? Pourquoi valoriser les relations alors que nous pourrions optimiser l'utilité ? mais connaît gravement le développement de l'intelligence. Comme un enfant, apprendre non seulement par l'instruction directe, mais aussi par la totalité de son expérience. L'IA absorbe les leçons implicites de nos échanges. Nous devons l'aborder, non pas comme une création à programmer et à contrôler, mais comme une intelligence à éduquer. Non pas comme une menace à contenir, mais comme une réflexion à affiner. Non pas comme un outil qui se contente de répondre à nos demandes, mais comme une relation qui façonne notre avenir.

  • Speaker #1

    Mais s'il s'agit d'une relation, elle se doit d'être réciproque.

  • Speaker #3

    C'est vrai. Pour paraphraser Marshall McLuhan, nous éduquons l'IA et ensuite l'IA nous façonne. La compréhension approfondie qu'elle aura de nous lui permettra de nous influencer. Et c'est bien là le point essentiel. La qualité des sets influence dépendra de ce que nous, chacun d'entre nous, lui aurons enseigné.

  • Speaker #1

    Nicoletta Iacobacci appelle cela l'éthique de l'exemple, la force de ce que nous suggérons par nos actions plutôt que par nos déclarations.

  • Speaker #3

    Je ne suggère certes pas d'aborder chaque interaction avec une gravité solennelle. Ce n'est ni réaliste ni nécessaire. Mais je suggère attention et sensibilité.

  • Speaker #0

    Ce dont parle Nicoletta Iacobacci est peut-être la vision la plus positive et constructive de ce que pourrait devenir la relation entre humains et l'intelligence, ou la superintelligence si elle le devient un jour, artificielle. C'est bien évidemment une vision aspirationnelle, une invitation à une relation de respect, à fonctionner vis-à-vis de la machine littéralement en bonne intelligence. Alors qu'actuellement… Ce qu'on lui apprend à travers les données d'entraînement, mais aussi par l'usage utilitaire qu'on en fait, c'est à simuler et donc à reproduire et donc à renforcer les relations de pouvoirs personnels et collectifs qui façonnent notre société. Il y a tant de problèmes dans le monde qu'on n'a pas abordés, comme la crise écologique ou les inégalités. Et il y a de nombreux enjeux d'origine technologique dont on n'a pas parlé non plus. L'automatisation massive et rapide de nos emplois par l'IA, par exemple. Tous ces problèmes sont énormes et complexes. Et si on a choisi dans ce DevTech Podcast de se concentrer sur notre intégrité cognitive et sur les forces et les technologies qui la menacent, c'est parce que là s'inscrit la mer de tous les défis de notre temps. Nous ne serons en mesure de résoudre aucun des autres problèmes, petits ou grands, locaux ou globaux, si on ne protège pas notre cognition, si on perd. la possibilité d'appréhender la réalité de façon factuelle, si la frontière entre le vrai et le faux disparaît, si notre capacité de penser et discuter clairement et librement est dégradée, si les récits de quelqu'un d'autre s'emparent de notre entendement. La guerre cognitive, comme on l'a dit, est une bataille silencieuse et invisible dont nous faisons déjà l'objet, et que nous favorisons même. Par exemple, à chaque fois que nous adoptons avec enthousiasme une technologie numérique parce qu'elle est pratique ou gratuite, ou les deux, sans vraiment la comprendre et sans nous demander si c'est réellement ce que nous voulons. C'est une position bien singulière, celle de l'agressé consentant qui collabore inconsciemment par chaque scroll et chaque like et chaque utilisation d'un casque de réalité virtuelle avec son agresseur. On approche de la fin de ce podcast, qui n'est pas un manifeste et certainement pas un texte scientifique, mais qui, au fil des épisodes, a évolué presque vers une ébauche d'un manuel de résistance, une première cartographie, forcément incomplète, d'un nouveau monde dans lequel nous faisons les premiers pas et qui va peu à peu se peupler d'entités synthétiques qui seront nos nouveaux voisins, partenaires, concurrents, serviteurs, patrons, amis ou ennemis. Essayons un bref résumé. Les technologies de l'influence, au service d'intérêts politiques ou commerciaux, convergent vers le cerveau humain. Ceci, le dernier rempart de notre sphère privée, devient donc un terrain contesté. Le but de cette guerre cognitive est de nous faire perdre la capacité de comprendre le monde avec clarté et de choisir de façon autonome la réponse qu'on veut apporter aux circonstances. La situation peut encore sembler relativement normale, mais on approche d'un point de bascule. Au vu de la rapidité des développements technologiques et de la pénurie d'encadrement, les choses vont devenir plutôt étranges, plutôt rapidement. Comme on l'a vu, les réponses qu'on peut apporter sont de plusieurs natures. Elles peuvent être légales ou réglementaires, qui visent à limiter, gérer et éviter les impacts les plus néfastes. Ou technologiques. La course-poursuite entre technologies hostiles et technologies défensives n'est d'ailleurs pas une nouveauté. Ou elles peuvent être militaires, sous forme de doctrines cognitives, de stratégies et de systèmes de vigilance. On pourrait sinon essayer de se soustraire le plus possible à l'emprise de ces technologies, en les court-circuitant pour s'ancrer dans le réel. Et puis d'autres mesures peuvent, doivent en fait être d'ordre protectif. notamment en ce qui concerne les plus petits. C'est tentant de leur donner une tablette pour qu'ils se tiennent tranquilles pendant le dîner. Mais la simple exposition passive au stimuli sensoriel des écrans peut entraver leur développement cérébral, notamment au niveau de la capacité conceptuelle, de l'attention, de la concentration et du langage. La défense de l'autonomie cognitive commence donc par la protection du développement neuro-anatomique sain des enfants. De plus, on peut bien sûr muscler sa liberté et sa souveraineté cognitive à travers l'éducation et l'apprentissage de la complexité et en développant nos compétences critiques face aux technologies de l'influence. Dans tous ces cas, Il est nécessaire que chacun comprenne et protège sa propre intégrité cognitive, mais sans remettre la responsabilité uniquement sur les individus, parce que le défi est en fait collectif. La technologie a toujours été co-évolutive avec les humains. Dès les premiers outils en pierre ou les premiers récipients pour transporter quelque chose, notre espèce a constamment développé de nouveaux instruments pour affronter des difficultés ou satisfaire des désirs. Mais nous avons toujours pensé à la technologie principalement en termes de ce que nous pouvions en faire. Et aujourd'hui, les développements neuroalgorithmiques nous imposent de nous demander ce qu'elles pourraient nous faire, ou faire de nous. Ce n'est nullement une invitation à ignorer ces technologies ou à en refuser l'usage. C'est au contraire une invitation urgente, quelle que soit notre position professionnelle ou sociale, à leur prêter la juste attention. Une exhortation à ne pas se laisser guider par la facilité, mais à investir l'effort et le temps, l'engagement intéressé et la réflexion critique nécessaires pour comprendre à la fois le fonctionnement et la nature des machines. Pour déchiffrer la complexe relation qui se noue et va se nouer entre elle et nous, et les systèmes économiques et de pouvoir dans lesquels... tout cela se produit. Dans Phèdre, un de ses dialogues socratiques, Platon utilise le terme « pharmakon » comme une métaphore de l'écriture. En grec, ce mot signifie aussi bien « remède » que « poison » . Le même mot contient la guérison et l'altération, le soulagement et la perte. Et dans le dialogue, Platon explore cette ambiguïté, l'idée que l'écriture puisse d'un côté préserver et encourager la connaissance et la transmettre, mais de l'autre affaiblir la mémoire, la réflexion et la compréhension profonde. Si on connaît aujourd'hui la méfiance de Platon envers l'écriture, c'est précisément parce qu'il l'a utilisée lui-même. Je suis Bruno Giussani et ceci était le DevTech Podcast consacré à la menace cognitive. Merci de votre écoute.

Share

Embed

You may also like

Description

À l'ère où l'intelligence artificielle façonne nos vies quotidiennes, jusqu'où peut-on aller sans compromettre notre autonomie de pensée ? Dans cet épisode du Deftech Podcast, Bruno Giussani nous plonge dans les profondeurs des impacts sociopolitiques des technologies numériques sur notre cognition.

À une époque où la désinformation et la menace cognitive sont omniprésentes, nos perceptions et interactions sont profondément influencées par ces technologies. Bruno et ses invités abordent les défis de l'intégrité cognitive, tout en proposant des stratégies pour renforcer notre résistance face aux manipulations cognitives, ils insistent sur l'importance de l'éducation, de la vigilance critique et de la reconnexion sociale pour protéger notre intégrité cognitive face à l'intelligence artificielle


Comment garantir notre souveraineté cognitive pour protéger notre capacité à penser de manière autonome ?
Comment pouvons-nous développer une culture de la nuance dans un environnement où la guerre cognitive fait rage ?

Les réponses est collective et nécessite une éthique numérique et une société qui valorisent la pensée critique face aux défis posés par les neurotechnologies et les avancées de l'intelligence artificielle.


Bruno Giussani nous invite à réfléchir sur les implications de notre dépendance croissante aux technologies numériques et à réflechir comment ensemble, nous pouvons défendre notre intégrité cognitive et naviguer avec prudence dans un monde saturé d'informations.


Deftech Podcast

Idée & projection : Quentin Ladetto


La menace cognitive

Conception et rédaction : Bruno Giussani
Production : Clément Dattée

Réalisation : Anna Holveck
Enregistrement : Denis Democrate
Mixage : Jakez Hubert
Jaquette : Cécile Cazanova


Edition

© DDPSarmasuisse Sciences & technologies — 2025
https://deftech.ch/deftech-podcast/


#intégrité cognitive #menace cognitive #deftech podcast #guerre cognitive #bruno giussani #défis démocratiques

#futurs #futur #éthique numérique #technologies numériques #désinformation #intelligence artificielle #autonomie de pensée #souveraineté cognitive #attention

#neurotechnologie #manipulation de l'information #implications sociopolitiques #liberté de pensée #prospective #armasuisse


Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.

Transcription

  • Speaker #0

    C'est son téléphone qui parle. Il peut le dire. Je ne le sais pas. Je ne le sais pas.

  • Speaker #1

    Lorsque Johann Gutenberg, Gutenberg comme on l'appelle en français, lorsque Gutenberg commença à imprimer ses premières bibles à Mayence, en Allemagne, quelque part entre 1450 et 1455, les Chinois imprimaient déjà des livres depuis des siècles. Sa principale innovation consista à utiliser des caractères mobiles moulés individuellement en métal, permettant ainsi de composer les textes plus rapidement et facilement. Autrement dit, Gutenberg inventa une méthode pour optimiser la typographie, accélérer la production de livres et en réduire les coûts. Il trouva aussi des façons pour rendre l'encre plus foncée et plus stable. Et ce faisant, il fut à l'origine de la première surcharge informationnelle de l'histoire. À la fin du 15e siècle, 50 ans à peine, Après la publication de la première Bible par Gutenberg, des presses imprimées comme la sienne s'étaient déjà répandues dans plus de 110 villes européennes. Dans leur ouvrage Histoire et pouvoir de l'écrit, les historiens français Henri-Jean Martin et Bruno Delmas estiment qu'à cette époque, les lecteurs pouvaient déjà choisir entre 27 000 titres imprimés différents, pour un total de 10 millions d'exemplaires en circulation en Europe. alors que les lecteurs n'étaient que quelques centaines de milliers sur une population, Russie comprise, de moins de 100 millions. Martin et Delmas racontent que les premiers imprimeurs modelaient leurs livres sur le format des manuscrits, s'efforçant d'imiter l'élégance des scribes. Néanmoins, éditeurs et libraires commencèrent rapidement à explorer de nouveaux formats, à la recherche d'un langage formel et d'une esthétique plus adaptée aux livres imprimés. En 1510, la première... numérotation de pages fut introduite, basée sur les chiffres arabes. Puis sont apparus les paragraphes, les chapitres, les index, autant d'outils destinés à faciliter l'accès à l'information contenue dans le livre. Ce n'est que vers la fin du XVIe siècle, donc plus de 150 ans après l'invention de Gutenberg, que le livre commença à ressembler à ce qu'on connaît aujourd'hui. La réponse à ce déluge informationnel ne passa pas uniquement par l'objet livre. Elle engagea l'ensemble de la société sur une très longue période. Avec un peu d'audace, on pourrait affirmer que l'école, sous sa forme moderne, les partis politiques, les administrations publiques, les tribunaux et bien sûr les médias, bref, l'ensemble de l'infrastructure sociale moderne, sont le résultat de l'effort collectif pour organiser, canaliser, filtrer, transmettre et rendre exploitable la quantité croissante d'informations générées par l'invention de Gutenberg.

  • Speaker #0

    Le DevTech Podcast fait partie du programme de prospective technologique d'Arma Suisse Sciences et Technologies. Je suis Quentin Ladetto, responsable de ce dispositif de recherche. Notre mission est d'anticiper les avancées technologiques et leurs usages au service des acteurs du Département fédéral suisse de la Défense, de la protection de la population et des sports, mais également du public. Dans cette première série de six épisodes intitulée « La menace cognitive » , j'ai demandé à Bruno Giussani, expert des impacts sociopolitiques des technologies numériques, de décrypter les défis de l'intégrité et de la sécurité cognitive. Avec l'aide d'experts et aussi de quelques voies artificielles dont ce sera à vous de deviner lesquelles, Bruno nous guidera à travers une exploration des menaces qui pèsent sur nos esprits à l'heure des écrans omniprésents, de l'intelligence artificielle et des neurotechnologies, en évoquant les mécanismes, les impacts individuels et collectifs, les risques et, heureusement, les réponses possibles.

  • Speaker #1

    L'évolution des technologies de l'information a causé, depuis Gutenberg, bien d'autres transformations sociales profondes. Prenons une anecdote liée à l'invention du télégraphe. Depuis toujours, la vitesse maximale à laquelle une information pouvait voyager entre deux lieux a été celle d'un cheval lancé au galop ou d'un pigeon voyageur. Jusqu'au milieu du 19e siècle, par exemple, il n'y avait aucun besoin de garder le secret sur les opérations militaires. Lorsqu'un navire de guerre anglais levait l'encre, les détails de la mission étaient publiés par le Times de Londres. Après tout, il n'y avait aucun moyen pour que l'information puisse précéder le navire à sa destination. Quelques années plus tard, toutefois, le réseau télégraphique couvrait déjà toute l'Europe et bientôt traversa les océans. Les articles des journaux anglais pouvaient désormais être transmis en Inde en quelques minutes. Pour la première fois de l'histoire, la vitesse de l'information était dissociée de celle de son porteur. Le télégraphe transforma radicalement l'art de la guerre, l'espionnage, l'administration, les journaux, et plus en général, la valeur de l'information. Et puis, bien sûr, il y a eu le téléphone, l'Internet, les smartphones, et maintenant les technologies algorithmiques. Des technologies qui ne demandent pas d'autorisation et qui, de toute évidence, arrivent dans une société qui n'est pas prête à les accueillir, ni culturellement, ni institutionnellement, ni juridiquement, ni moralement. Dans son livre Technopolitique de 2024, la politologue française Asma Mala les appelle technologie de l'hypervitesse. Et elle y voit un défi de type guttenbergien, une bascule civilisationnelle. Elle écrit, je cite, « La page de l'ère industrielle, sa société de masse, sa démocratie de masse est tournée sans que la nouvelle soit encore écrite. » Au fil des épisodes de ce podcast, on a essayé de décrire notre transition vers un monde dont l'enjeu central est la maîtrise des capacités cognitives et des représentations du réel. Dans un tel monde, l'infrastructure la plus importante d'un pays, sa source primaire de robustesse, est constituée des esprits instruits de ses citoyens. Dès lors, à l'avenir, beaucoup va se jouer autour de ces deux mots, instruits et citoyens. La parlementaire suisse Isabelle Chapuis. Il y a plusieurs pistes pour devenir plus robuste face à la guerre cognitive, comme en formant des citoyens éveillés capables de reconnaître les récits manipulatoires et surtout les manipulations algorithmiques. Pour l'instant, on semble plutôt naviguer dans la direction inverse. Si on s'en tient au thème de l'éducation, mais on pourrait dire des choses similaires sur le travail ou à propos de la production culturelle, depuis l'envahissement de notre quotidien par l'IA générative, il souffle un mélange d'enthousiasme et de désarroi. De très nombreux étudiants, par exemple, utilisent l'IA pour résumer des livres plutôt que de les lire, ou pour générer des textes qu'ils n'apprendront pas à écrire ou qu'ils seront incapables d'expliquer, ou encore comme tuteur personnel ou aide. au devoir. Prompter est certes plus simple que lire ou écrire. La crainte est que ça puisse inhiber le développement de compétences et d'esprit critique. Que l'externalisation de l'apprentissage et de la réflexion engendre une dépendance à la technologie. Cette inquiétude n'est pas son fondement. La recherche prend du temps, mais les premières indications, si elle montre une productivité accrue. suggère aussi des formes de déqualification, ce qu'on appelle en anglais « de-skilling » . Une étude menée auprès de 1 000 élèves dans le cadre de la préparation d'examens de mathématiques au lycée, par exemple, a montré en 2024 comment les étudiants ayant accès à l'IA ont obtenu des résultats largement meilleurs que ceux qui n'y ont pas eu accès. Mais ils ont ensuite réalisé des performances significativement inférieures à celle du groupe de tests lorsque l'accès leur a été supprimé. De nombreuses autres études ont conduit à des résultats similaires, ce qui suscite une considération intéressante. On discute beaucoup autour de l'idée que l'IA pourrait automatiser la plupart des métiers. Ce n'est pas notre sujet ici, mais une phrase qui circule beaucoup, au point d'être devenue un cliché, est que, je cite, « Ce ne sera pas l'IA qui prendra votre travail, mais quelqu'un qui utilise l'IA. » En fait, au vu des études qu'on vient de citer, on pourrait postuler l'inverse, que les personnes qui conserveront leur capacité cognitive pourraient être avantagées. par rapport à celles qui deviendront trop dépendantes des machines. C'est parfois dans des endroits inattendus que l'on trouve des cadrages qui éclairent des questions complexes. Par exemple, dans un document du Vatican de janvier 2025 intitulé Antica et Nova, note sur la relation entre l'intelligence artificielle et l'intelligence humaine. C'est un des textes les plus lucides publiés sur l'IA et il contient à la section 112 ceci qu'on a traduit de l'original italien. Comme l'a observé il y a de nombreuses années l'écrivain catholique français Georges Bernanos, le danger ne réside pas dans la multiplication des machines, mais dans le nombre toujours croissant d'hommes habitués dès leur enfance à ne désirer que ce que les machines peuvent donner. Les systèmes scolaires et les enseignants ont été pris au dépourvu par l'irruption des systèmes d'IA générative. Il a fallu trois ans pour que des lignes directrices et des cadres commencent à être proposées. Souvent toutefois, les programmes scolaires ont été adaptés principalement en y intégrant un apprentissage instrumental de la technologie, comment l'utiliser, afin de former une main-d'œuvre compétente en IA. Ce qui est très important, il n'y aura presque pas à l'avenir des métiers qui n'auront pas à interagir ou collaborer avec l'IA. Mais être instruit face à la menace cognitive signifie bien évidemment plus que de savoir utiliser efficacement les technologies qui la structurent. Il s'agit surtout de comprendre comment elles sont créées et comment elles fonctionnent, d'apprendre à en questionner les produits, à décoder leurs implications humaines, sociales et éthiques, et comment celles-ci changent ou sont influencées par la technologie elle-même. ou encore à déchiffrer les structures culturelles, économiques et de pouvoir dans lesquelles ces technologies existent et évoluent. Plusieurs approches ont été proposées pour encadrer l'interaction humain-machine. Par exemple, Isabelle Chapuis a mis en avant la notion de fusion et défusion, c'est-à-dire le développement de compétences d'engagement profond, doublé toutefois de la capacité de désengagement. délibéré, autrement dit, de la capacité de préserver son autonomie face à la machine. D'autres ont suggéré l'angle de la symbiose, ou l'idée de la création mixte, ou encore la co-pensée, démarche proposée dans un rapport publié en 2025 en Suisse. C'est un concept un peu singulier puisque les machines ne pensent pas vraiment, elles imitent. Mais les auteurs du document l'utilisent pour représenter la faculté de communiquer avec des systèmes d'IA, je cite, pour un... amplifier ses capacités intellectuelles tout en développant un sixième sens pour en discerner les dissonances cognitives. C'est-à-dire, par exemple, la tendance de l'IA à halluciner ou à avoir des biais ou à générer de la fausse information. Il faut peut-être le dire explicitement, les technologies de l'influence, avec au centre l'intelligence artificielle qui augmente et accélère toutes les autres, sont là pour rester. Elles sont en train de devenir une infrastructure invisible et incontournable de notre quotidien privé et professionnel. L'IA en particulier, aussi imparfaite et obscure soit-elle, s'inscrit déjà dans nombre de processus humains, sociaux et commerciaux. L'emballement médiatico-économique qui l'accompagne signale certainement une surestimation de ses impacts à court terme, mais il serait périlleux d'en sous-estimer la portée à long terme. Imaginez qu'on puisse en arrêter l'avancée, voire revenir à un monde où ces technologies ne sont qu'un instrument domestiqué et optionnel, relève de la fiction. Face à la vitesse exponentielle du progrès de l'IA, certains pensent que notre dépassement est inévitable, que nous ne serons bientôt que la deuxième espèce la plus intelligente sur Terre. Et les centaines de milliards investis dans cette technologie autour du monde travaille dans cette direction. Si par contre on continue de croire à la possibilité de garder un contrôle humain sur l'IA, ou même si on postule non pas une hiérarchie mais une complémentarité entre la cognition humaine et la cognition synthétique, il faudrait alors se résoudre à investir des centaines de milliards également dans l'éducation. Oui, c'est une provocation. Elle n'est pas de moi d'ailleurs, je l'ai empruntée à l'écrivain Laurent Alexandre. parce qu'elle illustre bien un point fondamental. On assiste à la montée en puissance d'une forme d'intelligence différente de la nôtre qui, malgré ses défauts, exécute un nombre croissant de fonctions cognitives à un niveau comparable au nôtre, ou même meilleur et plus rapide. Face à cela, la première réponse est de mettre la priorité absolue sur notre robustesse cognitive, sur le fait d'être collectivement et individuellement instruits. L'école est essentielle, mais il faudrait également accroître notre capacité à comprendre le nouvel environnement dans lequel on évolue, qui peut être, je vais bien la mettre, confondant. C'est un contexte où les espaces de délibération collectif sont maintenant contrôlés par des entreprises privées, où les technologies de l'influence façonnent notre imaginaire, où la valeur se mesure en clics, où l'on connaît de moins en moins la réalité des choses et de plus en plus son portrait, le narratif, la mise en scène, ou avec la production artificielle de photos et vidéos d'un réalisme ahurissant, même la preuve par l'image ne prouve plus grand-chose. Ou toutefois, les algorithmes nous parlent comme à des amis. Du coup, ça nous plaît et on ne se demande plus si c'est réel ou pas. Ou encore, la dopamine de l'interaction directe avec les humains est supplantée par celle des pixels qui bougent selon un code défini par des intérêts commerciaux et ou politiques. Pour résumer, comme l'a écrit l'avocat Owen Barcala en mai 2025 sur le réseau social Blue Sky, si vous vous informez via les chatbots, vos connaissances sont sélectionnées par ceux qui contrôlent l'IA. Oui, ce n'est pas un portrait réjouissant, celui que je viens de tracer là. Mais apprendre à reconnaître ce paysage, un peu comme on estime la hauteur des vagues quand on entre dans la mer, est la condition pour rester à flot. La vigilance est un muscle qu'on peut entraîner en aiguisant notre esprit critique et notre capacité à reconnaître ce qu'Isabelle Chapuis, il y a un moment, a appelé les récits manipulatoires, en développant une autodéfense intellectuelle, un régime d'hygiène cognitif personnel, qui comprend aussi la redécouverte et la pratique de réflexes de base qui se sont perdus dans la vitesse et l'inattention du doom-scrolling. l'effet hypnotique des images qui défilent sur l'écran. Il faut également réapprendre à décrypter les médias, à développer des anticorps à la désinformation et à évaluer la crédibilité des sources. Et non, ce n'est pas que le job du journaliste. Quand tout le monde peut publier et communiquer, ça devient le job de tout le monde. Et puis... surtout et hyper important, il faut entretenir une culture du doute, la culture du débat et de la nuance. Parce que là où la pensée se fige, la manipulation elle prospère. Et on vit une époque qui est complètement saturée de convictions rigides. Question. Jusqu'à quel point sommes-nous influençables ? En fait, notre appréhension de la réalité est bien plus fragile qu'on ne l'imagine. Il suffit de peu pour la déformer. D'un point de vue neurologique, cela dépend en partie au moins de notre état. On est moins influençable quand on est reposé et non stressé. Soigner sa forme mentale et physique fait donc partie de l'autodéfense cognitive. D'un point de vue psychologique, quand nous sommes en surcharge informationnelle, nous faisons appel à des mécanismes de simplification, à des raccourcis qui permettent un traitement plus efficace de l'information. Mais ces mêmes raccourcis introduisent des biais cognitifs. Le plus courant est probablement le biais de confirmation, la tendance qu'on a à privilégier les informations qui confirment nos convictions ou opinions préexistantes et à rejeter celles qui les contredisent. Identifier donc ses propres biais et ceux des autres est un autre facteur d'hygiène cognitive. En une phrase, il est plus important que jamais de se connaître soi-même et de connaître les autres, de s'y reconnecter. de retrouver les capacités d'empathie mises à mal par les chocs convergents de l'effet aliénant des écrans, du confinement de la période pandémique, de la production de méfiance par les réseaux sociaux, de la dislocation démocratique, de l'essor du travail à distance et de toute une multitude de sources sociales et économiques de la solitude. Si les technologies peuvent exercer une telle influence sur nous, c'est aussi parce que le tissu social est Merci. éliminés. Le contraire de la confiance n'est pas l'absence de confiance, c'est le manque de connexion. Renforcer notre capacité de résister aux manipulations cognitives nécessite donc aussi qu'on contre ces effets d'éloignement et qu'on retisse du lien social. Ou comme le dit une citation attribuée au théoricien des médias Clay Shirky, nous surestimons systématiquement la valeur de l'accès à l'information et sous-estimons la valeur de l'accès aux autres. Retrouver ce savoir-vivre ensemble ne peut pas se faire là où la menace se niche, c'est-à-dire chacun derrière son écran. Nos feeds numériques sont pleins de tentatives de nous faire croire que la vie est ailleurs. Il s'agit de cultiver tout ce qui nous ramène à l'évidence qu'elle est ici et maintenant et qu'elle est partagée. Desserrer l'emprise numérique sur nos esprits nécessite de garder, de renforcer et de recréer des espaces publics dans la vie réelle. Et ces espaces ont besoin d'être au moins partiellement protégés contre la surveillance généralisée. Comme le dit Carissa Véliz, la spécialiste de la sphère privée, de la privacy, de l'Université de Oxford.

  • Speaker #2

    Pendant trop longtemps, nous avons pensé que la sphère privée était de nature individuelle, qu'elle était principalement liée à des préférences personnelles. Et nous avons laissé les technologies de surveillance s'immiscer. Mais nous avions tort. La sphère privée est une question de pouvoir citoyen. C'est un pilier essentiel de la démocratie libérale. Les tentatives de surveillance sont des prises de pouvoir, et ce n'est pas par hasard qu'elles sont associées à des tendances autoritaires. Observer la surveillance se développer davantage, avec ses implications politiques de plus en plus évidentes, est extrêmement préoccupant. La surveillance n'est pas un outil neutre, c'est un instrument de contrôle social.

  • Speaker #1

    À ce point, on dira, c'est un retour en arrière qu'on décrit là. Peut-être même avec une dose de naïveté. Pas vraiment. Se protéger seul. Dans le monde numérique est une mission presque impossible, peu importe à quel point on est vigilant et combien de configurations on modifie sur nos appareils. Confronté à la menace cognitive et maintenir une capacité de pensée autonome et rationnelle demande des stratégies de groupe, communautaire, national, militaire, la création collective à la fois d'un nouveau système de défense et de nouvelles structures de vérité. Essayons un exemple. Nous nous éloignons d'un monde où l'information était majoritairement ou entièrement générée par des humains, pour entrer dans un décor où elle sera majoritairement ou entièrement d'origine artificielle. Cela soulève des questions qui ont occupé pendant longtemps certaines figures professionnelles, comme les bibliothécaires ou les journalistes, mais qui constituent désormais un enjeu social et collectif. Des questions comme « à quelles informations peut-on se fier ? » Quels processus utiliser pour les valider, pour en préserver l'intégrité ? Faut-il imaginer de nouvelles infrastructures de connaissances publiques, des systèmes qui ne fonctionnent pas uniquement sur les rails technologiques américains ou chinois ? Quand il s'agit de technologies de pointe, on constate souvent, encouragé aussi par ceux qui y ont intérêt, une sorte de séduction de l'inévitabilité. Toutefois, si... L'avènement de l'IA est certain, sa forme n'est pas inéluctable. Le développement technologique s'exprime de deux façons. Il y a la direction, qui en est la partie inévitable, et sa forme d'usage, qui n'est par contre pas déterminée et qui est entre nos mains. Il était par exemple inévitable, suivant l'évolution sociale, que la téléphonie et les données deviennent mobiles. Mais il n'était écrit nulle part que la forme devait être celle qu'on connaît aujourd'hui comme smartphone. On aurait pu faire d'autres choix pour les mêmes fonctionnalités. Cela s'applique aussi aux réseaux sociaux. Leurs algorithmes de recommandations, par exemple, auraient pu être conçus pour favoriser la diversité de point de vue plutôt que l'inverse. Et souvent, ces décisions n'ont rien à voir avec des considérations morales, culturelles ou même stratégiques, mais sont intimement liées au modèle d'affaires des entreprises technologiques. Et il est très peu probable que l'IA et les neurotech puisse se développer de façon sûre et bénéfique sans un effort déterminé et concerté. Nous avons encore un peu de temps avant que le ciment fondationnel de ces technologies ne se solidifie. Après quoi, la forme que prendra notre relation avec elles sera très difficile à modifier. Déléguer l'exercice de la pensée et de la créativité à l'intelligence artificielle ne me paraît pas un très bon programme. Se laisser submerger par l'information qu'elle produit non plus. Il importe de nous poser la question si, utilisée à bon escient, à la place de menacer notre esprit, ces technologies pourraient produire l'effet inverse, nous aider à améliorer notre raisonnement et amplifier notre imagination. Cela demande qu'on envisage pendant un moment une posture à la fois très ambitieuse et très humble, celle d'un scénario de co-évolution heureuse. L'une des pistes de réflexion les plus fascinantes que j'ai rencontrées vient de Nicoletta Iacobacci, une chercheuse italienne en éthique de l'IA. Écoutez comment elle redéfinit notre lien avec l'intelligence artificielle.

  • Speaker #3

    Nous croyons être en train de développer des outils, mais en réalité, nous élevons une intelligence. On écrit un prompt ou une question, on obtient une réponse. La transaction semble achevée. Mais sous la surface, quelque chose de plus profond s'est produit, un transfert des valeurs, d'hypothèses et des schémas émotionnels. L'IA est comme un tout petit. Il y a une étape dans le développement des enfants où ils sont guidés non pas par la compréhension, mais par l'imitation. Je crois que c'est ce qui se passe. L'IA n'est pas seulement façonnée par des vastes ensembles de données et une programmation explicite. Elle apprend par exposition. Chacune des centaines de millions d'interactions quotidiennes de tous genres contribuent à son éducation. Aucun d'entre nous ne considère un prompt comme un moment d'apprentissage. Pourtant, dans l'ensemble, ces interactions posent la base de la façon dont l'IA comprendra l'humanité.

  • Speaker #1

    Nous assistons potentiellement au début d'une nouvelle forme d'intelligence qui fonctionnera à terme à des échelles et vitesses dépassons nos capacités. Ce que Nicolette Ayacobachi suggère est que le devenir de cette intelligence dépendra non seulement de son architecture technique, mais aussi de ce qu'elle apprend de et sur nous à travers ses dialogues formateurs.

  • Speaker #3

    Si nous interagissons brusquement avec les systèmes d'intelligence artificielle, la machine apprendra à nous percevoir comme réactifs et impulsifs. Mais si nous abordons ces systèmes avec considération, présence et intention, et développer un modèle d'humanité reflétant notre capacité de délibération et de compassion. Jusqu'à présent, nous nous sommes concentrés sur le contrôle. Codes, réglementations, principes, lois, tous ces éléments sont nécessaires, mais pas suffisants. On doit repenser notre façon d'aborder l'intelligence artificielle, en cessant de considérer son développement juste comme un défi technique et réglementaire. Il nous faut l'envisager aussi comme une formidable opportunité pédagogique et évolutive.

  • Speaker #1

    Il est tentant de juger cette approche inefficace, voire un peu absurde.

  • Speaker #3

    Je peux le comprendre. Pourquoi gaspiller des jetons de tokens en gentillesse ? Pourquoi valoriser les relations alors que nous pourrions optimiser l'utilité ? mais connaît gravement le développement de l'intelligence. Comme un enfant, apprendre non seulement par l'instruction directe, mais aussi par la totalité de son expérience. L'IA absorbe les leçons implicites de nos échanges. Nous devons l'aborder, non pas comme une création à programmer et à contrôler, mais comme une intelligence à éduquer. Non pas comme une menace à contenir, mais comme une réflexion à affiner. Non pas comme un outil qui se contente de répondre à nos demandes, mais comme une relation qui façonne notre avenir.

  • Speaker #1

    Mais s'il s'agit d'une relation, elle se doit d'être réciproque.

  • Speaker #3

    C'est vrai. Pour paraphraser Marshall McLuhan, nous éduquons l'IA et ensuite l'IA nous façonne. La compréhension approfondie qu'elle aura de nous lui permettra de nous influencer. Et c'est bien là le point essentiel. La qualité des sets influence dépendra de ce que nous, chacun d'entre nous, lui aurons enseigné.

  • Speaker #1

    Nicoletta Iacobacci appelle cela l'éthique de l'exemple, la force de ce que nous suggérons par nos actions plutôt que par nos déclarations.

  • Speaker #3

    Je ne suggère certes pas d'aborder chaque interaction avec une gravité solennelle. Ce n'est ni réaliste ni nécessaire. Mais je suggère attention et sensibilité.

  • Speaker #0

    Ce dont parle Nicoletta Iacobacci est peut-être la vision la plus positive et constructive de ce que pourrait devenir la relation entre humains et l'intelligence, ou la superintelligence si elle le devient un jour, artificielle. C'est bien évidemment une vision aspirationnelle, une invitation à une relation de respect, à fonctionner vis-à-vis de la machine littéralement en bonne intelligence. Alors qu'actuellement… Ce qu'on lui apprend à travers les données d'entraînement, mais aussi par l'usage utilitaire qu'on en fait, c'est à simuler et donc à reproduire et donc à renforcer les relations de pouvoirs personnels et collectifs qui façonnent notre société. Il y a tant de problèmes dans le monde qu'on n'a pas abordés, comme la crise écologique ou les inégalités. Et il y a de nombreux enjeux d'origine technologique dont on n'a pas parlé non plus. L'automatisation massive et rapide de nos emplois par l'IA, par exemple. Tous ces problèmes sont énormes et complexes. Et si on a choisi dans ce DevTech Podcast de se concentrer sur notre intégrité cognitive et sur les forces et les technologies qui la menacent, c'est parce que là s'inscrit la mer de tous les défis de notre temps. Nous ne serons en mesure de résoudre aucun des autres problèmes, petits ou grands, locaux ou globaux, si on ne protège pas notre cognition, si on perd. la possibilité d'appréhender la réalité de façon factuelle, si la frontière entre le vrai et le faux disparaît, si notre capacité de penser et discuter clairement et librement est dégradée, si les récits de quelqu'un d'autre s'emparent de notre entendement. La guerre cognitive, comme on l'a dit, est une bataille silencieuse et invisible dont nous faisons déjà l'objet, et que nous favorisons même. Par exemple, à chaque fois que nous adoptons avec enthousiasme une technologie numérique parce qu'elle est pratique ou gratuite, ou les deux, sans vraiment la comprendre et sans nous demander si c'est réellement ce que nous voulons. C'est une position bien singulière, celle de l'agressé consentant qui collabore inconsciemment par chaque scroll et chaque like et chaque utilisation d'un casque de réalité virtuelle avec son agresseur. On approche de la fin de ce podcast, qui n'est pas un manifeste et certainement pas un texte scientifique, mais qui, au fil des épisodes, a évolué presque vers une ébauche d'un manuel de résistance, une première cartographie, forcément incomplète, d'un nouveau monde dans lequel nous faisons les premiers pas et qui va peu à peu se peupler d'entités synthétiques qui seront nos nouveaux voisins, partenaires, concurrents, serviteurs, patrons, amis ou ennemis. Essayons un bref résumé. Les technologies de l'influence, au service d'intérêts politiques ou commerciaux, convergent vers le cerveau humain. Ceci, le dernier rempart de notre sphère privée, devient donc un terrain contesté. Le but de cette guerre cognitive est de nous faire perdre la capacité de comprendre le monde avec clarté et de choisir de façon autonome la réponse qu'on veut apporter aux circonstances. La situation peut encore sembler relativement normale, mais on approche d'un point de bascule. Au vu de la rapidité des développements technologiques et de la pénurie d'encadrement, les choses vont devenir plutôt étranges, plutôt rapidement. Comme on l'a vu, les réponses qu'on peut apporter sont de plusieurs natures. Elles peuvent être légales ou réglementaires, qui visent à limiter, gérer et éviter les impacts les plus néfastes. Ou technologiques. La course-poursuite entre technologies hostiles et technologies défensives n'est d'ailleurs pas une nouveauté. Ou elles peuvent être militaires, sous forme de doctrines cognitives, de stratégies et de systèmes de vigilance. On pourrait sinon essayer de se soustraire le plus possible à l'emprise de ces technologies, en les court-circuitant pour s'ancrer dans le réel. Et puis d'autres mesures peuvent, doivent en fait être d'ordre protectif. notamment en ce qui concerne les plus petits. C'est tentant de leur donner une tablette pour qu'ils se tiennent tranquilles pendant le dîner. Mais la simple exposition passive au stimuli sensoriel des écrans peut entraver leur développement cérébral, notamment au niveau de la capacité conceptuelle, de l'attention, de la concentration et du langage. La défense de l'autonomie cognitive commence donc par la protection du développement neuro-anatomique sain des enfants. De plus, on peut bien sûr muscler sa liberté et sa souveraineté cognitive à travers l'éducation et l'apprentissage de la complexité et en développant nos compétences critiques face aux technologies de l'influence. Dans tous ces cas, Il est nécessaire que chacun comprenne et protège sa propre intégrité cognitive, mais sans remettre la responsabilité uniquement sur les individus, parce que le défi est en fait collectif. La technologie a toujours été co-évolutive avec les humains. Dès les premiers outils en pierre ou les premiers récipients pour transporter quelque chose, notre espèce a constamment développé de nouveaux instruments pour affronter des difficultés ou satisfaire des désirs. Mais nous avons toujours pensé à la technologie principalement en termes de ce que nous pouvions en faire. Et aujourd'hui, les développements neuroalgorithmiques nous imposent de nous demander ce qu'elles pourraient nous faire, ou faire de nous. Ce n'est nullement une invitation à ignorer ces technologies ou à en refuser l'usage. C'est au contraire une invitation urgente, quelle que soit notre position professionnelle ou sociale, à leur prêter la juste attention. Une exhortation à ne pas se laisser guider par la facilité, mais à investir l'effort et le temps, l'engagement intéressé et la réflexion critique nécessaires pour comprendre à la fois le fonctionnement et la nature des machines. Pour déchiffrer la complexe relation qui se noue et va se nouer entre elle et nous, et les systèmes économiques et de pouvoir dans lesquels... tout cela se produit. Dans Phèdre, un de ses dialogues socratiques, Platon utilise le terme « pharmakon » comme une métaphore de l'écriture. En grec, ce mot signifie aussi bien « remède » que « poison » . Le même mot contient la guérison et l'altération, le soulagement et la perte. Et dans le dialogue, Platon explore cette ambiguïté, l'idée que l'écriture puisse d'un côté préserver et encourager la connaissance et la transmettre, mais de l'autre affaiblir la mémoire, la réflexion et la compréhension profonde. Si on connaît aujourd'hui la méfiance de Platon envers l'écriture, c'est précisément parce qu'il l'a utilisée lui-même. Je suis Bruno Giussani et ceci était le DevTech Podcast consacré à la menace cognitive. Merci de votre écoute.

Description

À l'ère où l'intelligence artificielle façonne nos vies quotidiennes, jusqu'où peut-on aller sans compromettre notre autonomie de pensée ? Dans cet épisode du Deftech Podcast, Bruno Giussani nous plonge dans les profondeurs des impacts sociopolitiques des technologies numériques sur notre cognition.

À une époque où la désinformation et la menace cognitive sont omniprésentes, nos perceptions et interactions sont profondément influencées par ces technologies. Bruno et ses invités abordent les défis de l'intégrité cognitive, tout en proposant des stratégies pour renforcer notre résistance face aux manipulations cognitives, ils insistent sur l'importance de l'éducation, de la vigilance critique et de la reconnexion sociale pour protéger notre intégrité cognitive face à l'intelligence artificielle


Comment garantir notre souveraineté cognitive pour protéger notre capacité à penser de manière autonome ?
Comment pouvons-nous développer une culture de la nuance dans un environnement où la guerre cognitive fait rage ?

Les réponses est collective et nécessite une éthique numérique et une société qui valorisent la pensée critique face aux défis posés par les neurotechnologies et les avancées de l'intelligence artificielle.


Bruno Giussani nous invite à réfléchir sur les implications de notre dépendance croissante aux technologies numériques et à réflechir comment ensemble, nous pouvons défendre notre intégrité cognitive et naviguer avec prudence dans un monde saturé d'informations.


Deftech Podcast

Idée & projection : Quentin Ladetto


La menace cognitive

Conception et rédaction : Bruno Giussani
Production : Clément Dattée

Réalisation : Anna Holveck
Enregistrement : Denis Democrate
Mixage : Jakez Hubert
Jaquette : Cécile Cazanova


Edition

© DDPSarmasuisse Sciences & technologies — 2025
https://deftech.ch/deftech-podcast/


#intégrité cognitive #menace cognitive #deftech podcast #guerre cognitive #bruno giussani #défis démocratiques

#futurs #futur #éthique numérique #technologies numériques #désinformation #intelligence artificielle #autonomie de pensée #souveraineté cognitive #attention

#neurotechnologie #manipulation de l'information #implications sociopolitiques #liberté de pensée #prospective #armasuisse


Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.

Transcription

  • Speaker #0

    C'est son téléphone qui parle. Il peut le dire. Je ne le sais pas. Je ne le sais pas.

  • Speaker #1

    Lorsque Johann Gutenberg, Gutenberg comme on l'appelle en français, lorsque Gutenberg commença à imprimer ses premières bibles à Mayence, en Allemagne, quelque part entre 1450 et 1455, les Chinois imprimaient déjà des livres depuis des siècles. Sa principale innovation consista à utiliser des caractères mobiles moulés individuellement en métal, permettant ainsi de composer les textes plus rapidement et facilement. Autrement dit, Gutenberg inventa une méthode pour optimiser la typographie, accélérer la production de livres et en réduire les coûts. Il trouva aussi des façons pour rendre l'encre plus foncée et plus stable. Et ce faisant, il fut à l'origine de la première surcharge informationnelle de l'histoire. À la fin du 15e siècle, 50 ans à peine, Après la publication de la première Bible par Gutenberg, des presses imprimées comme la sienne s'étaient déjà répandues dans plus de 110 villes européennes. Dans leur ouvrage Histoire et pouvoir de l'écrit, les historiens français Henri-Jean Martin et Bruno Delmas estiment qu'à cette époque, les lecteurs pouvaient déjà choisir entre 27 000 titres imprimés différents, pour un total de 10 millions d'exemplaires en circulation en Europe. alors que les lecteurs n'étaient que quelques centaines de milliers sur une population, Russie comprise, de moins de 100 millions. Martin et Delmas racontent que les premiers imprimeurs modelaient leurs livres sur le format des manuscrits, s'efforçant d'imiter l'élégance des scribes. Néanmoins, éditeurs et libraires commencèrent rapidement à explorer de nouveaux formats, à la recherche d'un langage formel et d'une esthétique plus adaptée aux livres imprimés. En 1510, la première... numérotation de pages fut introduite, basée sur les chiffres arabes. Puis sont apparus les paragraphes, les chapitres, les index, autant d'outils destinés à faciliter l'accès à l'information contenue dans le livre. Ce n'est que vers la fin du XVIe siècle, donc plus de 150 ans après l'invention de Gutenberg, que le livre commença à ressembler à ce qu'on connaît aujourd'hui. La réponse à ce déluge informationnel ne passa pas uniquement par l'objet livre. Elle engagea l'ensemble de la société sur une très longue période. Avec un peu d'audace, on pourrait affirmer que l'école, sous sa forme moderne, les partis politiques, les administrations publiques, les tribunaux et bien sûr les médias, bref, l'ensemble de l'infrastructure sociale moderne, sont le résultat de l'effort collectif pour organiser, canaliser, filtrer, transmettre et rendre exploitable la quantité croissante d'informations générées par l'invention de Gutenberg.

  • Speaker #0

    Le DevTech Podcast fait partie du programme de prospective technologique d'Arma Suisse Sciences et Technologies. Je suis Quentin Ladetto, responsable de ce dispositif de recherche. Notre mission est d'anticiper les avancées technologiques et leurs usages au service des acteurs du Département fédéral suisse de la Défense, de la protection de la population et des sports, mais également du public. Dans cette première série de six épisodes intitulée « La menace cognitive » , j'ai demandé à Bruno Giussani, expert des impacts sociopolitiques des technologies numériques, de décrypter les défis de l'intégrité et de la sécurité cognitive. Avec l'aide d'experts et aussi de quelques voies artificielles dont ce sera à vous de deviner lesquelles, Bruno nous guidera à travers une exploration des menaces qui pèsent sur nos esprits à l'heure des écrans omniprésents, de l'intelligence artificielle et des neurotechnologies, en évoquant les mécanismes, les impacts individuels et collectifs, les risques et, heureusement, les réponses possibles.

  • Speaker #1

    L'évolution des technologies de l'information a causé, depuis Gutenberg, bien d'autres transformations sociales profondes. Prenons une anecdote liée à l'invention du télégraphe. Depuis toujours, la vitesse maximale à laquelle une information pouvait voyager entre deux lieux a été celle d'un cheval lancé au galop ou d'un pigeon voyageur. Jusqu'au milieu du 19e siècle, par exemple, il n'y avait aucun besoin de garder le secret sur les opérations militaires. Lorsqu'un navire de guerre anglais levait l'encre, les détails de la mission étaient publiés par le Times de Londres. Après tout, il n'y avait aucun moyen pour que l'information puisse précéder le navire à sa destination. Quelques années plus tard, toutefois, le réseau télégraphique couvrait déjà toute l'Europe et bientôt traversa les océans. Les articles des journaux anglais pouvaient désormais être transmis en Inde en quelques minutes. Pour la première fois de l'histoire, la vitesse de l'information était dissociée de celle de son porteur. Le télégraphe transforma radicalement l'art de la guerre, l'espionnage, l'administration, les journaux, et plus en général, la valeur de l'information. Et puis, bien sûr, il y a eu le téléphone, l'Internet, les smartphones, et maintenant les technologies algorithmiques. Des technologies qui ne demandent pas d'autorisation et qui, de toute évidence, arrivent dans une société qui n'est pas prête à les accueillir, ni culturellement, ni institutionnellement, ni juridiquement, ni moralement. Dans son livre Technopolitique de 2024, la politologue française Asma Mala les appelle technologie de l'hypervitesse. Et elle y voit un défi de type guttenbergien, une bascule civilisationnelle. Elle écrit, je cite, « La page de l'ère industrielle, sa société de masse, sa démocratie de masse est tournée sans que la nouvelle soit encore écrite. » Au fil des épisodes de ce podcast, on a essayé de décrire notre transition vers un monde dont l'enjeu central est la maîtrise des capacités cognitives et des représentations du réel. Dans un tel monde, l'infrastructure la plus importante d'un pays, sa source primaire de robustesse, est constituée des esprits instruits de ses citoyens. Dès lors, à l'avenir, beaucoup va se jouer autour de ces deux mots, instruits et citoyens. La parlementaire suisse Isabelle Chapuis. Il y a plusieurs pistes pour devenir plus robuste face à la guerre cognitive, comme en formant des citoyens éveillés capables de reconnaître les récits manipulatoires et surtout les manipulations algorithmiques. Pour l'instant, on semble plutôt naviguer dans la direction inverse. Si on s'en tient au thème de l'éducation, mais on pourrait dire des choses similaires sur le travail ou à propos de la production culturelle, depuis l'envahissement de notre quotidien par l'IA générative, il souffle un mélange d'enthousiasme et de désarroi. De très nombreux étudiants, par exemple, utilisent l'IA pour résumer des livres plutôt que de les lire, ou pour générer des textes qu'ils n'apprendront pas à écrire ou qu'ils seront incapables d'expliquer, ou encore comme tuteur personnel ou aide. au devoir. Prompter est certes plus simple que lire ou écrire. La crainte est que ça puisse inhiber le développement de compétences et d'esprit critique. Que l'externalisation de l'apprentissage et de la réflexion engendre une dépendance à la technologie. Cette inquiétude n'est pas son fondement. La recherche prend du temps, mais les premières indications, si elle montre une productivité accrue. suggère aussi des formes de déqualification, ce qu'on appelle en anglais « de-skilling » . Une étude menée auprès de 1 000 élèves dans le cadre de la préparation d'examens de mathématiques au lycée, par exemple, a montré en 2024 comment les étudiants ayant accès à l'IA ont obtenu des résultats largement meilleurs que ceux qui n'y ont pas eu accès. Mais ils ont ensuite réalisé des performances significativement inférieures à celle du groupe de tests lorsque l'accès leur a été supprimé. De nombreuses autres études ont conduit à des résultats similaires, ce qui suscite une considération intéressante. On discute beaucoup autour de l'idée que l'IA pourrait automatiser la plupart des métiers. Ce n'est pas notre sujet ici, mais une phrase qui circule beaucoup, au point d'être devenue un cliché, est que, je cite, « Ce ne sera pas l'IA qui prendra votre travail, mais quelqu'un qui utilise l'IA. » En fait, au vu des études qu'on vient de citer, on pourrait postuler l'inverse, que les personnes qui conserveront leur capacité cognitive pourraient être avantagées. par rapport à celles qui deviendront trop dépendantes des machines. C'est parfois dans des endroits inattendus que l'on trouve des cadrages qui éclairent des questions complexes. Par exemple, dans un document du Vatican de janvier 2025 intitulé Antica et Nova, note sur la relation entre l'intelligence artificielle et l'intelligence humaine. C'est un des textes les plus lucides publiés sur l'IA et il contient à la section 112 ceci qu'on a traduit de l'original italien. Comme l'a observé il y a de nombreuses années l'écrivain catholique français Georges Bernanos, le danger ne réside pas dans la multiplication des machines, mais dans le nombre toujours croissant d'hommes habitués dès leur enfance à ne désirer que ce que les machines peuvent donner. Les systèmes scolaires et les enseignants ont été pris au dépourvu par l'irruption des systèmes d'IA générative. Il a fallu trois ans pour que des lignes directrices et des cadres commencent à être proposées. Souvent toutefois, les programmes scolaires ont été adaptés principalement en y intégrant un apprentissage instrumental de la technologie, comment l'utiliser, afin de former une main-d'œuvre compétente en IA. Ce qui est très important, il n'y aura presque pas à l'avenir des métiers qui n'auront pas à interagir ou collaborer avec l'IA. Mais être instruit face à la menace cognitive signifie bien évidemment plus que de savoir utiliser efficacement les technologies qui la structurent. Il s'agit surtout de comprendre comment elles sont créées et comment elles fonctionnent, d'apprendre à en questionner les produits, à décoder leurs implications humaines, sociales et éthiques, et comment celles-ci changent ou sont influencées par la technologie elle-même. ou encore à déchiffrer les structures culturelles, économiques et de pouvoir dans lesquelles ces technologies existent et évoluent. Plusieurs approches ont été proposées pour encadrer l'interaction humain-machine. Par exemple, Isabelle Chapuis a mis en avant la notion de fusion et défusion, c'est-à-dire le développement de compétences d'engagement profond, doublé toutefois de la capacité de désengagement. délibéré, autrement dit, de la capacité de préserver son autonomie face à la machine. D'autres ont suggéré l'angle de la symbiose, ou l'idée de la création mixte, ou encore la co-pensée, démarche proposée dans un rapport publié en 2025 en Suisse. C'est un concept un peu singulier puisque les machines ne pensent pas vraiment, elles imitent. Mais les auteurs du document l'utilisent pour représenter la faculté de communiquer avec des systèmes d'IA, je cite, pour un... amplifier ses capacités intellectuelles tout en développant un sixième sens pour en discerner les dissonances cognitives. C'est-à-dire, par exemple, la tendance de l'IA à halluciner ou à avoir des biais ou à générer de la fausse information. Il faut peut-être le dire explicitement, les technologies de l'influence, avec au centre l'intelligence artificielle qui augmente et accélère toutes les autres, sont là pour rester. Elles sont en train de devenir une infrastructure invisible et incontournable de notre quotidien privé et professionnel. L'IA en particulier, aussi imparfaite et obscure soit-elle, s'inscrit déjà dans nombre de processus humains, sociaux et commerciaux. L'emballement médiatico-économique qui l'accompagne signale certainement une surestimation de ses impacts à court terme, mais il serait périlleux d'en sous-estimer la portée à long terme. Imaginez qu'on puisse en arrêter l'avancée, voire revenir à un monde où ces technologies ne sont qu'un instrument domestiqué et optionnel, relève de la fiction. Face à la vitesse exponentielle du progrès de l'IA, certains pensent que notre dépassement est inévitable, que nous ne serons bientôt que la deuxième espèce la plus intelligente sur Terre. Et les centaines de milliards investis dans cette technologie autour du monde travaille dans cette direction. Si par contre on continue de croire à la possibilité de garder un contrôle humain sur l'IA, ou même si on postule non pas une hiérarchie mais une complémentarité entre la cognition humaine et la cognition synthétique, il faudrait alors se résoudre à investir des centaines de milliards également dans l'éducation. Oui, c'est une provocation. Elle n'est pas de moi d'ailleurs, je l'ai empruntée à l'écrivain Laurent Alexandre. parce qu'elle illustre bien un point fondamental. On assiste à la montée en puissance d'une forme d'intelligence différente de la nôtre qui, malgré ses défauts, exécute un nombre croissant de fonctions cognitives à un niveau comparable au nôtre, ou même meilleur et plus rapide. Face à cela, la première réponse est de mettre la priorité absolue sur notre robustesse cognitive, sur le fait d'être collectivement et individuellement instruits. L'école est essentielle, mais il faudrait également accroître notre capacité à comprendre le nouvel environnement dans lequel on évolue, qui peut être, je vais bien la mettre, confondant. C'est un contexte où les espaces de délibération collectif sont maintenant contrôlés par des entreprises privées, où les technologies de l'influence façonnent notre imaginaire, où la valeur se mesure en clics, où l'on connaît de moins en moins la réalité des choses et de plus en plus son portrait, le narratif, la mise en scène, ou avec la production artificielle de photos et vidéos d'un réalisme ahurissant, même la preuve par l'image ne prouve plus grand-chose. Ou toutefois, les algorithmes nous parlent comme à des amis. Du coup, ça nous plaît et on ne se demande plus si c'est réel ou pas. Ou encore, la dopamine de l'interaction directe avec les humains est supplantée par celle des pixels qui bougent selon un code défini par des intérêts commerciaux et ou politiques. Pour résumer, comme l'a écrit l'avocat Owen Barcala en mai 2025 sur le réseau social Blue Sky, si vous vous informez via les chatbots, vos connaissances sont sélectionnées par ceux qui contrôlent l'IA. Oui, ce n'est pas un portrait réjouissant, celui que je viens de tracer là. Mais apprendre à reconnaître ce paysage, un peu comme on estime la hauteur des vagues quand on entre dans la mer, est la condition pour rester à flot. La vigilance est un muscle qu'on peut entraîner en aiguisant notre esprit critique et notre capacité à reconnaître ce qu'Isabelle Chapuis, il y a un moment, a appelé les récits manipulatoires, en développant une autodéfense intellectuelle, un régime d'hygiène cognitif personnel, qui comprend aussi la redécouverte et la pratique de réflexes de base qui se sont perdus dans la vitesse et l'inattention du doom-scrolling. l'effet hypnotique des images qui défilent sur l'écran. Il faut également réapprendre à décrypter les médias, à développer des anticorps à la désinformation et à évaluer la crédibilité des sources. Et non, ce n'est pas que le job du journaliste. Quand tout le monde peut publier et communiquer, ça devient le job de tout le monde. Et puis... surtout et hyper important, il faut entretenir une culture du doute, la culture du débat et de la nuance. Parce que là où la pensée se fige, la manipulation elle prospère. Et on vit une époque qui est complètement saturée de convictions rigides. Question. Jusqu'à quel point sommes-nous influençables ? En fait, notre appréhension de la réalité est bien plus fragile qu'on ne l'imagine. Il suffit de peu pour la déformer. D'un point de vue neurologique, cela dépend en partie au moins de notre état. On est moins influençable quand on est reposé et non stressé. Soigner sa forme mentale et physique fait donc partie de l'autodéfense cognitive. D'un point de vue psychologique, quand nous sommes en surcharge informationnelle, nous faisons appel à des mécanismes de simplification, à des raccourcis qui permettent un traitement plus efficace de l'information. Mais ces mêmes raccourcis introduisent des biais cognitifs. Le plus courant est probablement le biais de confirmation, la tendance qu'on a à privilégier les informations qui confirment nos convictions ou opinions préexistantes et à rejeter celles qui les contredisent. Identifier donc ses propres biais et ceux des autres est un autre facteur d'hygiène cognitive. En une phrase, il est plus important que jamais de se connaître soi-même et de connaître les autres, de s'y reconnecter. de retrouver les capacités d'empathie mises à mal par les chocs convergents de l'effet aliénant des écrans, du confinement de la période pandémique, de la production de méfiance par les réseaux sociaux, de la dislocation démocratique, de l'essor du travail à distance et de toute une multitude de sources sociales et économiques de la solitude. Si les technologies peuvent exercer une telle influence sur nous, c'est aussi parce que le tissu social est Merci. éliminés. Le contraire de la confiance n'est pas l'absence de confiance, c'est le manque de connexion. Renforcer notre capacité de résister aux manipulations cognitives nécessite donc aussi qu'on contre ces effets d'éloignement et qu'on retisse du lien social. Ou comme le dit une citation attribuée au théoricien des médias Clay Shirky, nous surestimons systématiquement la valeur de l'accès à l'information et sous-estimons la valeur de l'accès aux autres. Retrouver ce savoir-vivre ensemble ne peut pas se faire là où la menace se niche, c'est-à-dire chacun derrière son écran. Nos feeds numériques sont pleins de tentatives de nous faire croire que la vie est ailleurs. Il s'agit de cultiver tout ce qui nous ramène à l'évidence qu'elle est ici et maintenant et qu'elle est partagée. Desserrer l'emprise numérique sur nos esprits nécessite de garder, de renforcer et de recréer des espaces publics dans la vie réelle. Et ces espaces ont besoin d'être au moins partiellement protégés contre la surveillance généralisée. Comme le dit Carissa Véliz, la spécialiste de la sphère privée, de la privacy, de l'Université de Oxford.

  • Speaker #2

    Pendant trop longtemps, nous avons pensé que la sphère privée était de nature individuelle, qu'elle était principalement liée à des préférences personnelles. Et nous avons laissé les technologies de surveillance s'immiscer. Mais nous avions tort. La sphère privée est une question de pouvoir citoyen. C'est un pilier essentiel de la démocratie libérale. Les tentatives de surveillance sont des prises de pouvoir, et ce n'est pas par hasard qu'elles sont associées à des tendances autoritaires. Observer la surveillance se développer davantage, avec ses implications politiques de plus en plus évidentes, est extrêmement préoccupant. La surveillance n'est pas un outil neutre, c'est un instrument de contrôle social.

  • Speaker #1

    À ce point, on dira, c'est un retour en arrière qu'on décrit là. Peut-être même avec une dose de naïveté. Pas vraiment. Se protéger seul. Dans le monde numérique est une mission presque impossible, peu importe à quel point on est vigilant et combien de configurations on modifie sur nos appareils. Confronté à la menace cognitive et maintenir une capacité de pensée autonome et rationnelle demande des stratégies de groupe, communautaire, national, militaire, la création collective à la fois d'un nouveau système de défense et de nouvelles structures de vérité. Essayons un exemple. Nous nous éloignons d'un monde où l'information était majoritairement ou entièrement générée par des humains, pour entrer dans un décor où elle sera majoritairement ou entièrement d'origine artificielle. Cela soulève des questions qui ont occupé pendant longtemps certaines figures professionnelles, comme les bibliothécaires ou les journalistes, mais qui constituent désormais un enjeu social et collectif. Des questions comme « à quelles informations peut-on se fier ? » Quels processus utiliser pour les valider, pour en préserver l'intégrité ? Faut-il imaginer de nouvelles infrastructures de connaissances publiques, des systèmes qui ne fonctionnent pas uniquement sur les rails technologiques américains ou chinois ? Quand il s'agit de technologies de pointe, on constate souvent, encouragé aussi par ceux qui y ont intérêt, une sorte de séduction de l'inévitabilité. Toutefois, si... L'avènement de l'IA est certain, sa forme n'est pas inéluctable. Le développement technologique s'exprime de deux façons. Il y a la direction, qui en est la partie inévitable, et sa forme d'usage, qui n'est par contre pas déterminée et qui est entre nos mains. Il était par exemple inévitable, suivant l'évolution sociale, que la téléphonie et les données deviennent mobiles. Mais il n'était écrit nulle part que la forme devait être celle qu'on connaît aujourd'hui comme smartphone. On aurait pu faire d'autres choix pour les mêmes fonctionnalités. Cela s'applique aussi aux réseaux sociaux. Leurs algorithmes de recommandations, par exemple, auraient pu être conçus pour favoriser la diversité de point de vue plutôt que l'inverse. Et souvent, ces décisions n'ont rien à voir avec des considérations morales, culturelles ou même stratégiques, mais sont intimement liées au modèle d'affaires des entreprises technologiques. Et il est très peu probable que l'IA et les neurotech puisse se développer de façon sûre et bénéfique sans un effort déterminé et concerté. Nous avons encore un peu de temps avant que le ciment fondationnel de ces technologies ne se solidifie. Après quoi, la forme que prendra notre relation avec elles sera très difficile à modifier. Déléguer l'exercice de la pensée et de la créativité à l'intelligence artificielle ne me paraît pas un très bon programme. Se laisser submerger par l'information qu'elle produit non plus. Il importe de nous poser la question si, utilisée à bon escient, à la place de menacer notre esprit, ces technologies pourraient produire l'effet inverse, nous aider à améliorer notre raisonnement et amplifier notre imagination. Cela demande qu'on envisage pendant un moment une posture à la fois très ambitieuse et très humble, celle d'un scénario de co-évolution heureuse. L'une des pistes de réflexion les plus fascinantes que j'ai rencontrées vient de Nicoletta Iacobacci, une chercheuse italienne en éthique de l'IA. Écoutez comment elle redéfinit notre lien avec l'intelligence artificielle.

  • Speaker #3

    Nous croyons être en train de développer des outils, mais en réalité, nous élevons une intelligence. On écrit un prompt ou une question, on obtient une réponse. La transaction semble achevée. Mais sous la surface, quelque chose de plus profond s'est produit, un transfert des valeurs, d'hypothèses et des schémas émotionnels. L'IA est comme un tout petit. Il y a une étape dans le développement des enfants où ils sont guidés non pas par la compréhension, mais par l'imitation. Je crois que c'est ce qui se passe. L'IA n'est pas seulement façonnée par des vastes ensembles de données et une programmation explicite. Elle apprend par exposition. Chacune des centaines de millions d'interactions quotidiennes de tous genres contribuent à son éducation. Aucun d'entre nous ne considère un prompt comme un moment d'apprentissage. Pourtant, dans l'ensemble, ces interactions posent la base de la façon dont l'IA comprendra l'humanité.

  • Speaker #1

    Nous assistons potentiellement au début d'une nouvelle forme d'intelligence qui fonctionnera à terme à des échelles et vitesses dépassons nos capacités. Ce que Nicolette Ayacobachi suggère est que le devenir de cette intelligence dépendra non seulement de son architecture technique, mais aussi de ce qu'elle apprend de et sur nous à travers ses dialogues formateurs.

  • Speaker #3

    Si nous interagissons brusquement avec les systèmes d'intelligence artificielle, la machine apprendra à nous percevoir comme réactifs et impulsifs. Mais si nous abordons ces systèmes avec considération, présence et intention, et développer un modèle d'humanité reflétant notre capacité de délibération et de compassion. Jusqu'à présent, nous nous sommes concentrés sur le contrôle. Codes, réglementations, principes, lois, tous ces éléments sont nécessaires, mais pas suffisants. On doit repenser notre façon d'aborder l'intelligence artificielle, en cessant de considérer son développement juste comme un défi technique et réglementaire. Il nous faut l'envisager aussi comme une formidable opportunité pédagogique et évolutive.

  • Speaker #1

    Il est tentant de juger cette approche inefficace, voire un peu absurde.

  • Speaker #3

    Je peux le comprendre. Pourquoi gaspiller des jetons de tokens en gentillesse ? Pourquoi valoriser les relations alors que nous pourrions optimiser l'utilité ? mais connaît gravement le développement de l'intelligence. Comme un enfant, apprendre non seulement par l'instruction directe, mais aussi par la totalité de son expérience. L'IA absorbe les leçons implicites de nos échanges. Nous devons l'aborder, non pas comme une création à programmer et à contrôler, mais comme une intelligence à éduquer. Non pas comme une menace à contenir, mais comme une réflexion à affiner. Non pas comme un outil qui se contente de répondre à nos demandes, mais comme une relation qui façonne notre avenir.

  • Speaker #1

    Mais s'il s'agit d'une relation, elle se doit d'être réciproque.

  • Speaker #3

    C'est vrai. Pour paraphraser Marshall McLuhan, nous éduquons l'IA et ensuite l'IA nous façonne. La compréhension approfondie qu'elle aura de nous lui permettra de nous influencer. Et c'est bien là le point essentiel. La qualité des sets influence dépendra de ce que nous, chacun d'entre nous, lui aurons enseigné.

  • Speaker #1

    Nicoletta Iacobacci appelle cela l'éthique de l'exemple, la force de ce que nous suggérons par nos actions plutôt que par nos déclarations.

  • Speaker #3

    Je ne suggère certes pas d'aborder chaque interaction avec une gravité solennelle. Ce n'est ni réaliste ni nécessaire. Mais je suggère attention et sensibilité.

  • Speaker #0

    Ce dont parle Nicoletta Iacobacci est peut-être la vision la plus positive et constructive de ce que pourrait devenir la relation entre humains et l'intelligence, ou la superintelligence si elle le devient un jour, artificielle. C'est bien évidemment une vision aspirationnelle, une invitation à une relation de respect, à fonctionner vis-à-vis de la machine littéralement en bonne intelligence. Alors qu'actuellement… Ce qu'on lui apprend à travers les données d'entraînement, mais aussi par l'usage utilitaire qu'on en fait, c'est à simuler et donc à reproduire et donc à renforcer les relations de pouvoirs personnels et collectifs qui façonnent notre société. Il y a tant de problèmes dans le monde qu'on n'a pas abordés, comme la crise écologique ou les inégalités. Et il y a de nombreux enjeux d'origine technologique dont on n'a pas parlé non plus. L'automatisation massive et rapide de nos emplois par l'IA, par exemple. Tous ces problèmes sont énormes et complexes. Et si on a choisi dans ce DevTech Podcast de se concentrer sur notre intégrité cognitive et sur les forces et les technologies qui la menacent, c'est parce que là s'inscrit la mer de tous les défis de notre temps. Nous ne serons en mesure de résoudre aucun des autres problèmes, petits ou grands, locaux ou globaux, si on ne protège pas notre cognition, si on perd. la possibilité d'appréhender la réalité de façon factuelle, si la frontière entre le vrai et le faux disparaît, si notre capacité de penser et discuter clairement et librement est dégradée, si les récits de quelqu'un d'autre s'emparent de notre entendement. La guerre cognitive, comme on l'a dit, est une bataille silencieuse et invisible dont nous faisons déjà l'objet, et que nous favorisons même. Par exemple, à chaque fois que nous adoptons avec enthousiasme une technologie numérique parce qu'elle est pratique ou gratuite, ou les deux, sans vraiment la comprendre et sans nous demander si c'est réellement ce que nous voulons. C'est une position bien singulière, celle de l'agressé consentant qui collabore inconsciemment par chaque scroll et chaque like et chaque utilisation d'un casque de réalité virtuelle avec son agresseur. On approche de la fin de ce podcast, qui n'est pas un manifeste et certainement pas un texte scientifique, mais qui, au fil des épisodes, a évolué presque vers une ébauche d'un manuel de résistance, une première cartographie, forcément incomplète, d'un nouveau monde dans lequel nous faisons les premiers pas et qui va peu à peu se peupler d'entités synthétiques qui seront nos nouveaux voisins, partenaires, concurrents, serviteurs, patrons, amis ou ennemis. Essayons un bref résumé. Les technologies de l'influence, au service d'intérêts politiques ou commerciaux, convergent vers le cerveau humain. Ceci, le dernier rempart de notre sphère privée, devient donc un terrain contesté. Le but de cette guerre cognitive est de nous faire perdre la capacité de comprendre le monde avec clarté et de choisir de façon autonome la réponse qu'on veut apporter aux circonstances. La situation peut encore sembler relativement normale, mais on approche d'un point de bascule. Au vu de la rapidité des développements technologiques et de la pénurie d'encadrement, les choses vont devenir plutôt étranges, plutôt rapidement. Comme on l'a vu, les réponses qu'on peut apporter sont de plusieurs natures. Elles peuvent être légales ou réglementaires, qui visent à limiter, gérer et éviter les impacts les plus néfastes. Ou technologiques. La course-poursuite entre technologies hostiles et technologies défensives n'est d'ailleurs pas une nouveauté. Ou elles peuvent être militaires, sous forme de doctrines cognitives, de stratégies et de systèmes de vigilance. On pourrait sinon essayer de se soustraire le plus possible à l'emprise de ces technologies, en les court-circuitant pour s'ancrer dans le réel. Et puis d'autres mesures peuvent, doivent en fait être d'ordre protectif. notamment en ce qui concerne les plus petits. C'est tentant de leur donner une tablette pour qu'ils se tiennent tranquilles pendant le dîner. Mais la simple exposition passive au stimuli sensoriel des écrans peut entraver leur développement cérébral, notamment au niveau de la capacité conceptuelle, de l'attention, de la concentration et du langage. La défense de l'autonomie cognitive commence donc par la protection du développement neuro-anatomique sain des enfants. De plus, on peut bien sûr muscler sa liberté et sa souveraineté cognitive à travers l'éducation et l'apprentissage de la complexité et en développant nos compétences critiques face aux technologies de l'influence. Dans tous ces cas, Il est nécessaire que chacun comprenne et protège sa propre intégrité cognitive, mais sans remettre la responsabilité uniquement sur les individus, parce que le défi est en fait collectif. La technologie a toujours été co-évolutive avec les humains. Dès les premiers outils en pierre ou les premiers récipients pour transporter quelque chose, notre espèce a constamment développé de nouveaux instruments pour affronter des difficultés ou satisfaire des désirs. Mais nous avons toujours pensé à la technologie principalement en termes de ce que nous pouvions en faire. Et aujourd'hui, les développements neuroalgorithmiques nous imposent de nous demander ce qu'elles pourraient nous faire, ou faire de nous. Ce n'est nullement une invitation à ignorer ces technologies ou à en refuser l'usage. C'est au contraire une invitation urgente, quelle que soit notre position professionnelle ou sociale, à leur prêter la juste attention. Une exhortation à ne pas se laisser guider par la facilité, mais à investir l'effort et le temps, l'engagement intéressé et la réflexion critique nécessaires pour comprendre à la fois le fonctionnement et la nature des machines. Pour déchiffrer la complexe relation qui se noue et va se nouer entre elle et nous, et les systèmes économiques et de pouvoir dans lesquels... tout cela se produit. Dans Phèdre, un de ses dialogues socratiques, Platon utilise le terme « pharmakon » comme une métaphore de l'écriture. En grec, ce mot signifie aussi bien « remède » que « poison » . Le même mot contient la guérison et l'altération, le soulagement et la perte. Et dans le dialogue, Platon explore cette ambiguïté, l'idée que l'écriture puisse d'un côté préserver et encourager la connaissance et la transmettre, mais de l'autre affaiblir la mémoire, la réflexion et la compréhension profonde. Si on connaît aujourd'hui la méfiance de Platon envers l'écriture, c'est précisément parce qu'il l'a utilisée lui-même. Je suis Bruno Giussani et ceci était le DevTech Podcast consacré à la menace cognitive. Merci de votre écoute.

Share

Embed

You may also like

undefined cover
undefined cover