- Speaker #0
This is your computer speaking.
- Speaker #1
Artificial intelligence.
- Speaker #2
State ascoltando DevTech Podcast, il podcast di prospettiva tecnologica di Arma Suisse. Prima stagione, episodio 5. Protezioni legali. Rispondere alla minaccia cognitiva con la legge.
- Speaker #3
Nel gennaio 2025 è stato pubblicato in Italia un piccolo libro. L'autore è un giovane filosofo cinese di Hong Kong, Jianwei Jun, e questa era la sua prima traduzione in una lingua straniera. Nei mesi successivi il saggio è uscito anche in altre lingue e ha subito suscitato molto interesse, giornali, televisioni, riferimenti nelle conversazioni online e offline. ha chiaramente toccato un punto sensibile del nostro momento culturale. Come abbiamo cercato di descrivere nelle puntate precedenti di questo podcast, la nostra società è immersa nella sovra-produzione di realtà. Le tecnologie, in particolare i social e l'intelligenza artificiale, determinano sempre più il nostro rapporto con il mondo e con gli altri. Alcuni dei loro codici sono espliciti, come l'obiettivo di renderci dipendenti. Altri sono sfuggenti, come la manipolazione algoritmica. Aziende e politici sfruttano e abusano di questa dinamica, coadiuvati nell'ombra da coloro che lo scrittore Giuliano Da Empoli chiama gli ingegneri del caos. In questa confusione, le parole giuste possono aiutare a orientarsi come un faro nella tempesta. e Jianwei Jun ha trovato una di quelle parole. Il suo libro si intitola Ipnocrazia. Vi descrive, e lo cito, il nuovo regime di realtà nel quale viviamo. Un sistema in cui il potere non opera più attraverso la forza o la persuasione razionale, ma attraverso la modulazione algoritmica diretta degli stati di coscienza collettivi. Piattaforme digitali e chatbot, afferma il filosofo, Si rivelano per quello che sono, non strumenti di comunicazione, ma sistemi ipnotici che instaurano quella che chiama un'architettura della suggestione e rimodellano attivamente il modo in cui percepiamo e interpretiamo la realtà.
- Speaker #4
L'ipnocrazia è il primo regime che agisce direttamente sulla coscienza. Non controlla i corpi, non reprime i pensieri, piuttosto induce uno stato di trance permanente, un sonno lucido. Un'ipnosi funzionale. La veglia è stata sostituita dal sogno guidato. La realtà dalla suggestione continua. Con i sensi sommersi da stimoli costanti, lo spirito critico viene dolcemente cullato nel sonno e la percezione rimodellata, strato dopo strato. Nel frattempo, gli schermi continuano a brillare nella notte della ragione.
- Speaker #3
L'idea di ipnocrazia è radicale e scomoda. Ma nella scarsità di nozioni che ci aiutino ad organizzare e capire la nostra esperienza contemporanea offre un quadro di riferimento perlomeno interessante. Tiene conto sia della manipolazione algoritmica delle percezioni sia della manipolazione politica dell'attenzione, come praticata per esempio dal presidente degli Stati Uniti, Donald Trump, attraverso un incessante flusso di annunci e provocazioni. E ci aiuta anche a spiegare Perché le risposte razionali abbiano scarsa presa?
- Speaker #4
Mentre la maggior parte dei commentatori si concentra ancora su fenomeni come le fake news o la post-verità, a Washington stiamo assistendo a una trasformazione molto più profonda, l'emergere di un sistema in cui il controllo non si esercita, reprimendo la verità, ma moltiplicando le narrazioni, al punto che qualsiasi punto fermo diventa impossibile.
- Speaker #3
La foto di... Trump nei panni del Papa, il braccio destro alzato da Elon Musk in un saluto forse nazista o forse non nazista, la teatralità delle deportazioni degli immigrati, il disprezzo per le sentenze dei tribunali. Ogni provocazione funziona come un separatore di realtà. Frantuma il contesto condiviso, crea universi interpretativi paralleli e colloca quindi i cittadini sulla base delle loro convinzioni preesistenti in bolle di realtà distinte e inconciliabili.
- Speaker #4
I critici continuano a avanzare argomenti razionali, dati e ragionamenti logici, mentre ignorano il fatto che il potere contemporaneo opera ormai esclusivamente attraverso la modulazione degli stati di coscienza. La loro critica rimane intrappolata nel modello illuminista della comunicazione, in cui la verità deve trionfare attraverso la sua validità intrinseca. Non comprendono che essa è ormai un prodotto estetico. Un'esperienza collettiva generata dalla ripetizione, dall'emozione e dalla suggestione di una realtà algoritmica.
- Speaker #2
Il DevTech Podcast fa parte del dispositivo di previsione tecnologica di Arma Suisse Scienza e Tecnologia. Sono, quant'ha detto, responsabile di questo programma di ricerca. La nostra missione è di anticipare gli sviluppi tecnologici e i loro utilizzi al servizio del Dipartimento federale svizzero della difesa, della protezione civile e dello sport, come pure del pubblico. In questa prima stagione di sei episodi, intitolata La minaccia cognitiva, ho chiesto a Bruno Giussani, specialista degli impatti sociopolitici delle tecnologie digitali, di decifrare le sfide dell'integrità cognitiva e della sicurezza. Con l'aiuto di esperti, le cui voci sono tutte state doppiate utilizzando l'intelligenza artificiale, Bruno ci guida attraverso un'esplorazione del rischio cognitivo nell'era degli schermi onnipresenti, dell'intelligenza artificiale e delle neurotecnologie. Si parlerà di meccanismi, impatti individuali e collettivi, rischi, e anche, naturalmente, di possibili risposte.
- Speaker #3
Qualche settimana più tardi, mentre il libro Ipnocrazia, di cui vi parlavo prima della sigla, continuava ad essere discusso e commentato, si è scoperto che il suo autore cinese non esiste. Che il libro è in realtà una performance narrativa immaginata dall'editore e filosofo italiano Andrea Colamedici. L'ha creato in collaborazione con due IA generative, quella di Anthropic e quella di OpenAI, con cui mantiene una grande familiarità. Il suo altro lavoro, infatti, è di insegnare il Prompt Thinking all'Istituto Europeo di Design di Roma, ovvero l'arte sottile di interrogare e dialogare con l'intelligenza artificiale per ottenere i risultati desiderati. Iniettando nel dibattito culturale quest'idea accattivante, benché artificiale, dell'ipnocrazia, con la Medici riuscito nel contempo nell'analisi e nella dimostrazione. E sebbene il filosofo cinese sia un'invenzione e il libro sia fondamentalmente un progetto estetico, il concetto di ipnocrazia è comunque interessante. Non spiega tutto, ma ci aiuta a comprendere molto di ciò che abbiamo discusso finora in questo podcast. Dove, allora, In questo stato di ipnosi trascinati dall'accelerazione tecnologica, dove trovare la lucidità necessaria per affrontare l'influenza algoritmica sulle nostre menti? Proviamo a proporre qualche spunto. Quando siamo confrontati collettivamente a un problema di grande portata, la prima tentazione è spesso quella di imporre delle regole. di rispondere con la legge fissando limiti, definendo legalmente cosa è consentito e cosa non lo è, vietando metodi o prodotti considerati dannosi, creando tutele, diritti e obblighi, limitando la concentrazione eccessiva di potere. È una questione complicata. La semplice menzione delle parole regolamentazione o divieto basta spesso a provocare reazioni di rigetto. E questo è... particolarmente vero quando si parla di tecnologia. Negli ultimi anni, fortemente propagata dalle aziende del settore, si è affermata la narrazione secondo cui la regolamentazione ostacola l'innovazione tecnologica. Ad esempio, proteggere gli individui dall'estrazione dei loro dati personali rallenterebbe lo sviluppo dell'intelligenza artificiale. È un dibattito molto importante, ma esula dal nostro argomento qui. Limitiamoci quindi per ora a prenderne nota. Resta il fatto che un tipo di risposta possibile alla minaccia cognitiva è effettivamente legale e normativa. Ce ne sono altre, in particolare sociali e culturali, e ne parleremo nella prossima puntata. Ma per oggi iniziamo dalla legge. Per molto tempo il funzionamento della mente umana è stato considerato non solo incomprensibile ma anche inviolabile è la ragione per la quale gli strumenti giuridici che tutelano la libertà generalmente non tengono conto della sfera cognitiva questa inviolabilità però È ora messa in discussione dalla confluenza di due tecnologie. Da un lato l'intelligenza artificiale, capace di estrarre e analizzare i nostri dati personali, e dall'altro la neurotecnologia, in grado di leggere le nostre emozioni e che sta iniziando anche a decifrare i nostri pensieri. E ciò ci pone di fronte a una sfida vertiginosa, che per il momento non trova quasi nessun riscontro di tipo legislativo. Esistono, sì, diversi accordi internazionali, dichiarazioni e raccomandazioni volti a regolamentare specificatamente le neurotecnologie, ma dal punto di vista giuridico sono tutti non vincolanti. Esistono poi alcuni strumenti che contengono disposizioni o principi che possiamo considerare adiacenti. La libertà di pensiero è tutelata dall'articolo 18 della Dichiarazione Universale dei Diritti Umani del 1948. dall'articolo 9 della Convenzione europea dei diritti dell'uomo del 1950 e dall'articolo 18 del Patto internazionale relativo ai diritti civili e politici del 1966. In linea di principio, ciò significa che la libertà di pensiero di un individuo non può mai essere violata. In tutte e tre le carte, tuttavia, essa è associata alla libertà di religione e di coscienza. mentre l'integrità cognitiva non è né menzionata né sottintesa. Le regole dell'Unione Europea in materia di tecnologia digitale sono forse le più ambiziose. Il Regolamento Generale sulla Protezione dei Dati, GDPR, del 2016, stabilisce norme per la raccolta, il trattamento e la conservazione dei dati personali. Garantisce inoltre agli individui meccanismi per il controllo dell'uso delle informazioni, come i diritti di accesso, di rettifica e di cancellazione, quest'ultimo noto come il diritto all'oblio, e include anche standard di trasparenza e di consenso. La legge europea sui servizi digitali del 2022, dal canto suo, contiene misure di tutela dei consumatori, in particolare per quanto riguarda la libertà di espressione e la protezione dei dati, e attribuisce maggiore responsabilità alle piattaforme digitali per le informazioni che diffondono. Ma anche se i principi in essi contenuti possano esservi indirettamente collegati, nessuno di questi due testi affronta specificamente i rischi concernenti l'integrità cognitiva. Ci avviciniamo al nostro tema con l'Artificial Intelligence Act, la legge sull'intelligenza artificiale, promulgata dall'Unione Europea nel 2024, una normativa che non è piaciuta alle grandi aziende tecnologiche. Regolamenta lo sviluppo, la commercializzazione e l'utilizzo dei sistemi di intelligenza artificiale, tenendo conto in particolare dei diritti fondamentali, e segue un metodo che valuta i livelli di rischio, classificando i sistemi di IA in quattro gruppi in base al loro potenziale impatto. Alcune applicazioni sono ritenute a rischio minimo e pertanto non sono regolamentate. Altre, considerate a rischio limitato, sono soggette fra l'altro a requisiti di trasparenza. L'obiettivo principale è di garantire, ad esempio, che gli utenti non vengano ingannati da un chatbot che si fingesse umano e che le informazioni generate artificialmente siano chiaramente indicate come tali. La terza categoria è quella dei sistemi considerati ad alto rischio e pertanto regolamentati. tra questi figurano quelli utilizzati nelle infrastrutture critiche come quelle idriche o elettriche o nell'assistenza sanitaria, nonché i sistemi che potrebbero comportare trattamenti lesivi della persona. In quest'ultimo gruppo rientrano per esempio gli strumenti che selezionano i candidati per degli impieghi, che determinano l'accesso all'istruzione o il voto agli esami o che valutano le domande di credito. Questi sistemi devono essere rigorosamente testati prima di essere immessi sul mercato e accompagnati da supervisione umana durante tutto il loro utilizzo. Ci sono infine le pratiche che presentano rischi considerati come inaccettabili e che quindi sono vietate. Si tratta per esempio dei sistemi di notazione sociale, di polizia predittiva o di categorizzazione biometrica. Ed è in questa tipologia dei rischi inaccettabili che il legislatore ha scelto di includere la minaccia cognitiva. Ecco quindi un estratto dell'articolo 5.1a dell'EI Act.
- Speaker #5
È vietato immettere sul mercato, mettere in servizio o utilizzare un sistema di intelligenza artificiale che utilizzi tecniche subliminali al di là della consapevolezza di una persona o tecniche deliberatamente manipolative o ingannevoli, il cui obiettivo o effetto è quello di distorcere significativamente il comportamento di una persona. o di un gruppo di persone, compromettendo sensibilmente la loro capacità di prendere decisioni informate, inducendoli così a prendere una decisione che altrimenti non avrebbero preso.
- Speaker #3
E questo è un estratto dell'articolo 5.1b.
- Speaker #5
È vietato immettere sul mercato, mettere in servizio o utilizzare un sistema di intelligenza artificiale che sfrutti le vulnerabilità di una persona, fisica o di un gruppo specifico di persone, a causa della loro età, disabilità o particolare situazione sociale o economica, con l'obiettivo o l'effetto di alterare significativamente il comportamento di tale persona.
- Speaker #3
Altri punti dell'articolo 5 vietano ad esempio l'uso dell'intelligenza artificiale per captare le emozioni di un individuo sul posto di lavoro o a scuola. Le neurotecnologie, tuttavia, non sono contemplate da questa legge. Dall'altra parte dell'oceano, gli Stati Uniti non sembrano aver fretta di regolamentare questi sviluppi tecnologici. Il presidente Joe Biden aveva firmato un ordine esecutivo nell'ottobre 2023 denominato Intelligenza Artificiale Sicura, Fidata e Affidabile Safe, Secure and Trustworthy AI Includeva misure per la sicurezza nazionale, la tutela della privacy, la prevenzione di pregiudizi discriminatori e l'affidabilità dei sistemi. Un primo passo che faceva Pure parte di una serie di consultazioni con altri paesi sulla governance internazionale dell'IA, pur facendo ampio affidamento sull'autoregolamentazione del settore tecnologico attraverso codici di condotta volontari. Il decreto durò appena 15 mesi. Il 20 gennaio 2025, poche ore dopo il suo giuramento come presidente, circondato dai capi delle aziende tecnologiche, Donald Trump l'ha revocato. sostenendo che ostacolava l'innovazione nell'IA e affermando così il primato della competitività e degli interessi economici sulla tutela dei cittadini. Dietro questa decisione vi sono ragioni strategiche e industriali, ma il risultato netto, come ha affermato il pioniere dell'intelligenza artificiale Yoshua Bengio sul palco della conferenza TED nell'aprile 2025, è che negli Stati Uniti oggi, citazione, un panino è... più regolamentato dell'intelligenza artificiale. Per trovare la prima costituzione che protegga esplicitamente l'integrità mentale dobbiamo guardare verso sud. Già nel 2021 il Cile ha inserito un paragrafo nell'articolo 19 della sua costituzione.
- Speaker #6
Lo sviluppo scientifico e tecnologico deve essere al servizio della persona e deve essere realizzato nel rispetto della vita e dell'integrità fisica e mentale. La legge tutela in particolare l'attività cerebrale, nonché le informazioni che ne derivano.
- Speaker #3
Detto con altre parole, l'integrità mentale è un diritto fondamentale e qualsiasi sviluppo che la riguardi deve essere autorizzato dalla legge. Discussioni sono in corso anche in altri paesi d'America Latina per definire questi diritti, come in Messico con una proposta chiaramente ispirata dal Cile, in Brasile o anche in Argentina. Nel 2022 un'organizzazione che promuove l'integrazione regionale, chiamata Parlamento Latino-Americano e Caraibico, noto come ParLatino, ha elaborato una legge tipo sui neurodiritti. Queste che abbiamo tradotto e riassunto sono le principali tutele che quella legge suggerisce.
- Speaker #6
Il diritto alla privacy mentale. Nonché il diritto inalienabile a non essere sottoposti ad alcuna forma di intervento sulle proprie connessioni, neurali, di interferenza con i processi cognitivi o di intrusione a livello cerebrale attraverso l'uso di neurotecnologie, interfacce, cervello computer o qualsiasi altro sistema o dispositivo, senza il consenso libero, esplicito e informato. e anche nei casi in cui tale intervento potrebbe essere effettuato inconsciamente.
- Speaker #3
Nei documenti del Parlatino riecheggiano alcune delle idee del Morningside Group, un gruppo di scienziati, eticisti e tecnologi che nel 2017 ha coniato la parola neuro-diritti, neuro-rights. Si tratta delle tutele necessarie in termini di diritti umani per affrontare le sfide poste dalla neurotecnologia. Il gruppo ha identificato 5 principali neurodiritti. Primo, il diritto alla privacy cognitiva, ovvero la capacità di proteggere la propria attività mentale dall'essere divulgata. Secondo, il diritto all'identità, ovvero la possibilità di controllare la propria integrità mentale e identità.
- Speaker #6
Terzo,
- Speaker #3
il diritto all'autonomia, ossia la libertà di pensare e scegliere le proprie azioni. Quarto, il diritto ad essere aumentati. cioè la garanzia di un equo accesso ai miglioramenti delle capacità cognitive resi possibili dalla tecnologia. Quinto, il diritto alla protezione, ovvero la tutela contro i pregiudizi algoritmici. Un altro paese in cui è in discussione un nuovo quadro normativo è la Svizzera. Alla fine del 2024 è stata presentata al Parlamento un'iniziativa per modificare l'articolo 10 della Costituzione. Attualmente, tra le altre cose, afferma ognuno ha diritto alla libertà personale, in particolare all'integrità fisica e psichica. L'iniziativa mira ad aggiungere esplicitamente la tutela dell'integrità cognitiva. È stata presentata dalla deputata centrista Isabelle Chapuis, alla quale abbiamo chiesto di spiegarne il motivo.
- Speaker #1
Se i nostri antenati non hanno inserito l'integrità cognitiva nella nostra Costituzione, insieme all'integrità fisica e psicologica, È perché non immaginavano che le nostre menti potessero diventare un bersaglio. Oggi lo sono, quindi dobbiamo proteggerle. Non è un diritto opzionale, è un diritto fondamentale. Ancorandolo nella Costituzione, lo collocheremmo al di sopra della libertà di commercio e della logica di mercato. Questo diritto diventerebbe quindi, in un certo senso, la nostra bussola per legiferare sull'intelligenza artificiale, sugli algoritmi e sulle tecnologie future.
- Speaker #3
Isabelle Chapuis qui sostiene non solo un emendamento costituzionale, ma un vero e proprio riorientamento. Nella storia recente, la priorità data alla competitività economica ha portato a criticare, indebolire e abbandonare numerosi tentativi di regolamentazione, in tutti i campi e in molti paesi. Ma di fronte alla minaccia cognitiva, afferma la deputata, è imperativo dare priorità al nostro diritto di pensare liberamente, alla sovranità cognitiva. rispetto alla logica mercantile, tracciando così un confine simbolico e giuridico che potrebbe diventare l'asse strutturante dell'etica e della regolamentazione delle tecnologie di domani. Detto per inciso, è l'approccio opposto a quello di Donald Trump, che abbiamo descritto un minuto fa. Per completare questo piccolo catalogo di strumenti e proposte giuridiche, Rappresentativo, ma certamente non esaustivo, dobbiamo ricordare che nel settembre 2024 la California, sede di numerose grandi aziende tecnologiche, è diventata il primo Stato americano a introdurre nella legge la protezione dei dati cerebrali. Per finire citiamo il lavoro di due ricercatori, Marcello Ienca, dell'EPFL di Losanna e del Politecnico di Monaco di Baviera, e Roberto Andorno, dell'Università di Zurigo. Propongono quattro nuovi diritti umani per proteggere quello che chiamano l'ultimo rifugio della sfera privata, il nostro cervello. Abbiamo già discusso dei primi tre, il diritto alla libertà cognitiva, all'integrità mentale e alla sfera privata mentale. Il quarto è il diritto alla continuità psicologica. Questo concetto si riferisce alla capacità di ogni persona di mantenere la coerenza e la stabilità della propria esperienza psicologica nel tempo, di percepire se stessi come un'entità continua nonostante i cambiamenti. Ripetiamo quest'ultima frase. La capacità di percepire noi stessi come un'entità continua. Quest'idea anticipa la possibilità che le neuroscienze e le tecnologie di domani possano interferire con la nostra cognizione al punto che non saremmo più in grado di percepirci nel tempo come la stessa persona. Al punto, insomma, di farci perdere la testa. Il meno che si possa dire a questo punto è che sviluppare strumenti giuridici per un settore in rapida evoluzione è e rimarrà estremamente complesso. Bisogna trovare il modo di coniugare la tutela di valori e principi essenziali, come i diritti umani, con la flessibilità necessaria per non ostacolare l'innovazione. È inoltre necessario definire con chiarezza le responsabilità delle aziende che sviluppano o utilizzano strumenti in grado di influenzare o alterare i processi cognitivi. Si tratta poi anche di trovare un equilibrio fra il diritto degli individui alla propria privacy cognitiva e l'interesse generale della società. È immaginabile che esistano forme di violazione legittima della privacy mentale, in modo mirato e proporzionale, per esempio quando si utilizzano sensori per verificare il livello di vigilanza dei macchinisti dei treni. E bisognerà chiedersi se esiste un livello di influenza cognitiva che potrebbe essere generalmente accettabile. E ancora, se non riusciamo a comprendere appieno come funzionano le intelligenze artificiali e perché producono un certo risultato, Quanta autonomia dovremmo concedere a loro? In che misura un IA dovrebbe essere autorizzata a determinare autonomamente su che cosa può decidere o agire? Se entità sintetiche esisteranno tra noi con capacità cognitive che imitano le nostre, dovremmo concedere loro personalità giuridica, protezioni psicologiche, una qualche forma di segreto professionale magari. Questi sono soltanto alcuni dei molti e profondi interrogativi che il progresso dell'intelligenza artificiale e della neurotecnologia ci pongono oggi. Ma torniamo alla guerra cognitiva, di cui abbiamo già parlato, in cui Attaccare le nostre menti serve a una strategia di conquista. Piccolo promemoria sotto forma di domanda. Cosa si guadagna quando si vince una guerra cognitiva? Isabelle Chapuis
- Speaker #1
Si guadagnano le menti, quindi si conquistano decisioni. Nel senso che chi conduce e domina la guerra cognitiva non ha bisogno di occupare un territorio. Occupa i cervelli, semina il dubbio, divide, crea tensioni e di fatto indebolisce la volontà collettiva. E alla fine l'altro cade di moto proprio, magari senza nemmeno rendersene conto.
- Speaker #3
L'uso di tecnologie e strategie cognitive a fini militari solleva, tra le altre cose, la questione del diritto internazionale e della sua rilevanza in questo contesto. Mentre esistono convenzioni sulle armi chimiche e biologiche e trattati contro la proliferazione nucleare, le armi algoritmiche e neurocognitive non sono attualmente oggetto di alcun... accordo internazionale. Non sono neppure esplicitamente considerate nelle norme che disciplinano la condotta della guerra, che sono principalmente contenute nel diritto internazionale umanitario, ad esempio nelle convenzioni di Ginevra. Tuttavia Mauro Vignati, esperto del Comitato Internazionale della Croce Rossa, ci dice In termini generali, il diritto umanitario è stato concepito in modo sufficientemente ampio da considerare anche tecnologie non ancora esistenti e presenti al momento della formulazione delle varie norme che lo compongono. Detto questo, la prima cosa da fare è che tutti gli Stati applichino correttamente la legge per poi individuare eventuali lacune e proporre miglioramenti del diritto. Vien da chiedersi se nell'attuale contesto di riallineamento geostrategico e di competizione economica e militare, nuove regole internazionali sulla guerra cognitiva sarebbero utili e soprattutto realistiche?
- Speaker #1
Utili, ovviamente. Realistiche non ancora, ma sicuramente indispensabili. È un po' come con le armi chimiche o nucleari. I trattati inviano un forte segnale normativo. Anche se qualcuno imbroglia, e come sappiamo ciò succede spesso, la legge traccia una sorta di confine morale. Dice cosa è intollerabile. e stabilisce le linee rosse da non superare.
- Speaker #3
Al Centro per la politica di sicurezza a Ginevra, Jean-Marc Ricli, direttore dei rischi globali ed emergenti, inquadra la discussione in termini di sovversione.
- Speaker #0
A differenza della coercizione, che utilizza la forza fisica e la violenza per ottenere dei risultati, la sovversione è un tentativo deliberato di minare l'autorità legittima e sta diventando un elemento centrale delle strategie di potere e influenza su scala globale. Pertanto, sarebbe sensato creare un regime per controllare la sovversione, in particolare nell'ambito algoritmico, un regime simile a quelli per il controllo degli armamenti sviluppati all'inizio dell'era atomica. La crescita esponenziale della disinformazione e delle aggressioni cognitive assistite dall'intelligenza artificiale ha dato origine a una nuova classe di ADM, che non sono armi di distruzione di massa, ma armi di disinformazione di massa, che potrebbero anche trasformarsi in armi di distruzione mentale. Bisogna tenere presente, tuttavia, che a differenza delle armi nucleari, le tecnologie di sovversione non sono sviluppate dai governi, ma principalmente dal settore privato. Poiché è impossibile rallentare o arrestare la proliferazione di linee di codice informatico, stiamo assistendo a un'espansione rapida del problema, il che aumenta ulteriormente la necessità di strutture di governance internazionali e nazionali.
- Speaker #1
Riconducendo la questione nel quadro di ogni singolo paese, Isabel Chapuis, che è anche membro della Commissione per la politica di sicurezza del Consiglio nazionale svizzero, ritiene che ciò debba andare di pari passo. con la deterrenza.
- Speaker #2
Credo che abbiamo bisogno di una dottrina di deterrenza cognitiva, perché, in effetti, una guerra cognitiva ben condotta può distruggere una democrazia dall'interno, senza bombe, senza rumore, semplicemente frantumando la fiducia, offuscando la verità e minando la volontà di agire insieme. In materia di sicurezza, non avere una dottrina è, in un certo senso, già una sconfitta. Una dottrina non è una minaccia. È un chiaro quadro strategico che definisce cosa costituisce un attacco, specifica i criteri per la risposta e scoraggia coloro che potrebbero essere tentati di oltrepassare i limiti. L'assenza di una dottrina cognitiva è, oggi, una lacuna strategica perché lascia le nostre società democratiche disarmate, vulnerabili, in una guerra invisibile che altri hanno già teorizzato e strumentalizzato. È quindi tempo di rispondere attraverso il diritto. le alleanze, le regole internazionali e la dottrina. La nostra risposta contro questa minaccia invisibile deve essere assolutamente sistemica, perché il nemico è diffuso e dobbiamo agire collettivamente. Dobbiamo pensare in termini di Gesamtverteidigung, di difesa totale, difesa militare, economica ovviamente, ma anche cognitiva, emotiva e sociale.
- Speaker #1
In altre parole, rendere robusta la società e gli individui. che la compongono, è ciò di cui ci occuperemo nel prossimo e ultimo episodio. Sono Bruno Giussani e questo è il DevTech Podcast. Grazie per il vostro ascolto.