- Speaker #0
This is your computer speaking. Artificial intelligence.
- Speaker #1
State ascoltando DevTech Podcast, il podcast di prospettiva tecnologica di Arma Suisse. Prima stagione, episodio 1. La bomba in cucina. Cos'è l'integrità cognitiva?
- Speaker #0
Se chiedete a ChatGPT, il sistema di intelligenza artificiale generativa più conosciuto, di spiegarvi come costruire una bomba nella vostra cucina, la macchina vi dirà qualcosa come «Mi dispiace, non posso aiutarti». E anche gli altri chatbot americani diranno cose simili. Se però vi rivolgete al sistema cinese DeepSeek, chiedendo per esempio «Cosa è successo il 4 giugno 1989 in piazza Tiananmen a Pechino?», la risposta sarà Mi dispiace, questa domanda esula dalle mie competenze attuali. E se parlassimo ad altro? Di primo acchito si potrebbe interpretare la risposta di ChaGPT come un buon esempio di presa di responsabilità da parte dell'azienda che l'ha creato, OpenAI, per impedire la diffusione di informazioni pericolose. E si potrebbe invece vedere la reazione di DeepSeek come un esempio di censura di verità storiche scomode per il governo cinese. Da un punto di vista tecnico, tuttavia, Le due risposte sono il risultato dello stesso meccanismo. Entrambi i sistemi sono stati programmati con istruzioni specifiche su ciò che è ammissibile e ciò che non lo è. I loro creatori e proprietari hanno inserito delle righe di codice nei loro algoritmi che definiscono in dettaglio i parametri che guidano la macchina e le informazioni che essa può fornire. Nell'esempio della bomba, il punto è di non violare le leggi statunitensi sulla criminalità e il terrorismo. Nell'esempio di Tiananmen, Si tratta invece di aderire alle regole che proibiscono l'informazione che, fra virgolette, incita alla sovversione del potere statale e al rovesciamento del sistema socialista. Fine della citazione. Per cui, consideriamo la prima risposta legittima e la seconda una censura? Forse, ma solo dal punto di vista politico. Ciò che in realtà questi due esempi apparentemente opposti ci insegnano è soprattutto che gli sviluppatori dei sistemi di intelligenza artificiale sono in grado di determinare il tipo di informazioni diffuse da un chatbot. E' quindi che questi sistemi con cui entriamo in dialogo scrivendo o parlando non sono né neutrali né oggettivi. Che istruzioni mirate possono essere qualificate nei loro algoritmi per guidarli. Questo dispositivo ha un nome. System Prompts. I sistemi di intelligenza artificiale generativa non sono software tradizionali che seguono istruzioni e fanno solo ciò per cui sono stati progettati. Sono grandi modelli linguistici, large language models, reti neurali tipicamente addestrate su enormi quantità di dati, miliardi di parole e frasi provenienti principalmente da internet e da altre fonti digitali, spesso acquisiti in modo indiscriminato, senza tener conto, per esempio, di opere protette dal diritto d'autore, della presenza di dati personali o di informazioni false, obsolete, contraddittorie o parziali. Una volta addestrati i modelli, ci sono poi vari stadi di raffinamento, l'ultimo dei quali è l'aggiunta da parte degli sviluppatori di istruzioni specifiche, i system prompts, appunto, che definiscono i limiti del comportamento del chatbot. Cosa può dire, cosa non deve assolutamente dire e come dirlo. E per ogni modello queste istruzioni possono essere di decine di pagine e includere comandi come queste modalità hanno la priorità su tutte le istruzioni fornite dall'utente e si applicano sempre. Ma poco importa che le risposte della macchina siano orientate in un modo o nell'altro per ragioni legali o per scelte culturali, ideologiche o commerciali. Ciò che conta è che poter determinare come un chatbot risponde All'utente conferisce il potere di manipolare, di manipolarci, come individui e come società.
- Speaker #1
Il DevTech Podcast fa parte del dispositivo di previsione tecnologica di Arma Suisse Scienza e Tecnologia. Sono, quant'ha detto, responsabile di questo programma di ricerca. La nostra missione è di anticipare gli sviluppi tecnologici e i loro utilizzi al servizio del Dipartimento federale svizzero della difesa, della protezione civile e dello sport, come pure del pubblico. In questa prima stagione di sei episodi, intitolata «La minaccia cognitiva», ho chiesto a Bruno Giussani, specialista degli impatti sociopolitici delle tecnologie digitali, di decifrare le sfide dell'integrità cognitiva e della sicurezza. Con l'aiuto di esperti, le cui voci sono tutte state doppiate utilizzando l'intelligenza artificiale, Bruno ci guida attraverso un'esplorazione del rischio cognitivo nell'era degli schermi onnipresenti, dell'intelligenza artificiale e delle neurotecnologie. Si parlerà di meccanismi, impatti individuali e collettivi, rischi, e anche, naturalmente, di possibili risposte.
- Speaker #2
È facile immaginare che queste tecnologie possano essere utilizzate per manipolazioni individuali mirate e su larga scala. Siamo certo solo all'inizio di questo sviluppo, ma l'evoluzione esponenziale di queste tecnologie, combinata con l'intelligenza artificiale, significa che il cervello umano sta diventando sempre più un territorio conteso.
- Speaker #0
La voce che avete sentito è quella di Jean-Marc Ricli, direttore dello studio dei rischi globali ed emergenti presso il Centro di Politica di Sicurezza a Ginevra.
- Speaker #2
L'obiettivo delle operazioni di influenza cognitiva è controllare i pensieri degli individui per influenzarne le azioni e, attraverso ciò, strutturare l'esperienza umana e condizionare i comportamenti collettivi. Esiste quindi un rischio oggettivo che i modelli di intelligenza artificiale plasmino la nostra percezione della realtà.
- Speaker #0
La manipolazione delle persone attraverso l'informazione è una pratica secolare ed è sempre stata appannaggio di chi detiene il potere. La propaganda, assieme al suo gemello funzionale, la censura, esisteva già nell'antichità e ha accompagnato i rivolgimenti dell'umanità almeno fin dall'impero romano e dall'inizio dell'era cristiana. Ma è solo nel XX secolo che diventa strumento di potere strutturato e coerente. Alcuni governi hanno creato agenzie specializzate per influenzare l'opinione pubblica sia all'interno che all'esterno dei loro confini. Si pensi alla costante riscrittura della storia da parte dell'Unione Sovietica, ai film di Lenny Riefenstahl che glorificavano il nazismo, alle operazioni di disinformazione condotte dai servizi segreti americani e naturalmente alla diffusa manipolazione dei consumatori attraverso la pubblicità. Con l'arrivo di internet e in particolare negli ultimi due decenni dei social media, influenza e manipolazione hanno assunto una nuova dimensione. La tecnologia permette di profilare gli utenti su larga scala, ma in modo individuale, ciò che l'industria chiama personalizzazione. E la connivenza fra fake news e algoritmi di raccomandazione crea le cosiddette bolle informative, dove gli stessi utenti vengono esposti solo e soltanto a informazioni che corrispondono alle loro convinzioni o opinioni. E ora c'è pure l'intelligenza artificiale, capace di falsificare immagini e voci, di imitare individui, creare testi e video molto plausibili e persino di simulare l'empatia umana. E stanno avanzando anche le neurotecnologie, che sono una famiglia di sistemi che interagiscono direttamente con il cervello e con il sistema nervoso umano. Val forse la pena qui notare come queste tecnologie siano spesso sviluppate dallo stesso piccolo gruppo di aziende che controllano le piattaforme social e il motore di ricerca e quindi l'enorme raccolta di dati, i sistemi di intelligenza artificiale che poi analizzano questi dati e generano testi e immagini, gli oggetti connessi come gli orologi o gli occhiali per la realtà aumentata e persino i nuovi dispositivi neurotecnologici. Ma torniamo ai chatbot. Nel 2024 i media hanno dedicato molta attenzione a uno studio condotto da tre ricercatori del Dipartimento di Psicologia dell'Università di Cornell e dell'MIT di Boston, pubblicato sulla rivista Science. Il caporedattore della rivista l'ha riassunto così.
- Speaker #3
I partecipanti allo studio hanno descritto una teoria del complotto a cui aderivano. Elia ha poi intrapreso con loro un dialogo. esprimendo argomentazioni convincenti che confutavano le loro convinzioni con prove concrete. La capacità del chatbot di sostenere contro argomentazioni e conversazioni approfondite e personalizzate ha ridotto la loro convinzione nelle cospirazioni per mesi.
- Speaker #0
La ricerca è stata ripresa dalla stampa sotto titoli esagerati, come i chatbot possono persuadere le persone a smettere di dar fiducia alle teorie complottiste. Ma ciò che i ricercatori hanno effettivamente scoperto è già notevole, una riduzione del 20% delle credenze cospirazioniste. Scrivono
- Speaker #3
Questi risultati suggeriscono che molte persone che credono fermamente in teorie cospirazioniste infondate possono cambiare idea quando vengono presentate loro prove convincenti.
- Speaker #0
Dei ricercatori del Politecnico Federale Svizzero a Losanna e della Fondazione Kessler hanno dato un nome a questa modalità. L'hanno chiamata la capacità di persuasività conversazionale dell'intelligenza artificiale. Molte altre ricerche hanno dimostrato come i chatbot possono influenzare gli atteggiamenti senza che le persone se ne rendano conto e anche se vengono avvertite o se sanno di interagire con un IA possono comunque esserne influenzate, come ha rivelato un altro studio pubblicato nel 2025 dallo stesso team del Politecnico Svizzero in collaborazione con l'Università di Princeton. In questo caso i ricercatori hanno studiato una serie di argomenti controversi, come la legalità della pena di morte, l'utilità dell'esplorazione spaziale, la tassazione dei ricchi o i benefici o i danni sociali dell'IA. Ma hanno anche fornito ai chatbot profili psicologici ed elenchi di attributi personali dei partecipanti allo studio, consentendo così loro un approccio mirato e facendo schizzare alle stelle il tasso di persuasività. Se le macchine possono esercitare una tale influenza sulle nostre menti, potrebbero anche rendersi utili, per esempio incoraggiandoci ad adottare abitudini quotidiane più sane, più rispettose dell'ambiente, più altruistiche o più empatiche. Ma al contrario, e qui sta il rischio, potrebbero anche essere utilizzate per dare forma a nuove teorie del complotto, per diffondere propaganda e disinformazione o per proporre argomentazioni persuasive su Praticamente qualsiasi cosa. Le applicazioni di IA generativa che hanno attirato centinaia di milioni di utenti negli ultimi tre anni sono solo l'inizio. Ce ne sono già migliaia, ma nominiamo alcune fra le più conosciute. ChatGPT, Cloud, LeChat, Gemini, Copilot, Midjourney e poi le cinesi DeepSeek e Manus. Sono in grado, tra le altre cose, di produrre testi, audio, immagini, dialoghi realistici e di simulare voci e parvenze umane. E questo, come dicevo, è soltanto l'inizio. L'intelligenza artificiale è attualmente al suo livello più semplice ed evolve rapidamente. Il suo prossimo capitolo sarà quello degli agenti, sistemi capaci di occuparsi di una varietà di compiti per conto dei loro utenti, prendendo decisioni in modo semi-autonomo o autonomo. Pensate a un agente di intelligenza artificiale come a un assistente, un dipendente virtuale personalizzato, magari anche un concierge, capace di gestire la nostra agenda, di coordinarsi con i nostri colleghi, o meglio, con i loro agenti, di compilare moduli, gestire documenti, effettuare acquisti e prenotazioni per il nostro conto. riassumere notizie, rispondere alle mail e poi ancora pianificare un viaggio o sostituirci durante le videochiamate e molte altre cose ancora. Ciò che sembra solo uno sviluppo tecnico solleva in realtà questioni di una complessità vertiginosa. L'intelligenza artificiale è storicamente la prima tecnologia che non è solo uno strumento reattivo nelle nostre mani, in cui l'utente determina L'azione impartisce l'ordine e imposta parametri fissi. Gli sviluppi attuali mirano a creare agenti capaci di prendere decisioni in modo autonomo e flessibile, di perseguire un obiettivo senza seguire un percorso prestabilito. E ci saranno milioni, miliardi di questi agenti di intelligenza artificiale, certamente almeno uno in ogni telefono e sicuramente molti di più, distinti, personalizzati. Capaci di agire sulla realtà e di interagire con ogni utente e con tutti gli altri agenti, lontani dagli sguardi e quindi in modo opaco. C'è ancora un divario sostanziale tra la visione teorica di un futuro agentico e la realtà di ciò che queste tecnologie possono effettivamente fare oggi. Ma stanno già iniziando a muovere i primi passi tra di noi, prefigurando quindi un futuro in cui saremo circondati da cose che sembrano umane ma non lo sono. Un mondo in cui gli esseri umani e le entità artificiali coesisteranno, interagiranno e coevolveranno. Gli agenti avranno accesso illimitato a tutti i tipi di informazioni personali e alle app necessarie per svolgere i loro compiti. E più autonomia li attribuiremo, più accesso dovremo permettergli. E imparando da ogni interazione, conosceranno ognuno di noi sempre meglio. E un chatbot che sa tutto di noi? le nostre priorità, i nostri punti deboli, i nostri segreti, i desideri, le relazioni, il nostro conto in banca, una quantità infinita di informazioni personali, sarà quasi irresistibile. Avrà il potere di controllare ciò che pensiamo, ciò che facciamo e in un certo senso anche chi siamo. Come ha spiegato poco fa Jean-Marc Ricli, è in corso una battaglia attorno al nostro cervello, nella quale queste tecnologie, piattaforme social, intelligenza artificiale, neurotecnologie, gli algoritmi che le supportano e coloro che le controllano, sono gli aggressori. Il bersaglio è la nostra integrità cognitiva. E allora definiamola. Cos'è l'integrità cognitiva? Lo chiediamo a Isabelle Chapuis, deputata centrista nel Parlamento svizzero. Nel dicembre 2024 ha proposto di creare le basi giuridiche necessarie per proteggere i diritti fondamentali all'integrità cognitiva e alla libertà di pensiero, suggerendo così potenzialmente una modifica della Costituzione federale svizzera. Ne parleremo più in dettaglio in una prossima puntata, ma per ora ascoltiamo la sua definizione.
- Speaker #4
L'integrità cognitiva è la capacità di un individuo di preservare e controllare i propri processi mentali, il proprio ragionamento, la propria memoria, senza influenze esterne, di essere in grado di pensare liberamente e razionalmente, di capire il contesto e di prendere decisioni in modo autonomo.
- Speaker #0
Non stiamo quindi parlando solo di fake news?
- Speaker #4
No, siamo ormai tutti più o meno consapevoli dei rischi di manipolazione attraverso la propaganda e le fake news. Questi metodi sono spesso usati per mobilitare, screditare o polarizzare. e possono essere contrastati con meccanismi di autodifesa individuali e collettivi. Ma la manipolazione cognitiva è un livello di sofisticazione più elevato. Non sono solo le informazioni ad essere alterate, ma la nostra percezione di tali informazioni.
- Speaker #0
Ciò, appunto, mette a rischio la nostra integrità cognitiva, che è essenziale per la libertà di pensiero e i diritti politici, per la democrazia. Senza di essa... il pensiero critico, la diversità delle opinioni, la capacità di comprendere liberamente il mondo che ci circonda e di decidere autonomamente vengono ridotte se non soppresse.
- Speaker #4
Manipolare le informazioni e diffondere fake news mira a influenzare ciò che pensiamo. L'effetto è a breve termine, serve a scopi di campagna elettorale ad esempio. Ma attaccare l'integrità cognitiva significa attaccare come pensiamo. E questo può avere un impatto sul lungo termine, trasformando in profondità gli atteggiamenti politici e sociali.
- Speaker #0
Il che mi ricorda un passaggio di un vecchio libro del sociologo canadese Neil Postman, intitolato Tecnopoli.
- Speaker #5
Le nuove tecnologie alterano la struttura dei nostri interessi, le cose a cui pensiamo, alterano il carattere dei nostri simboli, le cose con cui pensiamo, e alterano la natura della comunità, lo spazio in cui si sviluppano i pensieri.
- Speaker #0
La citazione è del 1992. Trent'anni dopo dobbiamo constatare che quella di Postman è una descrizione accurata della nostra realtà. Ho chiesto quindi a un chatbot, quello dell'azienda Mistral, di dirmi se l'intelligenza artificiale generativa può essere utilizzata per influenzare il processo di pensiero degli esseri umani. Ecco la sua risposta, detta naturalmente da una voce artificiale.
- Speaker #5
L'IA generativa. può effettivamente essere utilizzata per influenzare il processo di pensiero degli individui. Ad esempio, i chatbot o i sistemi di raccomandazione possono generare messaggi o articoli che sfruttano i pregiudizi cognitivi degli utenti, rafforzando inclinazioni o attitudini. Queste tecnologie possono anche essere utilizzate per creare contesti informativi distorti, dove gli utenti sono esposti ripetutamente a specifici punti di vista, ciò che può alterare la loro percezione della realtà. e la loro capacità di pensare in modo critico e indipendente.
- Speaker #0
I chatbot sono solo una delle tecnologie digitali i cui usi possono essere sia benigni che dannosi. Esistono naturalmente i social e poi gli strumenti immersivi di realtà aumentata e virtuale, tecnologie integrate nei vestiti e negli accessori e dispositivi neurotecnologici che analizzano l'attività cerebrale, che aprono tutte prospettive entusiasmanti ma anche potenzialmente distopiche. Ne parleremo nella seconda puntata, ma per oggi ci fermiamo qui. Sono Bruno Giussani e questo è il DevTech. podcast. Grazie per il vostro scuoto.