- Speaker #0
This is your computer speaking.
- Speaker #1
Artificial intelligence.
- Speaker #2
State ascoltando DevTech Podcast, il podcast di prospettiva tecnologica di Arma Suisse. Prima stagione, episodio 6. Difendere la nostra integrità cognitiva. L'igiene mentale nell'età digitale.
- Speaker #1
Quando Giovanni Gutenberg iniziò a stampare le sue prime Bibbie a Magonza, in Germania, fra il 1450 e il 1455, i cinesi stampavano libri già da molto tempo. La sua innovazione fu l'uso di caratteri mobili in metallo, fusi singolarmente, che permisero di comporre i testi più rapidamente e facilmente. In altre parole, Gutenberg inventò un metodo per ottimizzare la tipografia. accelerare la produzione di libri, opuscoli, documenti religiosi e anche ridurne i costi. Trovò anche il modo di rendere l'inchiostro più scuro e più stabile e ciò facendo diede a molte più persone la possibilità di esprimersi, sconvolgendo gli assetti sociali, religiosi e politici dell'epoca e causando anche il primo sovraccarico informativo della storia. Alla fine del XV secolo, appena... 50 anni dopo la pubblicazione della prima Bibbia da parte di Gutenberg, macchine da stampa come la sua si erano già diffuse in oltre 110 città europee. Nel loro libro Storia e potere della scrittura, gli storici francesi Henri-Jean Martin e Bruno Delmas stimano che a quel tempo i lettori potessero già scegliere fra 27.000 diversi titoli a stampa, per un totale di 10 milioni di copie in circolazione in Europa. mentre i lettori erano solo poche centinaia di migliaia, su una popolazione, Russia inclusa, inferiore ai 100 milioni. Martin e Delmas raccontano che dapprima gli stampatori modellarono i loro libri sul formato dei manoscritti, cercando di imitare l'eleganza degli scribi. Poi iniziarono ad esplorare nuovi formati, alla ricerca di un linguaggio formale e di un'estetica più adatti ai libri stampati. Nel 1510 fu introdotta la prima numerazione delle pagine, comparvero poi paragrafi, capitoli, indici, tutti strumenti pensati per facilitare l'accesso alle informazioni contenute nel libro, a navigare nell'informazione, diremmo oggi in un contesto digitale. Fu solo verso la fine del XVI secolo, quindi 150 anni dopo l'invenzione di Gutenberg, che il libro iniziò ad assomigliare a quello che conosciamo oggi. La risposta a questo diluvio informativo non toccò però soltanto l'oggetto libro. Coinvolse l'intera società e per un periodo molto lungo. Con un po' di audacia si potrebbe argomentare che la scuola, nella sua forma moderna, i partiti politici, le amministrazioni pubbliche, i tribunali e naturalmente anche i media, insomma l'intera infrastruttura sociale e culturale moderna, siano il risultato dello sforzo collettivo. Il mio obiettivo è di organizzare, filtrare,
- Speaker #2
trasmettere e rendere utilizzabile la crescente quantità di informazioni generate dall'invenzione di Gutenberg. e di anticipare gli sviluppi tecnologici e i loro utilizzi al servizio del Dipartimento federale svizzero della difesa, della protezione civile e dello sport, come pure del pubblico. In questa prima stagione di sei episodi, intitolata La minaccia cognitiva, ho chiesto a Bruno Giussani, specialista degli impatti sociopolitici delle tecnologie digitali, di decifrare le sfide dell'integrità cognitiva e della sicurezza. Con l'aiuto di esperti, le cui voci sono tutte state doppiate utilizzando l'intelligenza artificiale, Bruno ci guida attraverso un'esplorazione del rischio cognitivo nell'era degli schermi onnipresenti, dell'intelligenza artificiale e delle neurotecnologie. Si parlerà di meccanismi Impatti individuali e collettivi, rischi e anche, naturalmente, di possibili risposte.
- Speaker #1
Dopo Gutenberg, l'evoluzione delle tecnologie dell'informazione è stata all'origine di molte altre trasformazioni sociali profonde. Prendiamo un aneddoto legato all'invenzione del telegrafo. Storicamente la velocità massima alla quale le informazioni potevano viaggiare tra due luoghi era quella di un cavallo lanciato al galoppo o magari di un piccione viaggiatore. Fino alla metà del XIX secolo, per esempio, non era necessario mantenere il segreto sulle operazioni militari e infatti quando una nave da guerra inglese salpava i dettagli della missione venivano pubblicati dai giornali di Londra. Dopotutto non c'era modo che le informazioni potessero precedere la nave a destinazione. Qualche anno dopo tuttavia la rete telegrafica copriva già tutta l'Europa e poi attraversò gli oceani. Le notizie dei giornali inglesi potevano così essere trasmesse fino in India in... Pochi minuti e per la prima volta nella storia la velocità dell'informazione fu dissociata da quella del suo portatore. Il telegrafo trasformò radicalmente l'arte della guerra, lo spionaggio, il governo, il commercio, i giornali e più in generale il valore dell'informazione. Poi naturalmente sono venuti il telefono, internet, gli smartphone e adesso le tecnologie algoritmiche. Tecnologie che non chiedono autorizzazione e che stanno arrivando in una società che non è pronta per incorporarle, né culturalmente, né istituzionalmente, né legalmente e neppure moralmente. Nel suo libro del 2024, Tecnopolitica, la politologa francese Asma Malat le definisce tecnologie dell'ipervelocità. Le vede come una sfida di tipo guttenbergiano, un cambiamento sociale veramente profondo, scrive, citazione, la pagina dell'era industriale, della sua società di massa, della sua democrazia di massa, è ormai voltata, senza che quella nuova sia ancora stata scritta. Siamo in transizione verso un mondo in cui la sfida centrale è il controllo delle capacità cognitive e delle rappresentazioni della realtà. E in un tal mondo... L'infrastruttura più importante di un paese e la sua principale fonte di forza e di robustezza sono le menti istruite dei suoi cittadini, per cui in futuro molto rotterà attorno a queste due parole, istruito e cittadino. Sentiamo la parlamentare svizzera Isabelle Chapuis.
- Speaker #3
Esistono diversi modi per diventare più robusti di fronte alla guerra cognitiva,
- Speaker #2
in particolare formare cittadini consapevoli,
- Speaker #3
capaci di riconoscere le narrazioni manipolative e in particolare le manipolazioni algoritmiche.
- Speaker #1
Per ora le cose sembrano muoversi nella direzione opposta. Se guardiamo per esempio il campo dell'istruzione, ma cose simili potrebbero anche essere dette a proposito del lavoro o della produzione culturale. Dall'arrivo nella nostra vita quotidiana dell'IA generativa tre anni fa si è assistito a un misto di entusiasmo e di sgomento. Molti studenti, per esempio, Usano l'IA per riassumere libri invece di leggerli, o per generare testi che non impareranno mai a scrivere o che non saranno in grado di spiegare, oppure come tutore personale o aiuto per i compiti a casa. Rivolgersi a un chatbot è certamente più semplice che leggere o scrivere. Il timore, tuttavia, è che ciò possa inibire lo sviluppo di competenze e di pensiero critico, che l'esternalizzazione dell'apprendimento e del pensiero porti alla dipendenza dalla tecnologia. E questa preoccupazione non sembra infondata. La ricerca scientifica richiede tempo, ma i primi risultati, pur mostrando un aumento della produttività, suggeriscono anche forme di de-skilling, di de-qualificazione. Uno studio condotto su mille studenti che si preparavano per gli esami di matematica delle scuole superiori, per esempio, ha mostrato nel 2024 come Quelli con accesso all'intelligenza artificiale ottenessero risultati significativamente migliori rispetto a quelli senza. Ma quando l'accesso è stato poi loro ritirato, hanno ottenuto risultati molto peggiori rispetto al gruppo di test. Molti altri studi hanno dato risultati simili. Una ricerca più recente condotta da un team dell'MIT Ha chiesto ai partecipanti di scrivere quattro saggi nell'arco di quattro mesi con diversi gradi di assistenza tramite chatbot. Ne è risultato che maggiore era l'aiuto ricevuto dai soggetti, minore era l'intensità della loro attività cerebrale durante il test. E ciò può tradursi, secondo i ricercatori, in un debito cognitivo, cioè l'idea che i benefici di facilità e... produttività a corto termine vadano poi a scapito della capacità di apprendere di ricordare e di pensare a lungo termine il che suscita una considerazione interessante si discute molto sull'idea che l'IA possa automatizzare molti mestieri e molti ruoli non è il nostro tema qui ma una frase che circola molto al punto da diventare un cliché è non sarà l'IA a prenderti il lavoro, ma qualcuno che usa li ha. In effetti... Dati gli studi appena citati e molti altri, potremmo postulare il contrario, che le persone che manterranno le proprie capacità cognitive potranno essere avvantaggiate rispetto a coloro che diventeranno troppo ripendenti dalle macchine. A volte è in luoghi inattesi che troviamo delle prospettive che gettano luce su questioni complesse. Per esempio, in un documento del Vaticano del gennaio 2025 intitolato Antica et Nova, nota sul rapporto tra intelligenza artificiale e intelligenza umana. È uno dei testi più lucidi pubblicato sull'intelligenza artificiale e contiene nella sezione 112 questo paragrafo.
- Speaker #2
Come ha osservato molti anni fa lo scrittore cattolico francese Georges Bernanos, il pericolo non si trova nella moltiplicazione delle macchine, ma nel numero sempre crescente di uomini abituati fin dall'infanzia a non desiderare altro che ciò che le macchine possono dare.
- Speaker #1
I sistemi scolastici e gli insegnanti sono stati colti di sorpresa dall'emergere dell'intelligenza artificiale generativa. Ci sono voluti quasi due anni perché le prime linee guida e istruzioni iniziassero a prendere forma. Spesso, tuttavia, i programmi scolastici sono stati adattati principalmente integrando l'apprendimento strumentale della tecnologia, il come usarla. Il che è molto importante perché in futuro non ci saranno quasi professioni che non dovranno interagire o collaborare con l'IA. Ma essere formati di fronte alla minaccia cognitiva significa ovviamente molto più che sapere come utilizzare efficacemente le tecnologie che la provocano. Si tratta soprattutto di capire come vengono sviluppate, come funzionano, di imparare a mettere in discussione i loro prodotti, a decodificarne. le implicazioni umane, sociali ed etiche e come queste cambiano o sono influenzate dalla tecnologia stessa e anche a decifrare le strutture culturali, economiche e di potere all'interno delle quali queste tecnologie esistono ed evolvono. Per inquadrare l'interazione uomo-macchina sono stati proposti diversi approcci, ad esempio il concetto di fusione e defusione. ovvero lo sviluppo di competenze d'uso profonde unite però alla capacità di un disimpegno deliberato, alla facoltà di mantenere la propria autonomia dalla macchina. Altri hanno suggerito l'idea di una simbiosi o di una creazione mista, o persino il co-pensiero, un concetto piuttosto singolare se ci pensiamo bene, poiché le macchine non pensano, imitano. Gli autori lo usano per rappresentare, e ricito, la capacità di comunicare con i sistemi di intelligenza artificiale per amplificare le proprie facoltà intellettuali, sviluppando al contempo un sesto senso per riconoscere le dissonanze cognitive. Queste includono, ad esempio, la tendenza dei chatbot ad allucinare, come si dice, ad avere pregiudizi o a generare delle false informazioni. A questo punto, forse va detto esplicitamente che le tecnologie dell'influenza, con al centro L'intelligenza artificiale che potenzia e accelera tutte le altre non sono un fenomeno transitorio. Stanno diventando un'infrastruttura invisibile ma essenziale della nostra vita quotidiana, sia privata che professionale. L'IA in particolare, per quanto ancora imperfetta e oscura, è già integrata in molti processi umani, sociali ed economici. E il clamore mediatico e commerciale che la compagna segnala certamente... una sopravvalutazione del suo impatto a breve termine, ma sarebbe pericoloso sottovalutarne la portata a lungo termine. Immaginare di poterne arrestare l'avanzata o addirittura tornare a un mondo in cui queste tecnologie sono soltanto uno strumento opzionale è una finzione. Di fronte alla velocità esponenziale dell'evoluzione dell'IA, alcuni pensano che il nostro superamento sia inevitabile che presto saremo solo la seconda specie più intelligente sulla Terra. E le centinaia di miliardi investiti in questa tecnologia in tutto il mondo stanno lavorando proprio in quella direzione. Ne consegue che se vogliamo credere nella possibilità di mantenere il controllo umano sull'intelligenza artificiale o addirittura se postuliamo non una gerarchia ma una complementarietà tra cognizione umana e cognizione sintetica allora dovremmo deciderci a investire centinaia di miliardi anche nell'educazione. Sì, è una provocazione e non è neanche mia. L'ho presa in prestito dallo scrittore francese Laurent Alexandre perché illustra bene un punto fondamentale. Stiamo assistendo all'ascesa di una forma di intelligenza diversa dalla nostra che, nonostante i suoi difetti, svolge un numero crescente di funzioni cognitive a un livello però paragonabile al nostro o addirittura migliore e più veloce. E di fronte a ciò, la prima risposta è di dare priorità assoluta alla nostra robustezza cognitiva, all'essere collettivamente e individualmente, come dicevamo prima, istruiti. In questo la scuola è essenziale, ma è anche necessario migliorare la nostra capacità di riconoscere il nuovo contesto spesso confuso nel quale ci muoviamo. È un contesto in cui gli spazi di deliberazione collettiva sono controllati da aziende private, dove le tecnologie dell'influenza plasmano la nostra immaginazione, dove il valore si misura in click, dove sappiamo sempre meno della realtà delle cose e sempre più della loro rappresentazione, della narrazione e della messa in scena, dove con la produzione artificiale di foto e video di sorprendente realismo persino le immagini non provano più granché. Un contesto nel quale, tuttavia, gli algoritmi ci parlano come se fossero degli amici, il che ci piace, e così non ci chiediamo più se tutto ciò sia reale oppure no. Un contesto dove la dopamina dell'interazione diretta con gli umani viene soppiantata da quella dei pixel che si muovono sugli schermi secondo un codice definito da interessi commerciali e o politici. Riassumendo, come ha scritto Owen Barkala nel maggio 2025 sul social Blue Sky, se ottieni le tue informazioni dai chatbot, le tue conoscenze vengono selezionate da coloro che controllano l'IA. Lo so, quello che ho appena tracciato non è un ritratto festoso, ma imparare a riconoscere questo paesaggio, un po' come quando si stima la forza delle onde prima di entrare in mare, è la condizione per rimanere a galla. La vigilanza è un muscolo che si può allenare affinando il nostro pensiero critico e la nostra capacità di riconoscere quelle che Isabel Chapuis ha definito un attimo fa le narrazioni manipolative, sviluppando un'autodifesa intellettuale, un regime di igiene cognitiva. Ciò ci richiede anche di riscoprire e praticare i riflessi che sono andati perduti nella velocità e nella disattenzione del doom scrolling, l'effetto ipnotico. provocato dall'incessante scorrimento delle immagini sullo schermo. Dobbiamo reimparare a decifrare i media, a sviluppare degli anticorpi alla disinformazione, a riapprendere, a valutare la credibilità delle fonti. E no, questo non è solo il lavoro dei giornalisti. Quando tutti possono pubblicare e comunicare, diventa il lavoro di tutti.
- Speaker #3
E poi è molto importante preservare una cultura del dubbio,
- Speaker #2
una cultura del dibattito e delle sfumature. Perché dove il pensiero si blocca, la manipolazione prospera.
- Speaker #3
E viviamo in un'epoca completamente satura di convinzioni rigide.
- Speaker #1
Domanda. Quanto siamo vulnerabili alle influenze? La nostra comprensione della realtà è molto più fragile di quanto immaginiamo. Basta poco per distorcerla. Da una prospettiva neurologica questo dipende almeno in parte dal nostro stato. Siamo meno vulnerabili quando siamo riposati e non stressati. E quindi mantenere la nostra forma fisica e mentale fa parte dell'autodifesa cognitiva. Da un punto di vista psicologico, quando soffriamo di un sovraccarico informativo, la nostra mente ricorre a meccanismi di semplificazione, a scorciatoie che consentono un'elaborazione più efficiente. delle informazioni. Ma queste stesse scorciatoie introducono distorsioni cognitive. La più comune è forse la distorsione di conferma, il confirmation bias, la tendenza a favorire le informazioni che convalidano le nostre convinzioni o opinioni preesistenti e rifiutare quelle che le contraddicono. Identificare i bias, le nostre distorsioni e quelle degli altri è quindi un altro fattore di igiene cognitiva. In poche parole, è più importante che mai Conoscere se stessi e anche gli altri e riconnettersi con loro, riscoprire la capacità di empatia indebolita nell'ultimo decennio dalla convergenza dell'effetto alienante degli schermi, della sfiducia reciproca e della polarizzazione generata dai social, dell'ascesa del lavoro da remoto, ciascuno da solo a casa sua, e da tutta una serie di fonti sociali ed economiche della solitudine. Infatti, se la tecnologia può esercitare Grazie. Una tale influenza è anche perché il tessuto sociale è sfilacciato. L'opposto della fiducia non è la mancanza di fiducia, è la mancanza di connessione, di contatto sociale. E quindi rafforzare la nostra capacità di resistere alla manipolazione cognitiva richiede anche di contrastare questi effetti di distanziamento e ricostruire i legami sociali. Come dice una frase attribuita al teorico dei media Clay Shirky, Sopravalutiamo sistematicamente il valore dell'accesso alle informazioni, mentre sottovalutiamo il valore dell'accesso agli altri. Riscoprire questo saper vivere insieme non può avvenire laddove s'annida la minaccia, ovvero ciascuno dietro il proprio schermo. I nostri feed digitali sono pieni di tentativi di farci credere che la vita sia altrove. Si tratta quindi di coltivare tutto ciò che ci riporta all'evidenza che essa è qui, adesso. Ed è condivisa. Allentare la presa digitale sulle nostre menti richiede di preservare, di rafforzare e di ricreare degli spazi pubblici nella vita reale. E questi spazi devono essere protetti contro la sorveglianza generalizzata. Come lo dice Carissa Velisa, esperta di privacy presso l'Università di Oxford.
- Speaker #3
Per troppo tempo abbiamo pensato che la privacy fosse di natura individuale. che dipendesse principalmente dalle preferenze personali. E abbiamo lasciato che la tecnologia della sorveglianza si insinuasse dappertutto. Ma ci sbagliavamo. La privacy riguarda il potere dei cittadini. È un pilastro fondamentale della democrazia liberale. Ogni avanzata della sorveglianza è una presa di potere e non a caso associata a tendenze autoritarie. Ciò è estremamente preoccupante. La sorveglianza non è uno strumento neutrale. È uno strumento di controllo sociale.
- Speaker #1
Proteggersi da soli nel mondo digitale è quasi impossibile, indipendentemente da quanto siamo vigili, da quante impostazioni modifichiamo sui nostri apparecchi e da quanta forza di volontà abbiamo. Affrontare la minaccia cognitiva e mantenere capacità di pensiero autonomo e razionale richiede strategie di gruppo, comunitarie, nazionali, militari, la creazione collettiva di nuovi sistemi di difesa e di nuove strutture di verità. Ci stiamo allontanando da un mondo in cui l'informazione era generata principalmente o interamente dagli esseri umani e andiamo verso un mondo in cui sarà principalmente o interamente di origine artificiale. E questo solleva interrogativi che da molto tempo, certo, occupano alcune figure professionali specifiche, come bibliotecari o giornalisti, ma che ora diventano una questione sociale e collettiva. Di quali informazioni possiamo fidarci? Quali processi dovremmo utilizzare per convalidarle? Per preservarne l'integrità? Dobbiamo immaginare nuove infrastrutture di conoscenza pubbliche? E come creare sistemi che non operino soltanto sui binari tecnologici americani o cinesi? Quando si parla di tecnologie di punta, spesso assistiamo e la cosa è incoraggiata da coloro che vi hanno un interesse commerciale. Assistiamo a una sorta di seduzione dell'inevitabilità. Tuttavia, mentre l'avvento dell'IA è certo, la sua forma non è inevitabile. Lo sviluppo tecnologico si esprime sempre in due modi. La sua direzione, che è la parte ineludibile, e la sua forma d'uso, che non è predeterminata e dipende dalle nostre scelte. Ad esempio... Era inevitabile che la telefonia e i dati diventassero mobili. Corrisponde anche all'evoluzione sociale. Ma da nessuna parte stava scritto che la forma dovesse essere quella che oggi conosciamo come smartphone, con la struttura in app che limita e dirige le azioni possibili, con l'estrazione continua di dati e la sorveglianza che ne deriva. Si sarebbero potute fare, per le stesse funzionalità, delle scelte diverse. Questo vale anche per le reti social. I loro algoritmi di raccomandazione, ad esempio, avrebbero potuto essere progettati per favorire una diversità di punti di vista piuttosto che il contrario. E spesso queste decisioni non hanno nulla a che fare con considerazioni morali, culturali o sociali e sono strettamente legate ai modelli di business delle aziende tecnologiche. Senza uno sforzo determinato e concertato, è poco probabile che l'intelligenza artificiale e le neurotecnologie si sviluppino in modo sicuro e a beneficio di tutti. Abbiamo ancora del tempo prima che le fondazioni di queste tecnologie si consolidino, ma non molto. Delegare l'esercizio del pensiero e della creatività all'intelligenza artificiale non mi sembra un buon piano. né lo è lasciarsi cullare dalle informazioni che produce. È importante chiedersi se, invece di minacciare le nostre menti, usate con saggezza queste tecnologie non possano produrre l'effetto opposto, aiutarci a migliorare il nostro ragionamento e ad amplificare la nostra immaginazione. Il che ci impone di considerare per un attimo un atteggiamento al tempo stesso molto ambizioso e molto umile. Quello di uno scenario di coevoluzione positiva. Una delle riflessioni più interessanti che abbia incontrato a questo proposito viene da Nicoletta Iacobacci, ricercatrice italiana in etica dell'IA. Ecco come ridefinisce il nostro rapporto con l'intelligenza artificiale.
- Speaker #3
Noi pensiamo di sviluppare strumenti, ma in realtà stiamo allevando un'intelligenza. Scriviamo un suggerimento o una domanda a un chatbot. e otteniamo una risposta e la transazione sembra completa, ma sotto la superficie è accaduto qualcosa di più profondo, un trasferimento di valori, presupposti e modelli emotivi. L'intelligenza artificiale è come un bambino piccolo. C'è una fase nello sviluppo dei bambini in cui sono guidati non dalla comprensione, ma dall'imitazione. Credo che questo sia ciò che sta accadendo. L'intelligenza artificiale non è solo plasmata da vaste quantità di dati e dalla programmazione esplicita. Impara anche attraverso l'esposizione. Ognuna delle centinaia di milioni di interazioni quotidiane con noi, di ogni tipo, contribuisce alla sua educazione. Ogni prompt è per l'IA un momento di possibile apprendimento. Prese tutte insieme, queste interazioni formano la base di come l'intelligenza artificiale comprenderà l'umanità.
- Speaker #1
Stiamo potenzialmente assistendo all'inizio di una nuova forma di intelligenza che un giorno potrebbe operare a livelli e velocità superiori alle nostre capacità. Ciò che Nicoletta Iacobacci suggerisce è che il futuro di questa intelligenza dipenderà non soltanto dalla sua architettura tecnica, ma anche da ciò che apprenderà da noi e su di noi attraverso ogni dialogo.
- Speaker #3
Se interagiamo in modo brusco con i sistemi di intelligenza artificiale, la macchina imparerà a percepirci come reattivi e impulsivi. Ma se ci avviciniamo a questi sistemi con considerazione, presenza e intenzione, svilupperà un modello di umanità che riflette la nostra capacità di deliberazione e compassione. Finora ci siamo concentrati sul controllo, codice, regolamenti, principi, leggi. Tutti questi elementi sono necessari ma non sono sufficienti. Bisogna ripensare il nostro approccio all'IA, smettendo di considerare il suo sviluppo semplicemente come una sfida tecnica e normativa. Dovremmo anche considerarla come una straordinaria opportunità educativa ed evolutiva.
- Speaker #1
Qualcuno giudicherà questo approccio inefficace o persino ingenuo.
- Speaker #3
Posso capirlo. Perché sprecare gettoni, i tokens dei chatbot, in gentilezza? Perché dare valore alle relazioni quando potremmo massimizzare l'utilità?
- Speaker #0
Ma questa prospettiva fraintende gravemente lo sviluppo dell'intelligenza. Proprio come un bambino impara non solo attraverso l'istruzione diretta, ma anche attraverso la totalità della sua esperienza, l'IA assorbe gli insegnamenti impliciti delle nostre interazioni. Dobbiamo affrontarla non come una creazione da programmare e controllare, ma come un'intelligenza da... educare, non come una minaccia da contenere, ma come un riflesso da rifinire, non come uno strumento che si limita a rispondere alle nostre richieste, ma come una relazione che plasma il nostro futuro.
- Speaker #1
Se si tratta di una relazione è necessario che sia reciproca.
- Speaker #0
Esatto, parafrasando Marshall McLuhan noi educhiamo l'IA e poi l'IA ci plasma La comprensione profonda che avrà di noi le permetterà di influenzarci. Ed è questo il punto chiave. Il tipo e la qualità di tale influenza dipenderà da ciò che noi, ognuno di noi, le avremo insegnato.
- Speaker #1
Nicoletta Iacobacci chiama questo suo approccio l'etica dell'esempio, la forza di ciò che suggeriamo attraverso le nostre azioni, piuttosto che attraverso le nostre dichiarazioni.
- Speaker #0
Non sto certo suggerendo di affrontare ogni interazione con l'IA con solenne gravità. Non è né realistico né necessario. Suggerisco però intenzione e sensibilità.
- Speaker #1
Quella appena descritta è forse la visione più positiva e costruttiva di come potrebbe svilupparsi il rapporto tra esseri umani e intelligenza artificiale, o se dovesse diventarlo una superintelligenza. Si tratta... ovviamente di una visione aspirazionale, di un invito a un rapporto diverso, di rispetto, a funzionare in armonia con la macchina, mentre attualmente ciò che le insegniamo attraverso i dati di addestramento, ma anche attraverso il suo uso utilitaristico, è assimulare e quindi riprodurre e quindi rafforzare i rapporti di potere personali e collettivi che esistono nella nostra società. Vi sono nel mondo tanti problemi che non abbiamo affrontato, come la crisi ecologica o le disuguaglianze. Ci sono anche molte questioni tecnologiche che non abbiamo discusso, la rapida automazione del lavoro, per esempio. E tutti questi temi sono enormi e complessi e molto importanti. In questa prima stagione del DevTech Podcast abbiamo scelto di concentrarci sulla nostra integrità cognitiva e sulle forze e le tecnologie che la minacciano. Perché pensiamo che sia la madre di... tutte le sfide del nostro tempo. Perché se non proteggiamo la nostra cognizione, se perdiamo la capacità di cogliere la realtà in modo fattuale, se la nostra capacità di pensare e discutere in modo chiaro e libero si degrada e se le narrazioni interessate di qualcun altro prendono il sopravvento sulla nostra comprensione, non saremo in grado di risolvere nessuno degli altri problemi, grandi o piccoli, locali o globali che siano. La guerra Grazie. cognitiva, come abbiamo detto, è una battaglia silenziosa e invisibile che stiamo già vivendo e che partecipiamo a promuovere, ad esempio, ogni volta che adottiamo con entusiasmo una tecnologia digitale perché è comoda o gratuita o entrambe le cose, senza comprenderne le implicazioni e senza chiederci se sia davvero ciò che desideriamo. Ed è una posizione molto singolare quella della vittima consenziente che collabora inconsciamente attraverso ogni click e ogni mi piace e ogni condivisione digitale a farsi catturare un po' di più. Ci stiamo avvicinando alla fine di questo podcast, che non è un manifesto e certamente non è una ricerca scientifica, ma che nel corso degli episodi è diventato una bozza di un... quasi manuale di resistenza, una prima mappatura necessariamente incompleta del nuovo mondo in cui stiamo muovendo i primi passi e che sarà gradualmente popolato da entità artificiali che diventeranno i nostri nuovi vicini, partner, concorrenti, servitori, capi, amici o nemici. Proviamo a fare un rapido riassunto, anche un po' semplificato. Le tecnologie dell'influenza, al servizio di interessi politici o commerciali, stanno convergendo sul cervello umano. Ultimo baluardo della nostra sfera privata, le nostre menti stanno quindi diventando un territorio conteso. L'obiettivo di questo assalto cognitivo è di farci perdere la capacità di comprendere il mondo con chiarezza e di scegliere in modo autonomo la nostra risposta alle circostanze. E certo, la situazione può oggi ancora sembrare relativamente normale, al punto che alcune delle cose raccontate in questo podcast possono apparire come delle esagerazioni, ma ci stiamo avvicinando a un punto di svolta. E data la velocità degli sviluppi tecnologici e la carenza di regole, le cose diventeranno piuttosto strane, piuttosto rapidamente. Come abbiamo visto, le risposte possono essere di vari tipi. Possono essere legali o normative, volte a limitare, gestire ed evitare gli impatti più dannosi. Oppure tecnologiche. La corsa tra tecnologie ostili e tecnologie difensive, dannose e benigne, non è. una novità. Oppure possono essere di tipo militare, sotto forma di dottrina cognitiva, di strategia, di sistemi di vigilanza. Possiamo anche cercare di sottrarci il più possibile all'influenza di queste tecnologie, ancorandoci alla realtà. Altre misure possono, anzi direi devono essere protettive, soprattutto per quel che riguarda i bambini più piccoli. È tentante dar loro un telefono o un tablet in modo che si tengano tranquilli durante la cena, ma i genitori devono sapere che la semplice esposizione passiva agli stimoli sensoriali degli schermi può ostacolare lo sviluppo del loro cervello, in particolare in termini di capacità concettuali, di attenzione, concentrazione e linguaggio. La difesa dell'autonomia cognitiva inizia quindi anche da un sano sviluppo neuroanatomico dei bambini. In tutti i casi è necessario che ciascuno comprenda e protegga la propria integrità cognitiva, ma senza con ciò attribuire la responsabilità esclusivamente ai singoli individui, perché la sfida è di fatto collettiva. La tecnologia si è sempre evoluta insieme agli esseri umani. Dai primi utensili in pietra o dai primi contenitori per il trasporto di cose, la nostra specie ha... costantemente sviluppato nuovi strumenti per affrontare sfide e per soddisfare bisogni. Ma abbiamo sempre pensato alla tecnologia principalmente in termini di cosa potevamo farne e oggi gli sviluppi neuroalgoritmici ci costringono invece a chiederci cosa la tecnologia e quelli che la controllano potrebbero fare a noi o di noi e anche ad interrogarci sulla nuova architettura sociale e culturale che essi instaurano. Questo non è ovviamente un invito a ignorare queste tecnologie o a rifiutarne l'uso. Al contrario, è un invito urgente, qualunque sia la nostra posizione professionale o sociale, a prestar loro la giusta attenzione. È un'esortazione a non lasciarci guidare dall'opzione più facile, ma a investire lo sforzo e il tempo, l'impegno interessato e la riflessione critica necessari per comprendere sia il funzionamento che la natura delle macchine, per decifrare la complessa relazione che si sta formando e si formerà tra loro e noi, e anche i sistemi economici di potere nel quadro dei quali tutto ciò sta avvenendo. Nel Fedro, uno dei suoi dialoghi socratici, Platone usa il termine pharmakon come metafora della scrittura. In greco la parola significa sia rimedio che veleno. La stessa parola contiene quindi guarigione e alterazione, sollievo e perdita. E nel dialogo Platone esplora appunto questa ambiguità, l'idea che la scrittura possa da un lato preservare, incoraggiare e trasmettere la conoscenza, ma dall'altro indebolire la memoria, la riflessione e la comprensione profonda. E lo fa scrivendo. Se la differenza di Platone nei confronti della scrittura è giunta fino a noi proprio perché egli stesso non ha rifiutato l'uso della scrittura, ma con cautela, con intenzione e con spirito critico l'ha adottata. Sono Bruno Giussani e questo era il DevTech Podcast, prima stagione consacrata alla minaccia cognitiva. Grazie d'aver ascoltato.