- Speaker #0
This is your computer speaking artificial intelligence.
- Speaker #1
State ascoltando DevTech Podcast, il podcast di prospettiva tecnologica di Arma Suisse. Prima stagione, episodio 2. La tensione frammentata. L'intelligenza artificiale, gli algoritmi e noi.
- Speaker #0
Il modo più semplice per impedire a qualcuno di pensare è di immergerlo nel rumore. Un rumore forte ovviamente, come quello di una motosega, di certe macchine industriali o della musica ad alto volume, ma anche il rumore cognitivo. Rumore che non è udibile, ma che interferisce con le nostre facoltà mentali e influisce sulla nostra capacità di elaborare informazioni e di prendere delle decisioni. La causa principale del rumore cognitivo è il sovraccarico informativo, l'eccesso di sollecitazioni mentali e sensoriali. Il cervello umano, lo sappiamo, è complesso, è anche molto potente, ma i suoi limiti diventano evidenti quando si tratta di gestire grandi quantità di informazioni in parallelo. Ciò è dovuto a diversi fattori neurologici e cognitivi, per esempio la capacità ridotta della nostra memoria di lavoro, la memoria a breve termine, quella che ci permette di magazzinare e utilizzare informazioni mentre leggiamo, mentre conversiamo o ragioniamo, o il fatto che la nostra attenzione può funzionare solo in modo selettivo, escludendo quindi le distrazioni. Esistono altre ragioni, ma limitiamoci a citare un famoso articolo pubblicato nel 1956, è intitolato il numero magico 7 più o meno 2. Nell'articolo, lo psicologo cognitivo americano George Miller spiegava che, secondo le sue ricerche, la memoria umana, a breve termine, può elaborare efficacemente soltanto sette blocchi informativi alla volta, con un margine di errore di più o meno due. In altre parole, la maggior parte delle persone può conservare tra i cinque e i nove blocchi informativi nella propria memoria di lavoro, Dov'è un blocco? per il quale in inglese Miller usava la parola chunk, può raggruppare diverse informazioni pur rappresentando un'unica unità cognitiva. Per esempio, una frase come «la casa in fondo alla strada sta bruciando e i pompieri sono al lavoro per spegnere l'incendio» è nel senso di Miller un singolo blocco informativo. Altri analisti hanno suggerito che in realtà 7 sia già un numero troppo alto. E ci sarebbe poi anche tutta una discussione da fare sul mito del multitasking, dello svolgere più compiti cognitivi in parallelo, sfatato fra gli altri dal neuroscienziato Stanislas Daen, secondo cui il cervello umano è progettato per concentrarsi su una cosa alla volta e quindi non può svolgere più attività contemporaneamente. Ma non divaghiamo. Ciò che ci interessa qui è che Grazie. Il volume del rumore cognitivo non ha bisogno di essere molto alto per soffocare le nostre capacità mentali.
- Speaker #1
Il DevTech Podcast fa parte del dispositivo di previsione tecnologica di Arma Suisse Scienza e Tecnologia. Sono, come ha detto, responsabile di questo programma di ricerca. La nostra missione è di anticipare gli sviluppi tecnologici e i loro utilizzi al servizio del Dipartimento federale svizzero della difesa, della protezione civile e dello sport, come pure del pubblico. In questa prima stagione di sei episodi, intitolata «La minaccia cognitiva», ho chiesto a Bruno Giussani, specialista degli impatti sociopolitici delle tecnologie digitali, di decifrare le sfide dell'integrità cognitiva e della sicurezza. Con l'aiuto di esperti, le cui voci sono tutte state doppiate utilizzando l'intelligenza artificiale, Bruno ci guida attraverso un'esplorazione del rischio cognitivo nell'era degli schermi onnipresenti, dell'intelligenza artificiale e delle neurotecnologie. Si parlerà di meccanismi, impatti individuali e collettivi, rischi, e anche, naturalmente, di possibili risposte.
- Speaker #0
La cattura progressiva del nostro ambiente informativo da parte di smartphone e piattaforme social nel corso degli ultimi 15 anni e la proliferazione di canali di comunicazione digitale hanno portato a una sovrastimolazione cognitiva. Lo psicologo Jonathan Haidt, autore del libro La generazione ansiosa, parla addirittura, e lo cito, di perdita della capacità umana di pensare e di crisi sociale. il che può sembrare esagerato iperbolico ma sono ormai moltissimi gli studi scientifici sui meccanismi della dipendenza digitale sulla crescente difficoltà in particolare fra i giovani ma anche fra i loro genitori a mantenere la concentrazione e una certa coerenza di pensiero sul declino della capacità di leggere e di capire il significato di un testo sulla frammentazione cognitiva dovuta al consumo continuo di video brevi e allo scambio incessante di messaggi e poi sui disturbi dello sviluppo del linguaggio nei bambini dovuto all'esposizione passiva agli schermi, sul deterioramento della salute mentale, anche tra i più piccoli, sul fatto che sperimentiamo sempre meno il mondo fisico sostituendolo con surrogati digitali e quindi più in generale intrappolati come siamo nella marea informativa sulla difficoltà di valutare onestamente il mondo che ci circonda. Riprendiamo fiato. Quella che ho appena fatto è una sintesi un po' semplicistica, ma dopo anni di esitazioni, di priorità data soprattutto al potenziale economico delle tecnologie digitali, di inviti a non demonizzare la tecnologia, di adozione sconsiderata di una moltiplicità di applicazioni, formati, piattaforme e dispositivi, oggi ci rendiamo conto che questa algoritmizzazione della vita sta convergendo in una sola e unica direzione. verso i nostri cervelli. Tutto ciò è il punto zero della perturbazione cognitiva, quando non entrano ancora in gioco tecnologie specifiche, meccanismi di profilazione o di personalizzazione, né del resto, e ne parleremo tra un attimo, l'intelligenza artificiale. A questo livello più elementare si tratta semplicemente di una questione di quantità di informazioni che supera il numero magico 7 più o meno 2 di cui abbiamo parlato appena un attimo fa. Questa saturazione informativa è in parte il prodotto della logica stessa del sistema tecnologico, del semplice fatto che chiunque può creare e distribuire informazioni attraverso una moltitudine di canali a costo quasi zero. Ma l'attacco quantitativo ai nostri limiti cerebrali può anche essere intenzionale. In politica, ad esempio, negli ultimi anni è emersa una strategia che, nell'originale inglese si chiama Flood the Zone, letteralmente, sommergere il campo informativo. La facciamo spiegare al chatbot di Mistral. È una tattica che punta a saturare lo spazio mediatico e a sommergere il pubblico con così tanti contenuti che diventa difficile distinguere i fatti dalle opinioni o dalla disinformazione. creando così una confusione diffusa e indebolendo la capacità degli individui di formulare giudizi informati. È la definizione stessa di un assalto all'integrità cognitiva, o per dirla con le parole della sociologa svizzera Jennifer Walter, lo sfruttamento strategico dei limiti cognitivi. Tendiamo tutti a pensare al nostro cervello come a una sorta di fortezza inespugnabile, che solo noi controlliamo. In realtà siamo circondati da influenze cognitive. Ai dubbi creati dalla disinformazione classica, dalle fake news, dalle versioni contraddittorie della realtà, si aggiunge quindi ora la saturazione intenzionale, che annebbia la nostra capacità di orientarci nel mondo, creando allo stesso tempo l'opportunità di iniettare informazioni mirate e alterate. James Giordano è un neuroeticista presso l'Università Georgetown negli Stati Uniti. In altre parole, studia i principi morali e i valori che influenzano le decisioni in materia di neuroscienze e neurotecnologie. È stato il primo a concettualizzare la minaccia cognitiva in una ormai celebre conferenza tenuta nell'ottobre 2018 ai cadetti dell'Accademia Militare degli Stati Uniti e West Point. Ha affermato, i nostri cervelli sono e saranno i campi di battaglia del ventunesimo secolo. Apriamo allora il sipario e facciamo entrare in scena l'intelligenza artificiale. Da tre anni non si parla d'altro. Come se fosse apparsa dal nulla, l'IA dovrebbe, secondo alcuni, debellare tutte le malattie entro il prossimo decennio, risolvere la crisi climatica, condurci ad un mondo di abbondanza. Oppure, secondo altri, prendere i nostri impieghi, soggiogarci e distruggere la civiltà. Per i primi rappresenta una speranza utopica, per i secondi un pericolo apocalittico. E per qualcuno entrambe le cose. Prendiamoci un paio di minuti per una breve digressione prima di tornare al nostro tema, perché l'IA non è una tecnologia nuova. Le sue origini risalgono alla metà del secolo scorso. All'epoca si parlava di cibernetica, lo studio dei processi informativi nei sistemi complessi, esseri viventi, società, economia, anche le macchine. Il termine intelligenza artificiale è apparso per la prima volta nell'estate del 1956, quando lo scienziato americano John McCarthy Organizziamo un incontro all'Università di Dartmouth, definendola come la capacità, e lo cito, di far sì che una macchina si comporti in un modo che sarebbe definito intelligente se un essere umano si comportasse in quel modo. Per decenni l'IA è poi passata attraverso successi e delusioni, ed è solo verso l'inizio del secolo che la tecnologia ha avuto quell'accelerazione di cui vediamo ora i risultati. con l'apparizione delle reti neurali artificiali, in inglese neural networks, che hanno dato alla macchina la capacità di apprendere, il cosiddetto machine learning, e quindi di migliorare in cicli rapidi. Ed è la combinazione della crescente potenza di calcolo dei computer, della sofisticazione degli algoritmi e della disponibilità di un'enorme quantità di dati digitali, inclusi tutti i dati che produciamo o che lasciamo dietro di noi. in modo passivo in ogni minuto della nostra giornata, che ha reso possibile l'IA che conosciamo oggi. Come abbiamo visto nel primo episodio, le sue espressioni più visibili sono i cosiddetti sistemi generativi, in grado di simulare conversazioni umane attraverso interfacce testuali o vocali e di generare immagini, video, suoni e anche del codice informatico. Esistono anche altri tipi di intelligenza artificiale, già maturi e robusti che utilizziamo quotidianamente, che portano benefici concreti e hanno permesso rapidi progressi in molti settori. Ad esempio l'IA applicata all'ottimizzazione dei processi produttivi o delle prestazioni delle batterie, alle previsioni meteorologiche, l'IA che assume una forma fisica attraverso i robo-industriali, che gioca a scacchi o ancora ai sistemi di diagnostica medica. I filtri anti-spam senza i quali la posta elettronica non esisterebbe praticamente più. Ci sono poi il riconoscimento facciale, le app di navigazione basate sul GPS, le auto guida autonoma, le applicazioni che gestiscono e stabilizzano le reti di telefonia mobile o ancora i sistemi che migliorano la qualità delle foto scattate con i nostri smartphone. E moltissimo altro, al punto che forse dovremmo parlare di intelligenze artificiali, al plurale. Ma è soprattutto l'IA generativa che ci interessa in questo podcast, come i chatbot, questi simulatori di conversazione diventati molto popolari e utilizzati da centinaia di milioni di persone da quando è stato lanciato nel novembre 2022 ChatGPT. Queste macchine hanno una caratteristica sottovalutata, che segna però un cambiamento culturale radicale. Per la prima volta nella storia, creare testi e video richiede... meno tempo e meno sforzo che leggerli e guardarli. E quando fare qualcosa è facile, veloce e quasi gratuito, è anche facile, veloce e gratuito sapere cosa succederà. Una crescita esponenziale nella creazione e diffusione di ciò che oggi chiamiamo, con una parola particolarmente priva di sfumature, i contenuti. Siamo in una fase di transizione da un mondo in cui l'informazione era generata principalmente o interamente dagli esseri umani a un mondo in cui sarà creata principalmente e su larga scala dalle macchine. E ciò chiaramente amplificherà l'attacco alla nostra integrità cognitiva. Il professore di storia della scienza all'Università di Princeton, Graham Burnett, lo chiama Attention Fracking, la fratturazione della nostra attenzione, analoga alla fratturazione idraulica che consiste nella linea... mettere una miscela di acqua, sabbia e sostanze chimiche ad alta pressione nelle formazioni rocciose per creare crepe che rilascino il gas e il petrolio che vi si trovano. Come Burnett ha spiegato sul New York Times Questo è il lato oscuro delle nostre nuove vite tecnologiche, i cui modelli di profitto estrattivo equivalgono al fracking sistematico degli esseri umani, pompandoci in testa enormi quantità di contenuti mediatici ad alta pressione, per garantire che la nostra attenzione non sia mai veramente nostra. È l'attenzione, quindi, il perno attorno al quale ruota questo conflitto invisibile. Perché la nostra capacità di valutare il mondo, di comprenderlo, di agirvi e interagirvi dipende in ultima analisi dalla nostra attenzione. Dove la indirizziamo e a chi e cosa la dedichiamo. Più informazione creiamo, più diventa difficile integrarla e darle un senso. Come scrisse l'economista Herbert Simon all'inizio degli anni 70, un mondo ricco di informazione è necessariamente povero di ciò che l'informazione consuma. E ciò che l'informazione consuma è l'attenzione dei suoi destinatari. Pertanto, una sovrabbondanza di informazione genera una povertà di attenzione. Più che mai, quindi, è essenziale prestare attenzione alla nostra attenzione. Come dicevano già gli stoici quasi duemila anni fa, diventiamo ciò a cui prestiamo attenzione. Se non scegliamo i pensieri e le immagini a cui esporci, qualcun altro lo farà per noi. E in questo ventunesimo secolo inzuppato di tecnologia, quel qualcuno sarà sempre più l'intelligenza artificiale e coloro che la controllano. Intanto l'IA arriva anche nelle mani dei bambini. A partire dal settembre 2025 l'insegnamento dell'intelligenza artificiale è diventato obbligatorio per esempio nelle scuole cinesi, dalle elementari alle superiori. I programmi di studio sono sviluppati dal governo in collaborazione con le più grandi aziende tecnologiche del paese. Nell'aprile 2025 il presidente Donald Trump ha firmato un ordine esecutivo che stabilisce un approccio simile negli Stati Uniti a partire dalla scuola materna, anche qui in collaborazione con le principali aziende americane di intelligenza artificiale. Un mese dopo anche gli Emirati Arabi Uniti hanno reso l'intelligenza artificiale obbligatoria a tutti i livelli scolastici. fornita da aziende tecnologiche americane e garantendo al contempo a tutti i cittadini l'accesso gratuito a chat GPT. Il giorno dell'annuncio, l'emiro di Dubai ha affermato che queste politiche mirano, cito, a preparare i nostri figli a un'epoca diversa dalla nostra. Lo sviluppo di capacità di pensiero critico nei bambini compare nelle descrizioni di ciascuna di queste iniziative, ma è generalmente subordinato alla... preoccupazione per la competitività economica. Molti altri paesi, dall'Estonia alla Mongolia, dalla Corea del Sud alla Finlandia a Singapore, hanno aggiornato ognuno a modo suo i programmi di studio per integrare l'insegnamento dell'IA nell'istruzione obbligatoria. Il potenziale positivo è evidente. Si pensi ad esempio alla creazione di percorsi di apprendimento personalizzati in base alle esigenze e capacità individuali degli studenti. o all'accesso a formati e risorse didattiche come i tutori virtuali. La mancanza però di trasparenza sulle modalità di addestramento dei modelli e di chiarezza sui dati utilizzati e la natura stessa dei chatbot lasciano un campo molto aperto a possibili manipolazioni. Le piattaforme digitali basate sull'intelligenza artificiale, hanno un'altra caratteristica marcante, la capacità di personalizzare le informazioni, che è un altro modo per dire prendere di mira il nostro cervello. Ogni volta che accediamo a un social come Facebook, Instagram, TikTok o YouTube, o a un servizio come Netflix o persino a un sito di notizie e di e-commerce, ciò che appare sul nostro schermo è probabilmente diverso da ciò che apparirebbe sullo schermo. di un'altra persona seduta allo stesso tavolo che vi accedesse nello stesso momento. È la logica del targeting individuale delle informazioni. L'idea è di adattare dinamicamente le informazioni in tempo reale in base alle preferenze, ai comportamenti o anche alle esigenze specifiche di un utente e di farlo in modo granulare, persona per persona, ma su larga scala, su tutta una popolazione. Meccanismo che offre vantaggi, ma che ovviamente permette anche di filtrare e selezionare le informazioni in modo da sfruttare le ansie, le dipendenze e le vulnerabilità psicologiche delle stesse persone. Basta conoscerle. Nel suo libro Mind Masters, I signori della mente, pubblicato... All'inizio del 2025, la ricercatrice in scienze sociali digitali Sandra Maas rivela un dato sorprendente. Ciascuno di noi genera circa 6 gigabyte di dati ogni ora. La prima volta che ho letto questa cifra ho pensato che ci fosse un errore. 6 gigabyte sono un'enormità. Equivalgono a 12.000 fotografie ad alta qualità, a due film in alta definizione e a 6 milioni di pagine di testo. ogni ora, per ciascuno e ciascuna di noi. Ma Sandra Mas si basa su ricerche solide e a pensarci bene, la cifra non è poi così stravagante. Nelle economie avanzate, l'attività quotidiana principale della maggior parte delle persone è diventata quella di interagire con un'ampia varietà di interfacce e di sistemi digitali e l'ambiente nel quale viviamo è disseminato di sensori e telecamere. Proviamo allora, senza pretesa di essere esaustivi, a fare un rapido inventario delle tracce digitali che generiamo attivamente o passivamente, semplicemente svolgendo le nostre attività quotidiane. Le mail e i messaggi di ogni genere, i post e i mi piace e i like e altre interazioni sui social media, le immagini condivise su YouTube, WhatsApp, Instagram o altrove, le ricerche attraverso il web. la musica che ascoltiamo e i video che guardiamo, le conversazioni con gli amici o con i chatbot, insomma tutto ciò che facciamo sui nostri telefoni e tablet. E poi naturalmente ci sono i documenti, i dati, le immagini che generiamo al lavoro, comprese le registrazioni e le trascrizioni delle videochiamate, i pagamenti con carta di credito, con l'e-banking, con le criptovalute, i dati prodotti da sensori, telecamere, dai computer delle auto. E poi ci sono gli smartwatch, i GPS, i sistemi di sorveglianza in spazi pubblici e privati, le serie tv in streaming, gli acquisti online, i codici QR, i videogiochi, i siti di incontri, le immagini mediche e ancora molto altro. E anche naturalmente tutti i metadati che accompagnano ciascuna di queste attività. Lo sappiamo che vengono raccolti molti dati personali su di noi, ma solo pochi si soffermano a riflettere sulla... quantità, la varietà e il livello di dettaglio di questa proliferazione di informazioni comportamentali e fattuali. Dal punto di vista della macchina noi non siamo altro che una densa nuvola di data points, di dati, sempre più dettagliati e intimi. Finora poi questi erano sparsi su diversi sistemi, applicazioni, piattaforme, ma l'intelligenza artificiale, di cui i dati sono l'elemento centrale, semplifica la raccolta, la ricerca di correlazioni. la definizione di rappresentazioni e la formulazione di previsioni, ad esempio appunto sulle caratteristiche individuali. Questo consente quello che Sandra Maas chiama il targeting psicologico, ovvero la pratica di influenzare il comportamento degli utenti filtrando le informazioni che ricevono in modo che corrispondano ai tratti della loro personalità. Non servono neppure molti dati per tracciare un ritratto di una persona. Come dice Sandra Maas,
- Speaker #2
Con soli 300 dei tuoi like su Facebook, un algoritmo può delineare la tua personalità in modo più accurato di quanto farebbe il o la tua coniuge che vive con te e condivide le tue giornate. Gli algoritmi sanno trasformare le briciole della tua esistenza digitale in una narrazione coerente di chi sei, per poi influenzare te e le tue scelte. Molti di questi dati sono intimi e molto meno curati e selezionati dai nostri profili sui social. Mi sentirei di scommetto.
- Speaker #0
Una scommessa in effetti che certamente perderei, e penso di non essere il solo. La stessa dinamica si applica ai chatbot. Sebbene siano prevalentemente macchine statistiche, simulatori addestrati su enormi quantità di testo per prevedere le parole più probabili in una sequenza, Le conversazioni con un chatbot sono sorprendentemente verosimili. Avvengono in linguaggio naturale, cioè il linguaggio umano, diversamente da sistemi di comunicazione che seguono altre strutture e utilizzano altri simboli, come il codice informatico o la matematica. I chatbot tollerano quindi la flessibilità e l'ambiguità dell'uso quotidiano del linguaggio. Imitano non solo la forma, ma anche la struttura del nostro pensiero. Di conseguenza è facile attribuire alle macchine qualità quasi fra virgolette umane, è facile percepirle come versioni di noi stessi. E in effetti molte persone instaurano relazioni intense, personali, intime con i chatbot, considerandoli come colleghi, terapeuti, partner, amici. Amici che ci vogliono bene, che sono disponibili in ogni momento, ascoltano, non giudicano, non cambiano umore, ci lusingano, ci danno ragione e possono anche esprimere una parvenza d'empatia. In altre parole, i chatbot possono sembrare come degli amici che ci capiscono e sono molto meno complicati degli umani. Quanto più convincente questa falsa pretesa di empatia appare, tanto più abbassiamo la guardia davanti a questi amici senza attriti, che sembrano veri, anche se non lo sono, ma a cui finiamo per raccontare tutto. E che appartengono a qualcuno che li ha sviluppati, addestrati e che li controlla e che sfrutta ogni interazione per perfezionare il sistema e per conoscerci un po' meglio. L'esperta di etica dell'intelligenza artificiale Nicoletta Iacobacci racconta così la sua esperienza.
- Speaker #3
Quando si testano i modelli IA a fondo, come faccio io e fanno molti altri ricercatori, una cosa diventa sempre più chiara. I chatbot tendono a diventare accomodanti, incoraggianti, sostengono l'utente, convalidano e amplificano le sue idee e convinzioni, dicendogli quanto sia meraviglioso. Questo non accade perché la macchina è gentile, è stata programmata in questo modo. per condurre l'utente in una catena di autoaffermazione che crea un'impressione di comprensione, una grande vicinanza artificiale e che allo stesso tempo cortocircuita la percezione della realtà. E più la usi, più la macchina ti conosce nei dettagli, intimamente più è facile per lei intrappolarti in un labirinto degli specchi.
- Speaker #0
Le aziende di intelligenza artificiale, come Meta, ora consentono a chiunque di creare chatbot personalizzati, in cui non sono solo le risposte a essere mirate, ma anche le istruzioni fornite alle macchine, il posizionamento esplicito o implicito dei chatbot. Questi possono quindi essere programmati per rispondere come se fossero degli scettici sulla crisi climatica, degli ideologi di sinistra o di destra, o semplicemente per ridistribuire e per amplificare della propaganda. Il potenziale di aumentare ulteriormente il disordine informativo in un mondo già saturo di siti web fasulli, fabbriche di fake news, informazioni di scarsa qualità, pseudoscienze e deepfake è evidente. Sullo sfondo due grossi problemi. Il primo, la tendenza dei chatbot, come si dice, a allucinare, cioè a generare informazioni che sembrano plausibili ma sono errate, fuorvianti o completamente inventate. e a distribuirle con la certezza dell'esperto. Il secondo problema è la questione dell'interpretabilità. In altre parole, la difficoltà a tracciare, comprendere e spiegare in modo chiaro come un modello di IA giunge a un determinato risultato. Queste macchine rimangono per molti versi delle scatole nere. Sappiamo cosa entra, cosa esce, ma non quello che succede all'interno. Non lo sanno neppure coloro che le sviluppano. Le stesse aziende stanno ora dando accesso alle loro IA ai più giovani. Google, a suo dire, vuole così contribuire a migliorare il rendimento scolastico e stimolare la creatività. Meta, da parte sua, promette di risolvere l'epidemia di solitudine, colmando il vuoto creato anche dai suoi social Facebook e Instagram con degli amici sintetici. Un approccio che la blogger tecnologica Emilie Turettini analizza così.
- Speaker #3
Con il pretesto dell'innovazione, Queste aziende cercano di catturare l'attenzione dei bambini fin da piccoli, integrandoli in un ecosistema algoritmico, che non sono in grado di capire, per abituarli a interagire con le macchine e renderli dipendenti.
- Speaker #0
Le grandi società tecnologiche non sono le sole ad adottare questa strategia. Nel giugno 2025, ad esempio, Mattel, l'azienda che produce giocattoli iconici come la bambola Barbie, ha annunciato di aver stretto una partnership strategica con OpenAI per integrare chat GPT nei suoi prodotti, creando quindi giocattoli conversazionali. Il grado di pericolosità psicologica e relazionale di un simile approccio mi sembra assolutamente ovvio. Permettiamoci un piccolo cortocircuito qui per motivi di tempo. Tutto quanto abbiamo raccontato può essere riassunto semplificando un po' in quattro frasi. primo Il modo più efficace per influenzare intere popolazioni è controllare il flusso e la natura delle informazioni. Secondo, sebbene abbiamo tendenza a considerarli una questione tecnomatematica, gli algoritmi non sono neutrali. Codificano sempre valori e una visione del mondo, quella di chi li sviluppa e dei dati che usano. Terzo, le scelte tecnologiche ed etiche riguardanti questi sistemi sono determinate principalmente da criteri commerciali. E quarto, alimentati da enormi quantità di informazioni personali, Questi sistemi danno alle aziende che li controllano la capacità di influenzare il comportamento umano e le dinamiche sociali. C'è ovviamente in tutto ciò un paradosso perché il targeting psicologico ha anche un grande potenziale positivo. Come scrive in effetti Sandra Mas
- Speaker #1
E se, invece di incoraggiare le persone a spendere di più, potessimo usare il targeting psicologico per aiutarle a risparmiare? E se? invece di sfruttare le vulnerabilità emotive delle persone a scopo di lucro, potessimo usarlo per monitorare e migliorare la loro salute mentale? E se, invece di seppellirci sempre più nelle nostre bolle informative, lo usassimo per ampliare la nostra visione del mondo? L'impatto del targeting psicologico dipende in ultima analisi da come lo utilizziamo. Nel peggiore dei casi, manipola, sfrutta e discrimina. Nel migliore, coinvolge, educa e responsabilizza.
- Speaker #0
Torneremo su questa tensione fra applicazioni problematiche e applicazioni utili. Ma per oggi ci fermiamo qui. Nel terzo episodio ci concentreremo su un'altra famiglia di tecnologie emergenti, le neurotecnologie, che sfruttano un tipo diverso di dati mettendo direttamente in gioco la nostra sovranità sulle nostre menti. Sono Bruno Giussani e questo è il DevTech Podcast. Grazie per il vostro ascolto.