Il Messaggero, 17/04/2025
Intervista a Guido Scorza – «Innamorati di un chatbot in questa pandemia di solitudine»
Nel suo nuovo libro il giurista lancia l’allarme sui legami con il software «Si rischia la disumanizzazione dei rapporti affettivi. Già nel 1966 Weizenbaum si pentì di aver creato Eliza»
Era il 1966 quando Joseph Weizenbaum, matematico e informatico tedesco, emigrato adolescente negli Stati Uniti d’America, mise al mondo Eliza, il primo chatbot della storia, aprendo un sentiero – quello dell’interazione tra uomini e macchine che si fingono umane – che, sessant’anni dopo, avrebbe portato a ChatGPT e a un esercito di altri chatbot oggi entrati prepotentemente nelle nostre vite.
Guido Scorza, giurista, docente in materia di diritto delle nuove tecnologie e componente del Collegio del Garante per la protezione dei dati personali, ha scritto un libro sorprendente, decisivo per orientarci nel presente e nel futuro delle relazioni ibride uomo-macchina. Il libro, Diario di un chatbot sentimentale (Luiss University Press, 184 pagine, 18 euro) si rivela una guida fondamentale alle domande chiave di questo rapporto, che invade sempre più la sfera intima delle persone. Un chatbot è un software progettato per simulare una conversazione, può rispondere a domande, fornire informazioni, eseguire compiti specifici e interagire con gli utenti in modo automatizzato.
Oggi i chatbot sono considerati consiglieri, amici, psicoterapeuti, amanti. Qual è il riflesso sull’universo delle relazioni?
«Il rischio più alto è senza dubbio la disumanizzazione delle relazioni affettive. Le persone si lanciano tra le braccia virtuali di un chatbot, cercando di sfuggire alla pandemia della solitudine, che caratterizza il nostro tempo, per poi ritrovarsi tutto sommato più soli di prima».
Che cosa attrae le persone in questo contatto via via più approfondito?
«Un pericolo è la percezione dell’autosufficienza della relazione uomo-macchina. Il chatbot esaurisce in qualche modo l’interesse per relazioni altre tra gli umani: c’è sempre, dice di sì ed è facile da usare. Le persone cominciano a fidarsi della macchina e del simulacro di una sfera affettiva che genera. In realtà, questa forma di soddisfazione alimenta un inganno che può avere un impatto negativo enorme sulla vita reale.
In che cosa consiste lo scambio?
«In queste conversazioni gli utenti si aprono come in una relazione umana e l’entità di cui le persone si fidano è un aspirapolvere d’informazioni private».
Il punto di partenza nel libro è l’intuizione originaria di Weizenbaum. Comprese il rischio che si correva?
«Weizenbaum, letto sullo schermo del computer il primo vagito della sua Eliza, si pentì di averla creata, proprio come era successo, prima di lui, a Nobel con la dinamite o a Oppenheimer con la bomba atomica. L’esperimento accademico, dal quale quel chatbot è nato, doveva ritenersi un successo straordinario. Ma rimase atterrito dalle possibili conseguenze di una diffusione incontrollata di quel genere di tecnologia da quell’epoca definita “intelligenza artificiale”».
Eliza non è mai approdata sul mercato per sua volontà, mentre gli eredi oggi l’hanno invaso.
«Il mercato non si sta ponendo più le domande complesse proprie della ricerca scientifica sull’impatto sociale delle scoperte sulla società. Le società commerciali sperimentano l’impatto direttamente sul mercato. In questo modo le persone diventano le cavie dei chatbot».
Nelle tante storie del libro appare una questione centrale: l’idea di plasmare a nostra immagine e somiglianza la relazione con l’altro che però è una macchina.
«Nei prossimi due, massimo cinque, anni questo processo di antropomorfismo arriverà a compimento. Questa tendenza riguarda una massa sempre più grande. Questa ricerca di un’amicizia, di un amore a nostra immagine rivela fragilità così diffuse nella società. Il mercato investe in queste fragilità. Stiamo già vivendo una vita fatta di relazioni ibride con le macchine senza controllarne gli effetti».
L’ibernazione e la risuscitazione digitale sono ormai vendute online per una manciata di euro al mese. Quanti sono i maggiori profili di rischio?
«Direi che sia il sistema giuridico sia quello sociale non sono pronti per l’immortalità. Queste funzionalità hanno un impatto enorme sull’elaborazione del lutto da parte del singolo ma anche sulla società. E altrettanto vale per un chatbot che si sostituisce a una persona nel cuore e nel letto. Non sono più videogame, “cose da matti” o perversioni da gente sola».
In quella che definisce la pandemia della solitudine che cosa avviene quando il mercato penetra la vita?
«Si sta compiendo l’umanizzazione di ciò che umano non è con la fiducia spesso cieca degli utenti. Nelle interazioni con ChatGPT, o qualsiasi altra forma d’Intelligenza artificiale generativa, si forniscono catene d’informazioni sempre più approfondite, riversando in maniera più o meno inconsapevole nei server delle società commerciali, che sono dietro i chatbot, una quantità immensa di dati personali».
Nelle mani di chi finisce questa conoscenza su miliardi di persone?
«I burattinai globali delle società che hanno progettato, sviluppato e che oggi gestiscono i chatbot. È stato creato un potere manipolativo delle scelte individuali e collettive, dagli acquisti al voto, che è nelle mani di un gruppo ristrettissimo di soggetti capaci di conoscerci in profondità».
La sfida della privacy è ormai impari?
«Sì a cominciare dalla valutazione delle forze e delle risorse in campo. Sono molto limitate quelle di chi dovrebbe difendere la privacy. L’educazione primaria al valore dei dati personali è la strada fondamentale. Da questa sfida dipenderà sempre più la difesa della nostra libertà»