Intervista a Guido Scorza, componente del Garante per la protezione dei dati personali
(di Damiano D’Agostino, Il Messaggero, 19 giugno 2025)
Ciò che dicono le big tech sulla prossima sparizione della cultura europea dai modelli di intelligenza artificiale è un’affermazione «potenzialmente vera». A dirlo è il giurista Guido Scorza, componente del collegio del Garante della privacy. «Bisogna però capire se al fine di garantire questa continuità culturale serva raccogliere dati indiscriminatamente», dice l’avvocato. «O si può immaginare – sottolinea l’esperto, membro del collegio dell’Autorità – di costruire la tecnologia in maniera tale da scongiurare il pericolo di egemonie culturali algoritmiche, rispettando soprattutto i diritti».
Scorza, quindi ritiene che ci sia un fondo di verità in tutta questa storia legata allo sviluppo dell’intelligenza artificiale?
«Quella “profezia” l’ho sentita ripetere con una certa frequenza dalle grandi aziende, non vorrei che ci trovassimo davanti a una sorta di ricatto tecnologico».
In che senso?
«Personalmente non ho niente in contrario che dentro la pancia di un modello di IA ci siano anche modi di dire europei. Mi preoccupo se insieme a quei modi di dire ci finiscono dati sensibili di persone che vivono in Europa. Sembra che stiano dicendo: “Se vuoi che ci sia anche la cultura europea allora lasciaci fare senza freni”».
Si tratta, quindi, di una battaglia tra la tecnologia e le regole?
«Esatto. Il loro punto di vista è: “Noi abbiamo la tecnologia bella e tu le regole meno belle”. Se tutti ragionassero così l’ordinamento più diffuso invece della democrazia sarebbe l’algocrazia, no? Il governo degli algoritmi e il dominio della regola tecnologica rispetto alla regola uscita dalle istituzioni democratiche. E già adesso gran parte del nostro vivere quotidiano è veicolato da algoritmi».
A questo proposito, il quadro globale vede una forte influenza da Cina e Stati Uniti nel mondo delle IA.
«L’obiettivo infatti è nobilissimo. In un momento come questo prendiamo atto dell’adozione plebiscitaria dell’IA generativa di produzione Usa e cinese. È il minimo sindacale preoccuparsi che non finiscano con il creare un pensiero unico. Ma se alla fine succederà tutto questo non si dica che è colpa nostra e che le nostre regole hanno impedito loro di fare altrimenti. Perché, comunque, i dati europei li hanno nei loro dataset».
Davvero?
«Questi modelli sono stati addestrati su dati storici di internet in cui c’era anche l’Europa. Poi, l’antropocentrismo e il diritto fondamentale fanno parte della nostra cultura. Quindi non è chiaro come prenda forma questa preoccupazione. Stanno forse dicendo che è difficile contemperare un obiettivo di business con il rispetto della cultura e dei diritti? Allora forse in fase di creazione bisognava porsi il problema e inserirlo come vincolo di sviluppo».
Parlare di cultura europea è quindi strano?
«Non è chiarissimo cosa si intenda con quella parola. Ci sono lingue dell’Unione che saranno sempre poco rappresentate poiché parlate da poche persone. Il finlandese, ad esempio. Poi i modi di dire cambiano dall’Italia alla Francia e dalla Germania alla Spagna. Tutto ciò suona davvero come un piccolo ricatto per via delle nostre regole sulla privacy».