OpenAI ha lanciato il controllo parentale, ma la questione sicurezza, minori e AI è ben più complicata.
Giulia Cimpanelli – 06/10/2025
OpenAI ha annunciato il lancio di controlli parentali per ChatGPT. Una notizia che sembrerebbe rispondere alle crescenti preoccupazioni sulla sicurezza dei minori online. Ma è davvero così? O siamo di fronte all’ennesima soluzione tecnologica che promette sicurezza senza affrontare i nodi strutturali del problema? La coincidenza temporale tra l’annuncio di OpenAI e l’entrata in vigore, il 10 ottobre, della legge italiana sull’intelligenza artificiale – che impone il consenso dei genitori per l’accesso dei minori di 14 anni alle tecnologie di IA – non è casuale. È il sintomo di un’urgenza che non può più essere ignorata: quella di regolamentare un mondo digitale che sta plasmando una generazione senza che nessuno sappia davvero come.
Il miraggio del controllo genitoriale
I nuovi controlli parentali di OpenAI permettono ai genitori di collegare il proprio account a quello dei figli, personalizzando le impostazioni: si può disattivare la memoria, impedire la generazione di immagini, escludere le conversazioni dall’addestramento dei modelli, persino impostare “orari di pausa”. Sulla carta, un arsenale di protezioni. Nella pratica? Le cose si complicano. “Il parental control dovrebbe avere un presupposto per essere considerato prezioso – spiega Guido Scorza, componente del Garante per la protezione dei dati personali -: il fornitore del servizio dovrebbe effettivamente essere in grado di accertare l’età, ma la stessa OpenAI nel comunicato ammette di non essere pronta“. È qui il cortocircuito: fino a quando un tredicenne potrà semplicemente dichiarare di averne quindici, il parental control resta un castello di carte. “Fino a quando non si è in grado di determinare con ragionevole certezza l’età del minore ce ne facciamo poco”, continua Scorza. Ma c’è un secondo problema, forse ancora più insidioso: “Il parental control funziona in maniera direttamente proporzionata al livello di alfabetizzazione digitale del genitore. Se il genitore è analfabeta digitale – condizione che in Italia riguarda il 50% della popolazione, siamo terzi ultimi in Europa – evidentemente non sarà in grado di fare un granché con il parental control perché banalmente non è in grado di apprezzare il rischio”.
È un dato che dovrebbe far riflettere: secondo il dossier “Il bambino al centro” (Telefono Azzurro e BVA Doxa, 2025), il 26% dei genitori italiani ritiene di non avere adeguate competenze sui pericoli online. Come possono queste famiglie configurare efficacemente protezioni che richiedono una comprensione profonda delle dinamiche digitali?
Una legge che naviga a vista
La nuova legge italiana sull’IA introduce una distinzione: sotto i 14 anni serve il consenso dei genitori, tra i 14 e i 18 quello dell’adolescente. Un tentativo lodevole di conciliare protezione e autodeterminazione progressiva del minore. Ma come si traduce nella pratica? “Non saprei proprio come fa Paolo, infra quattordicenne, che voglia usare ChatGPT – osserva sarcastico Scorza con lucidità, a procurarsi un consenso di due adulti, dimostrando al fornitore dei servizi che quei due adulti sono i suoi genitori. Non so se stiamo pensando di aprire l’anagrafe ai fornitori di servizi tecnologici”. È un interrogativo che la norma, entrata in Gazzetta Ufficiale il 23 settembre, lascia sostanzialmente aperto. Questa distinzione rappresenta un tentativo di conciliare il principio di autodeterminazione progressiva del minore con l’obbligo costituzionale di protezione dell’infanzia. Ma l’intenzione del legislatore si scontra con la realtà tecnologica: senza sistemi affidabili di verifica dell’età, la norma rischia di rimanere lettera morta.
I chatbot: quando l’amicizia artificiale diventa pericolosa
Se c’è un ambito in cui l’urgenza di intervento è massima, è quello dei chatbot conversazionali. Nelle ultime settimane, l’audizione davanti al Senato americano dei genitori di vittime legate all’uso di chatbot ha portato alla luce una realtà agghiacciante: ragazzi che sviluppano relazioni ossessive con compagni digitali, che trovano in questi “amici” artificiali un’intimità che li allontana dal mondo reale, con conseguenze talvolta tragiche.
“Il chatbot è conversazionale, ChatGPT, ma ancor di più quelli verticali, in stile Replica, in stile Chai, in stile Character AI – i companion, quelli che si propongono per essere gli amici dei nostri figli – hanno dimostrato negli ultimi mesi degli aspetti di enorme pericolosità per il minore, complice quel rapporto di fiducia tra uomo e macchina che viene a crearsi”, afferma Scorza senza mezzi termini. La sua posizione è netta: “Lì ho una posizione molto radicale: quel chatbot oggi non dovrebbe essere utilizzabile dal minore”. Come? “Lo strumento di age verification oggettivamente esiste, cioè la verifica di terza parte. Io vado da un soggetto terzo, fornisco le informazioni necessarie perché quel fornitore sia in condizione di accertare non la mia identità ma la mia età, e una volta accertata in maniera forte, di dichiarare all’OpenAI di turno che io ho più dell’età minima necessaria”.
È un’analogia efficace quella che usa Scorza: è come far salire un bambino più basso di 90 centimetri sulle montagne russe le cui cinture sono progettate per chi è più alto. La sicurezza non è garantita, non può esserlo. OpenAI stessa, nel suo comunicato, introduce un sistema di notifiche per avvertire i genitori quando un adolescente si rivolge a ChatGPT “in momenti difficili”. Ma è sufficiente? O non è piuttosto l’ammissione implicita che questi strumenti possono diventare confessori digitali di fragilità che andrebbero intercettate da persone in carne e ossa?
“Grazie per aver pensato al Parental control, ma troppo tardi – incalza Ivano Zoppi, segretario generale di Fondazione Carolina – i ragazzi la usano già e non solo per fare i compiti. La usano per fare video, modificarli e creare contenuti, spesso su altre persone e considerando lo stato di solitudine in cui vivono molti adolescenti e il fatto che faticano a cercare relazioni la usano anche per creare relazioni, per crearsi la fidanzata, perché l’AI ti dice sempre di sì. Parlavo con un 12enne che mi raccontava di essersi creato la fidanzata: le dico di baciarmi e lei mi bacia, mi spiegava. Dobbiamo capire che il parental control è sì uno strumento ma loro ci sono già dentro e noi genitori dobbiamo ancora imparare a usarlo. Uno specchietto per le allodole, come la faccenda di Instagram under 13: arriviamo tardi a mettere pezze laddove bisognava costruire in maniera differente. E la vera domanda è: abbiamo davvero a cuore la tutela dei minori online? Perché prima apriamo i cancelli e poi cerchiamo di mettere le barriere?”.
Verso un’IA a misura di bambino
Le raccomandazioni internazionali convergono su alcuni punti fermi. La quarta Tavola Rotonda del G7 sulla protezione dei dati, tenutasi a Roma nell’ottobre 2024, ha indicato la strada: progettare sistemi IA secondo il principio “child by design”, effettuare valutazioni d’impatto sistematiche sui diritti dei minori, vietare tecniche persuasive e meccanismi di dipendenza, promuovere l’alfabetizzazione digitale.
L’Unicef, nella sua “Policy guidance on AI for children 2.0”, pone l’accento su un aspetto cruciale: l’equità dei dati. I sistemi di IA vengono addestrati prevalentemente su dati relativi agli adulti, con rischi sconosciuti per i bambini. Servono dataset che includano bambini di diverse età, regioni, condizioni socioeconomiche ed etnie. E servono algoritmi continuamente testati per garantire equità dei risultati, perché non esiste una definizione tecnica unica di equità in grado di prevenire ogni forma di bias. Come sottolinea Padre Paolo Benanti, presidente della Commissione IA per l’informazione, “la sfida è prima di tutto educativa: occorre accompagnare bambini e adolescenti nella comprensione critica degli strumenti digitali, rafforzare la consapevolezza delle famiglie e riorientare le piattaforme verso usi che non sfruttino le fragilità emotive”.
Oltre l’illusione tecnologica
I controlli parentali di OpenAI sono un passo avanti? Forse. Ma rischiano di essere l’ennesima illusione tecnologica: la convinzione che basti uno strumento per risolvere un problema che è culturale, educativo, strutturale. Il punto è questo: non possiamo delegare alla tecnologia la soluzione di problemi che la tecnologia stessa ha creato. Non possiamo pensare che un algoritmo, per quanto sofisticato, possa sostituire la presenza, l’attenzione, il dialogo. I nostri figli crescono in un mondo digitale che noi adulti fatichiamo a comprendere. Il 96% dei minori tra i 12 e i 18 anni usa lo smartphone, il 49% supera le quattro ore quotidiane di utilizzo. Le loro preoccupazioni principali? Fake news, privacy, cyberbullismo, grooming.
I controlli parentali di OpenAI sono benvenuti, certo. Ma non ci facciamo illusioni: senza verifica dell’età, senza alfabetizzazione digitale di massa, senza una regolamentazione seria e un cambio di paradigma culturale, resteranno poco più che un contentino.
L’intelligenza artificiale e i minori: tra protezione e illusione di controllo