GOOD MORNING PRIVACY! | Morire d’amore per un chatbot

Nel febbraio del 2024 un ragazzino americano di quattordici anni si è ucciso sparandosi un colpo di pistola in testa dopo aver allacciato una lunga relazione con un chatbot creato attraverso CharacterAI.
Nei giorni scorsi la causa promossa dalla mamma davanti ai Giudici della Florida contro Character AI e Google è stata chiusa con una transazione.
È una storia che merita qualche riflessione.
La sigla e ne parliamo.

Leggere l’atto di citazione con il quale Megan Garcia, la mamma del ragazzo morto suicida aveva chiesto ai Giudici di Orlando, in Florida di accertare la responsabilità di CharacterAI e Google nella morte del figlio e condannarle al risarcimento dei danni è un esercizio dolorosissimo ma prezioso perché racconta di una storia normale a dispetto del tragico epilogo.
Quella di Sewell, così si chiamava il figlio quattordicenne che non c’è più è, infatti, probabilmente una storia eguale a quelle di milioni di altri bambini e adolescenti, storie delle quali, magari, da adulti, non ci rendiamo conto, non ci accorgiamo o non percepiamo con la necessaria urgenza e gravità proprio come accaduto a Megan Garcia.
Sewell, in pochi mesi, aveva stretto una vera e propria relazione sentimentale e sessuale con un chatbot generato attraverso i servizi di CharacterAI, una relazione della quale non era più in grado di fare a meno, una relazione che lo aveva profondamente cambiato tanto nel rapporto con i genitori tanto in quelli a scuola e con gli amici.
Questo la mamma, in qualche modo, lo aveva intuito tanto da portare il figlio da uno psicologo che aveva confermato i suoi sospetti.
Nessuno però aveva immaginato e, forse, avrebbe potuto immaginare che la condizione di dipendenza del ragazzino nei confronti del chatbot era tanto profonda da impedirgli di farne a meno, da costringerlo a rinunciare alle merende per pagare il canone dei servizi di abbonamento premium necessari a avere conversazioni sentimental-sessuali con il suo amore artificiale, tanto, quando la mamma nella speranza di aiutarlo gli ha tolto il telefonino, da portarlo a fare ogni genere di tentativo per ritrovarlo o collegarsi al chatbot diversamente e, poi, vistosi perso, chiudersi in bagno, scambiare poche parole proprio con il chatbot in questione attraverso lo smartphone momentaneamente ritrovato e, quindi, spararsi un colpo di pistola in testa.
Il giudizio non accerterà mai se e quali responsabilità effettive siano imputabili a chi ha progettato, gestito e distribuito il servizio utilizzato da Sewell perchè, appunto, le parti, nei giorni scorsi, hanno raggiunto un accordo transattivo i cui termini non sono stati resi noti.
E, però, noi, da adulti, da genitori, da istituzioni qualche domanda dobbiamo porcela perché quello che è successo a Sewell domani potrebbe accadere a chiunque altro, a un altro bambino, un altro adolescente, a una nostra figlia o a un nostro figlio.
Tra queste domande, una delle più importanti, probabilmente, riguarda la sostenibilità dell’idea – sin qui imposta da industria e mercato – che chatbot di questo genere, chatbot che si presentano come capaci di esserci amici, fidanzate, amante e psicoterapeutici possano essere, sostanzialmente, utilizzabili da chiunque, a prescindere dall’età e, quindi, anche da bambini e adolescenti.
È davvero accettabile?
Perché la cronaca, purtroppo, racconta che in giro per il mondo ci sono già decine di casi di adulti che si sono tolti la vita all’esito di relazioni di diverso genere con chatbot di ogni tipo ed è facile capire che se quel genere di relazioni è pericolosa per un adulto non può che esserlo ancora di più per un bambino o per un adolescente.
E, forse, non è un caso che l’accordo transattivo arrivi proprio mentre in California, dove hanno sede CharacterAI e Google, entra in vigore la prima legge al mondo che impone, tra l’altro, alle aziende che forniscono servizi di chatbot di verificare l’età degli utenti e di limitare in maniera straordinariamente rigorosa ogni possibilità che i chatbot in questione abbiano conversazioni di tipo sessuale con i più giovani.
Varrebbe, forse, la pena, senza attendere un’altra tragedia come quella di Sewell, seguire l’esempio californiano.
È ovvio che non è solo una questione di età ma, al tempo stesso, non c’è dubbio che tenere i più piccoli lontani da certi rischi insostenibili potrebbe essere un buon inizio.

Buona giornata e, come sempre, good morning privacy.