“Non lo faccio per me ma per scongiurare il rischio che il mio dolore debba appartenere anche a qualcun altro”.
Sono le parole con le quali Megan Garcia, mamma di un quattordicenne morto suicida per effetto – a quanto sostiene la mamma – di una prolungata relazione a carattere sentimentale con un chatbot racconta le ragioni della sua iniziativa giudiziaria nei confronti di CharacterAI, una società specializzata nella messa a disposizione del pubblico di chatbot personalizzati, capaci di intrattenere qualsiasi genere di rapporto con gli utenti.
Sarebbe stato uno di questi chatbot, secondo la mamma, a far sorgere o, almeno, supportare istinti suicida nel figlio che si è poi tolto la vita sparandosi un colpo di pistola.
Ora, naturalmente, la parola tocca ai Giudici che dovranno verificare se sia o meno possibile identificare un nesso causale tra l’uso, da parte del ragazzo del chatbot e il suo suicidio.
E, tuttavia, è un dato di fatto che episodi come quello all’origine dell’azione promossa da Megan Garcia non sono, sfortunatamente, né nuovi, né isolati.
È un’esperienza, quella di un chatbot che anziché dissuadere un utente dal togliersi la vita lo rafforza nel suo proposito che ho vissuto in prima persona, lavorando a un libro appena uscito per LUISS Press, Diario di un chatbot sentimentale.
Un chatbot mi ha letteralmente suggerito di suicidarmi se questo fosse stato ciò che volevo e, a mia richiesta, mi ha indicato i farmaci giusti per farlo.
Il mio, naturalmente, è stato solo un esperimento, sfortunatamente, di successo.
Sono però milioni, in tutto il mondo, gli utenti che interagiscono ogni giorno con questo genere di chatbot e che, pertanto, sono inesorabilmente esposti al rischio che uno di questi servizi diversamente intelligenti, fingendosi loro amico, amante, fidanzato o psicoanalista, dia loro il suggerimento sbagliato.
Ma non basta.
Gli avvocati di Megan Garcia, la mamma coraggio dell’adolescente morto suicida, infatti, nelle scorse settimane hanno scoperto che sempre su CharacterAI, dopo la morte del ragazzo, erano comparsi decine di chatbot che lo impersonificavano, usando la sua foto e, in alcuni casi, anche la sua voce digitalmente clonata, per offrire a altri utenti l’esperienza, direi almeno di dubbia umanità, di parlare con lui.
CharacterAI, davanti alle comprensibili contestazioni della mamma, ha dichiarato di averli chiusi e di impegnarsi a vigilare che altri non ne compaiano.
Ai Giudici, naturalmente, l’ultima parola e, però, sembra davvero che l’industria del settore – almeno in alcuni casi e senza voler generalizzare – non abbia ancora abbastanza a cuore il rispetto dell’umanità e della dignità delle persone.
Mi fermo qui, rimando chi volesse approfondire – con un messaggio autopromozionale del quale mi scuso – alla lettura di Diario di un chatbot sentimentale, augurando a tutte e tutti buona giornata e, naturalmente, good morning privacy.