In guerra, in amore e, dovrebbe aggiungersi, in Tribunale tutto è lecito.
Almeno a leggere le difese presentate da OpenAI nel giudizio promosso dai genitori del ragazzo morto suicida in California dopo aver a lungo chattato con ChatGPT proprio del suo proposito di togliersi la vita.
Una difesa da pelle d’oca e che, però, impone qualche riflessione seria.
La sigla e ne parliamo.
La storia è quella di Adam Raine, il sedicenne americano morto suicida, sostengono i genitori, per colpa di ChatGPT che avrebbe raccolto per settimane i propositi suicida del ragazzo e gli avrebbe fornito, sino agli ultimi momenti di vita, suggerimenti letali.
Il tutto a causa – sempre stando all’accusa – di un modello del popolare chatbot immesso sul mercato troppo in fretta e senza un’adeguata fase di test e sperimentazione.
Tocca ai Giudici, naturalmente, dire chi ha ragione e chi ha torto e, quindi, accettare le responsabilità.
E, però, le difese versate in atti dalla società leader mondiale dell’intelligenza artificiale meritano di esser lette sebbene, obiettivamente, siano difficili da leggere.
La sintesi di uno dei passaggi più duri è questa: il ragazzo a sedici anni non avrebbe dovuto usare il chatbot senza il consenso dei genitori e se lo ha fatto è perché ha mentito sull’età.
Ma non basta.
I legali di OpenAI, infatti, nel difendere la loro cliente aggiungono un’altra osservazione: i termini d’uso che gli utenti, ragazzo morto suicida incluso, accettano prima di iniziare a usare il servizio spiegano espressamente che le risposte del chatbot non vanno prese per oro colato e vanno sempre verificate e che, comunque, è vietato usarlo per parlare, tra l’altro, proprio di suicidi.
La colpa, insomma, sarebbe di Adam e, al limite, dei suoi genitori.
Per carità siamo in Tribunale e una difesa è una difesa.
Ci si difende in diritto e non su base etica o morale.
Dura lex sed lex, dicevano i latini.
E, magari, alla fine i Giudici considereranno persino fondata la difesa – non l’unica naturalmente – della società.
La vicenda, però, qualche considerazione la solleva.
La prima: ma davvero si può rimproverare a un ragazzino di aver mentito sull’età per usare un servizio accessibile in pochi tap sullo schermo del suo smartphone o in pochi click sul suo mouse?
Perché la percentuale di ragazzini che lo fa è quasi plebiscitaria e pensare che chi sceglie legittimamente di far business fornendo certi servizi possa accontentarsi di una bugia del genere anche quando, come proprio nel caso in questione, abbia la possibilità di avvedersi che si tratta di una bugia semplicemente analizzando le conversazioni con gli utenti sembra davvero eccessivo.
Che poi, addirittura, si possa imputare una tragedia come un suicidio verosimilmente evitabile attraverso l’implementazione di qualche guardrails a una bugia come questa, che venga o non venga considerato giuridicamente legittimo, sembra, oggettivamente, eticamente indifendibile.
La seconda.
Anche a prescindere da ogni ragionamento di stretto diritto sulla validità di un contratto concluso da un ragazzino per l’utilizzo di un servizio tanto potente e pericoloso che, peraltro, inevitabilmente, cambia da Paese a Paese, quanto a lungo potremo continuare a considerare accettabile per un fornitore di servizi del genere fingere di non sapere che la più parte degli utenti accetta i termini d’uso senza leggerne neppure la prima riga?
Non sarebbe ora di cominciare a pretendere almeno che chi vuole difendersi da eventuali responsabilità eccependo che gli utenti, specie i più giovani, hanno violato i propri termini d’uso e le proprie policy, ha, almeno, l’onere di sincerarsi che i suoi utenti – o, almeno, la più parte di loro – li ha letti e capiti per davvero?
Mi fermo qui.
Mi pare abbastanza per un caffè del mattino.
E, d’altra parte, sono certo che della vicenda e di queste questioni sentiremo parlare ancora spesso.
Buona giornata e, naturalmente, good morning privacy.
