GOOD MORNING PRIVACY! | L’intelligenza artificiale può costare cara all’avvocato

La tentazione dell’intelligenza artificiale che ci semplifica la vita e ci rende più facile il lavoro è forte, talvolta irresistibile, anche per gli avvocati che, ormai da qualche anno, in tutto il mondo, ne sono grandi utilizzatori.

E questo riguarda, in particolare, l’intelligenza artificiale generativa.
Ma che succede se una di queste intelligenze artificiali propone a un avvocato una memoria piena zeppa di riferimenti sbagliati e l’avvocato la deposita in Tribunale prendendola per buona?
L’errore, secondo un Giudice inglese, rischia di costare caro all’Avvocato.
Sicuramente più a lui che all’intelligenza artificiale.
La sigla e ne parliamo.

Due casi quelli appena decisi da un Giudice dell’Alta Corte dell’Inghilterra e del Galles, due vicende analoghe in cui due avvocati nel predisporre gli atti da depositare in Tribunale a sostegno delle ragioni dei loro clienti per far prima e, magari, anche pensando di far meglio hanno chiesto un aiutino a ChatGPT e altre intelligenze artificiali generative che, ovviamente, non glielo hanno negato.
Peccato solo che gli aiutini si siano rivelati pieni zeppi di riferimenti giurisprudenziali sbagliati perché semplicemente inesistenti o inconferenti rispetto alla questione sul banco del Giudice.
E, soprattutto, peccato che gli avvocati, ricevuti gli aiutini, non ne abbiano verificato l’affidabilità e abbiano, invece, depositato gli atti in Tribunale prendendo per buone le indicazioni dell’intelligenza artificiale.
Perché poi è accaduto che gli avvocati di controparte e il Giudice, invece, abbiano fatto qualche verifica in più e si siano avveduti dell’errore, duplice, quello dell’AI e quello dei due avvocati.
Il Giudice, nella Sentenza con la quale ha affrontato entrambe le due vicende, scrive dritto per dritto che va bene utilizzare l’intelligenza artificiale anche in Tribunale ma a condizione che gli avvocati non dimentichino mai che questi strumenti “non sono in grado di condurre ricerche legali affidabili” e “possono produrre risposte apparentemente coerenti e plausibili alle richieste, ma del tutto errate”.
“Le risposte potrebbero contenere affermazioni convincenti che sono semplicemente false”, insomma.
Il Giudice del caso in questione non ha voluto affondare la penna nella piaga dei due avvocati che devono già essersi ritrovati a fare una figura poco onorevole davanti ai colleghi, allo stesso Giudice e, soprattutto, ai loro clienti che avranno pagato fior di parcella per scoprire poi che l’atto lo aveva scritto ChatGPT, pagata dal loro avvocato una manciata di sterline al mese.
E, però, è stato risoluto nel dire che, la prossima volta, un errore del genere potrebbe costare all’avvocato che lo commettesse, una sanzione severa anche per oltraggio alla Corte.
Insomma, per ora un cartellino giallo ma che nessuno si abitui alla clemenza della Corte.
Una lezione della quale far decisamente tesoro anche a casa nostra dove i primi casi di uso leggero e superficiale di intelligenza artificiale generativa da parte di avvocati sono già rimbalzati al disonore della cronaca.
Buona giornata e, naturalmente, good morning privacy.