Tanto tuonò che piovve. Potrebbe essere il primo caso o più probabilmente il primo caso noto in cui un Giudice si fida di una serie di citazioni false verosimilmente generate da un’intelligenza artificiale e decide, sbagliando, un giudizio.
È accaduto in Georgia.
La sigla e ne parliamo.
Due coniugi si separano, se le danno di santa ragione in Tribunale.
È uno dei tanti procedimenti di divorzio davanti a uno dei tanti Tribunali della Georgia.
Il caso sembra ricorrente, eguale a tanti altri, nessuna questione straordinaria e il Giudice nella sua decisione da pedissequamente sua la tesi dell’avvocato del marito, incluse una serie di citazioni, undici per l’esattezza, di precedenti giurisprudenziali completamente inesistenti o manipolati in modo da supportare la tesi del proprio cliente.
Martelletto sul banco, come succede nei film e chiusura del caso.
Ma la moglie non ci sta.
Il suo avvocato si accorge che qualcosa è andato storto, che tutti quei precedenti contro la tesi della sua cliente semplicemente non esistono e impugna.
E qualche settimana fa la Corte d’Appello della Georgia le da ragione.
La decisione va annullata perché è basata su una motivazione, quella proposta al Giudice dal legale del marito a sua volta interamente basata su una giurisprudenza che in Georgia, semplicemente non esiste.
Allucinazioni algoritmiche, verosimilmente, delle quali il Giudice di primo grado non si è accorto.
Multa al legale del marito, due mila e cinquecento dollari per aver citato precedenti falsi in Tribunale e l’ordine che il procedimento ricominci e che, questa volta, sia corretto e si svolga al riparo da indebite interferenze artificiali.
Una vicenda giudiziaria come centinaia di migliaia in tutti gli Stati Uniti d’America, milioni in giro per il mondo.
Ed è proprio la normalità della controversia dalla quale tutto è iniziato, la sua serialità, il suo scarso rilievo a mettere in allarme il sistema giuridico americano in questi giorni e, forse, a dover suggerire una qualche riflessione in più dappertutto, anche da questa parte dell’oceano.
Perché, il punto, separazione dei due coniugi a parte, è che esiste un rischio elevatissimo che la giustizia sia hackerabile a mezzo algoritmo, che quello che è successo in questo anonimo caso in Georgia sia già capitato centinaia di volte e sia destinato a capitare milioni di volte perché, per il momento, il sistema non è vaccinato, la più parte dei giudici ne sa troppo poco di intelligenza artificiale, ha troppo poco tempo per verificare uno ad uno i precedenti citati dagli avvocati i quali, a loro volta, da una parte fanno sempre più fatica a resistere alla tentazione di chiedere un aiutino a ChatGPT e compagni e, dall’altra, non ne sanno abbastanza, a loro volta, di come funzionano questi sistemi e della loro tendenza a mettere insieme numeri e principi di diritto assecondando le richieste degli utenti anche a costo di inventarli.
E però il rischio che in queste ore terrorizza gli addetti alle cose della giustizia negli Stati Uniti d’America è che, per questa via, la fiducia della gente nella giustizia, possa crollare perché crollerebbe senza prova d’appello dicono se le persone si rendessero conto che i Giudici, specie quelli dei Tribunali che si occupano delle vicende più routinarie, diventano passacarte di avvocati, passacarte di robot o, comunque, di servizi basati sull’intelligenza artificiale generativa.
Come se non bastasse un’intelligenza artificiale generativa che, pur di assecondare chi la usa, spesso cade vittima delle c.d. allucinazioni, inciampi, errori, manipolazioni che generano precedenti giurisprudenziali, principi e teorie che semplicemente non esistono.
Bisogna correre ai ripari, dicono gli esperti negli Stati Uniti.
Bisogna educare Giudici e avvocati non tanto a non usare l’intelligenza artificiale perché l’esercizio non sembra né utile, né possibile ma a usarla in maniera consapevole e bisogna dotarli, a cominciare dai Giudici, di sistemi e soluzioni capaci di scovare e segnalare almeno le allucinazioni più macroscopiche, insomma usare l’intelligenza artificiale per difendere la giustizia dall’intelligenza artificiale.
Un suggerimento, certamente non l’unico possibile, che, forse, faremo bene a ascoltare anche da questa parte dell’oceano perché il rischio esiste e la giustizia è un bene troppo prezioso per lasciarla in balia di sé stessa davanti a un vento che soffia tanto veloce da rendere sempre più difficile distinguere il tecnologicamente utile, inutile e dannoso.
Frattanto, però, buona giornata e, naturalmente, good morning privacy!