Il Ministero della Giustizia del Regno Unito sta sperimentando un controverso sistema di “pre-crimine” basato su algoritmi di intelligenza artificiale per prevedere eventuali reati futuri.
L’applicazione, denominata Offender Assessment System, analizza grandi quantità di dati sensibili raccolti da una vasta platea di persone coinvolte nel sistema giudiziario (non solo ex detenuti, ma anche vittime e testimoni), cercando di identificare individui a rischio attraverso analisi predittive. Questo scenario ricorda le distopie di Philip K. Dick e film come “Minority Report” in cui le persone vengono identificate preventivamente come potenziali criminali prima che compiano un reato. Le implicazioni etiche e sociali legate all’utilizzo di strumenti di “giustizia predittiva” sono enormi: violazione della privacy, rischio concreto di discriminazioni, errori di valutazione dell’algoritmo che potrebbero marchiare persone innocenti, e manipolazione abusiva di informazioni personali. Quanto siamo disposti come società a sacrificare i diritti individuali in nome di una possibile (e incerta) maggiore sicurezza collettiva? Ne parliamo oggi con Guido Scorza in questa nuova puntata di #Garantismi, approfondendo rischi, pericoli e dilemmi morali collegati a tale tecnologia. È giusto utilizzare tecnologie predittive per prevenire il crimine, oppure i diritti fondamentali delle persone devono prevalere sempre?