GOOD MORNING PRIVACY! | Uomini, robot e discriminazioni

L’impatto dell’interazione tra uomini e intelligenza artificiale sulla discriminazione è il titolo dello studio appena pubblicato dal Policy Lab della Commissione europea.
Centodieci pagine tutte da leggere per convincersi, numeri, dati e esperimenti alla mano che le cose sono più difficili di quanto non appaiano quando si tratta di garantire che le decisioni algoritmiche o – il che non è troppo diverso – i suggerimenti algoritmici di decisioni umane non incorrano in pericolose e gravi discriminazioni.

Troppo facile dire che è sufficiente lasciare all’uomo l’ultima parola e porlo nella condizione di rivedere le decisioni algoritmiche per scongiurare il rischio che un sistema per la selezione dei profili più adatti a ricoprire una certa posizione di lavoro non preferisca un uomo a una donna solo in ragione del genere o un tedesco a un italiano.
E, naturalmente, la stessa regola vale se gli algoritmi sono impiegati per decidere a chi dare credito o riconoscere un mutuo.
Così come in decine di altri casi, salute inclusa.
Le cose non stanno così.
Le cose non stanno come, probabilmente, ci piacerebbe credere per sentirci rassicurati e rinfrancati.
Secondo lo studio, infatti, non solo non è detto che l’intervento umano in sede di revisione della decisione algoritmica corregga l’eventuale bias ma, anzi, è possibile che ne inserisca uno in una decisione algoritmica invece equa e non discriminatoria.
E, in fondo, è naturale che sia così perché bias e discriminazioni non nascono nelle sinapsi delle intelligenze artificiali ma nella nostra società, nascono dagli uomini e accompagnano gli uomini anche quando si ritrovano a dover verificare se gli algoritmi discriminino o meno.
Ma non basta.
Il punto è anche che quando si chiede a una persona di rivedere una decisione algoritmica c’è un doppio rischio in agguato: quello della crescente cieca fiducia degli uomini nelle macchine che, di fatto, finisce con l’azzerare l’utilità dell’intervento umano perché suggerisce all’uomo di appiattirsi sulla decisione algoritmica e quello dell’avversione preconcetta dell’uomo all’algoritmo che fa si che riveda la decisione algoritmica anche quando è corretta.
Insomma, almeno nel ruolo di revisori finali delle decisioni algoritmiche, gli uomini non sembrano migliori delle intelligenze artificiali e, certamente, non sembrano rappresentare la soluzione del problema.
Essendo il problema rappresentato dal rischio che gli algoritmi amplifichino le discriminazioni che già albergano nella società.
Ma allora, che fare?
Difficile riassumere le tante e buone idee – anche se non sempre facili da implementare e, probabilmente, mai, da sole, risolutive – presenti nel rapporto della Commissione.
Certamente, però, la trasparenza e l’esplicabilità della logica algoritmica dietro a ogni decisione può giocare un ruolo importante, così come il concentrarsi più sulla progettazione dell’algoritmo e sulla selezione dei dati di addestramento che sulla revisione della singola decisione finale.
Insomma se il controllo umano un ruolo può giocare dovrebbe essere sistemico e non episodico, al solo momento della decisione.
Ma vale la pena leggere lo studio per intero resistendo alla tentazione di farselo riassumere da un’intelligenza artificiale!
Non si sa mai!
Certo è che dovremmo smetterla di cercare rifugio nella parola antropocentrismo e di continuare a dire che basta lasciare agli umani l’ultima parola per sentirci al riparo da ogni rischio di discriminazione algoritmica.
Semplicemente non è così.
Buona giornata umana e, naturalmente, good morning privacy!
Link al rapporto: https://publications.jrc.ec.eu….