In America il fenomeno sta esplodendo ma è ragionevole supporre che stia accadendo lo stesso anche da questa parte dell’oceano o che accadrà presto. Centinaia di studenti universitari – e, per la verità, anche delle scuole superiori – che si ritrovano senza borse di studio o con voti ridotti di percentuali significative perché i sistemi di intelligenza artificiale che i professori utilizzano per verificare se sono stati utilizzati servizi basati sull’intelligenza artificiale per fare compiti, temi o risolvere problemi suggeriscono, contrariamente al vero, una risposta affermativa.
Falsi positivi, insomma.
Tanti almeno stando a quanto rimbalza dai media di oltreoceano.
E le conseguenze sono enormi tanto sulla carriera scolastica e universitaria degli studenti quanto sulla loro serenità e stabilità psicologica perché quando capita non sanno come reagire e come convincere i loro professori che il sistema di controllo ha sbagliato, che loro non hanno barato, che il compito è effettivamente farina del loro sacco e che, magari, hanno semplicemente usato uno strumento di intelligenza artificiale per il controllo ortografico o, ancora più semplicemente, che strumenti del genere sono, ormai, incorporati nei software che utilizzano per elaborare i documenti.
Ma come si fa a fornire al tuo professore che un algoritmo ha persuaso tu abbia fatto il furbetto la prova del contrario?
Tutti d’accordo nel sostenere che la prova è diabolica, semplicemente impossibile.
Così come c’è un diffuso consenso sulla circostanza che gli strumenti artificialmente intelligenti per scovare i furbetti dell’AI tra i banchi di scuola e in università non funzionano come dovrebbero e sono pieni di bias.
Tendono, tanto per fare un esempio, a considerare più frequentemente figlio di un aiutino dell’AI un compito scritto da un non madrelingua.
Il rischio è enorme e duplice.
Da una parte rischiamo di perdere la capacità di premiare gli studenti che andrebbero premiati considerandoli addirittura meno meritevoli di altri e dall’altra, stiamo abituando intere generazioni a considerare normale il fatto che una persona, la sua testa, le sue competenze, la sua creatività, capacità di sintesi o di risolvere un problema possano essere valutati da un algoritmo e che sia normale che un algoritmo possa incidere tanto prepotentemente sul destino di una persona.
Credo serva un’inversione a “U” e credo serva in fretta.
Buona giornata e Good Morning privacy!