“Questa indagine ci ha portato negli angoli più oscuri di Internet e sono assolutamente inorridito per le donne e le ragazze che hanno dovuto sopportare questo sfruttamento”.
Sono le parole con le quali, qualche mese fa, il Procuratore capo di San Francisco, David Chiu ha annunciato di aver trascinato in Tribunale sedici fornitori di servizi che offrivano al pubblico soluzioni capaci di generare, grazie all’intelligenza artificiale, immagini e video sessualmente esplicite di chiunque, partendo da una qualsiasi foto pubblicata sui social.
“L’intelligenza artificiale generativa ha enormi promesse, ma come con tutte le nuove tecnologie, ci sono conseguenze indesiderate e criminali che cercano di sfruttare la nuova tecnologia. Dobbiamo essere molto chiari sul fatto che questa non è innovazione, è abuso sessuale.”.
Ben detto e ben fatto.
Impossibile non condividere le sue parole e la sua azione che è anzi da imitare.
Se ci sono ambiti tra quelli nei quali l’intelligenza artificiale produce impatti meno umanamente sostenibili e in relazione ai quali dovremmo semplicemente adottare politiche di tolleranza zero, non c’è dubbio che il porno deepfake è tra questi.
Non si può accettare l’idea che qualcuno per far soldi consenta a una persona di spogliarne un’altra contro la sua volontà o, il che è lo stesso, senza il suo consenso e rappresentarla, contrabbandando il falso per vero, intenta in qualsivoglia genere di attività sessuale.
Ma nel presentare la sua azione, il Procuratore di San Francisco, ha messo sul tavolo un dato che dovrebbe suggerire una riflessione in più: solo le piattaforme gestite dalle sedici società che ha portato alla sbarra, nei primi soli primi sei mesi del 2024, sono state visitate da oltre duecento milioni di utenti.
E allora, forse, oltre a puntare l’indice giustamente contro i fornitori di servizi in questione e intraprendere ogni iniziativa utile a impedire loro di continuare a far business sulla pelle delle di donne, uomini, ragazzine e ragazzini, bambine e bambini talvolta, dovremmo iniziare a rivolgere lo stesso indice anche verso noi stessi o almeno verso quella parte dell’umanità che rappresenta la domanda di mercato che i fornitori dei servizi in questione si affrettano a soddisfare con la loro offerta.
Perché, per fortuna, in giro per il mondo, verosimilmente, non ci sono duecento milioni di stupratori capaci di violentare una donna, una ragazzina o un ragazzino nella dimensione fisica, né altrettanti pronti a guardare la scena e, quindi, se ci sono, invece duecento milioni di utenti desiderosi di generare questo genere di immagini o di goderne, significa che in troppi non hanno chiara la circostanza che il porno deepfake è una forma di violenza feroce tanto quanto lo stupro e capace di rovinare la vita di una persona allo stesso modo.
C’è, insomma, un enorme problema educativo, culturale e sociale che va affrontato e risolto prima che continui a mietere vittime.
Parlarne non è, certamente, sufficiente a risolvere il problema ma può essere un inizio.
E già che ci siamo vale la pena ricordare che le regole sulla protezione dei dati personali valgono anche a difenderci da questo genere di orribili crimini e che il Garante per la privacy, in Italia, dispone del potere di inibire, a semplice richiesta degli interessati, anche in via preventiva, la pubblicazione, via social e web di questo genere di immagini. Vi lascio qui il link alla pagina attraverso la quale chiedere aiuto.
Lo so, questa mattina il caffè e amaro, ma qualche volta è necessario.
La giornata sarà certamente migliore del suo inizio!
Come sempre good morning privacy!
Modulo di segnalazione: Home – Segnalazione Revenge Porn