Veo3 la nuova intelligenza artificiale generativa di video di casa Google utilizzata per generare quantità enormi di video razzisti e antisemita poi diffusi su TikTok dove stanno diventando virali.
È il contenuto dell’allarme appena lanciato da MediaMatters che mette in fila alcuni di questi video e i numeri di condivisioni da capogiro che stanno raggiungendo mentre nessuno, incluse Google e TikTok, sembra in grado, nonostante gli sforzi, di arginare il fenomeno.
La sigla e ne parliamo.
Donne e uomini di colore raffigurati come scimmie, come in fuga dai loro doveri nei confronti della famiglia, rapinatori e sospettati di ogni genere di crimine.
E, poi, l’intero bestiario degli stereotipi antisemita riesumato e trasformato in protagonista di brevissimi video destinati a uno straordinario successo di pubblico.
Senza contare invasioni di immigrati e auto lanciate contro manifestanti per lo più di colore per sterminarli.
C’è tutto questo e molto di più in un autentico tornado di video che nelle ultime settimane si è abbattuto sui social e, in particolare, su TikTok.
E la caratteristica comune a video prodotti da utenti e account diversi e diversissimi per stile e contenuto è di apparire tutti generati utilizzando l’intelligenza artificiale generativa firmata Google, Veo3, l’ultima delle applicazioni di Big G, sbarcate sul mercato.
Il fenomeno è conclamato.
Si sta effettivamente consumando e non è contestato neppure da Google e TikTok che letto il rapporto di Media Matters ne hanno verificato il contenuto.
E, però, arginarlo non è così facile.
Sul versante della generazione dei contenuti attraverso Veo3, benché i termini d’uso del servizio, naturalmente, vietino il suo utilizzo per la produzione di contenuti del genere di quelli che stanno spopolando sui social in questo momento e benché il modello contenga una serie di guardrails per rendere effettivi questi divieti, per ora, i prompt degli utenti stanno evidentemente avendo la meglio e stanno riuscendo a aggirare i limiti esistenti anche perché, evidentemente, non è facile per un modello di AI generativa riconoscere il significato razzista o antisemita di un video.
E non va meglio sul fronte della moderazione dei contenuti attraverso la quale TikTok sta cercando di fermare la tempesta di video oggetto della denuncia di Media Matters.
La piattaforma social ne ha, infatti, bloccati un numero enorme, prendendo i provvedimenti del caso contro gli account responsabili della pubblicazione.
Ma i numeri sono enormi perchè, naturalmente, generare nuovi contenuti grazie all’intelligenza artificiale è enormemente più facile e veloce che farlo manualmente.
E, la conseguenza è scontata e comprensibile: la moderazione finisce con il somigliare all’esercizio del famoso bambino di Sant’Agostino intento a svuotare il mare con il secchiello.
Per quanti contenuti si rimuovano, altrettanti finiscono online.
Una vicenda drammatica in sé ma drammatica, soprattutto, per il suo significato più generale: stiamo lasciando correre lungo le autostrade digitali automobili straordinariamente veloci senza esserci prima preoccupati di verificare che esistano guardrails in grado di evitare il peggio quando chi ci si metta alla guida sbagli o, comunque, perda il controllo.
Rischiamo di farci male, male per davvero.
Un caffè amaro oggi e me ne scuso.
Ma guardare in faccia la realtà senza filtri e lenti deformanti del mercato e del tecno-entusiasmo dilagante può essere utile.
Buona giornata e, naturalmente, good morning privacy!