Martina Pennisi
L’estate del 2025, quella in cui scoprimmo cosa può andare storto. E in cui iniziammo a chiederci, forse con una consapevolezza inedita, qual è il valore della nostra privacy e della sicurezza dei nostri dati.
È successo di tutto: un abbraccio tra due spettatori che fa impazzire un intero stadio, manco fosse un assolo della star più attesa. Messaggi vocali dalle velleità poetiche di un attore che diventano di dominio pubblico. Un rapporto sessuale fra un conduttore tv e la sua fidanzata accessibile a chiunque, online. Centinaia, migliaia di donne messe in vetrina dai loro amici e compagni come carne da macello per i commenti e le perversioni di altri uomini.
E il denominatore comune è fra le nostre mani e nelle nostre tasche e case da anni, ormai: l’obiettivo connesso di smartphone o videocamere.
Quando, nel 2010, un Mark Zuckerberg appena venticinquenne disse che la privacy non era più così importante (le sue parole precise furono «non è più una norma sociale», durante un evento a San Francisco) forse non aveva idea di cosa sarebbe successo e potuto succedere.
Il filo rosso tra i quattro casi degli ultimi mesi, così diversi l’uno dall’altro, è infatti che le vittime sono diventate tali mentre si limitavano a vivere il loro quotidiano, interagendo o essendo circondati e circondate da dispositivi e applicazioni tecnologiche ormai di massa e impugnati o accettati senza particolari preoccupazioni. Da Facebook e Whatsapp a Linkedin e alle app e dispositivi per la sorveglianza domestica. Strumenti divertenti, innocui, utili, ormai architrave del nostro modo di comunicare e vivere.
Partiamo dal primo caso: luglio, Boston, Gillette Stadium, concerto dei Coldplay. Il pubblico del concerto, prima, e la folla digitale, poi, diventano una rapida ed efficientissima macchina di identificazione di una coppia di mezza età che prova a nascondersi dalla cosiddetta kiss cam, la telecamera che ritrae gli spettatori di un evento musicale o sportivo mentre gioiscono o – appunto – si baciano e abbracciano.
Il frontman della band britannica Chris Martin ci ha messo del suo, con una battuta che non ha fatto passare inosservata la reazione e ha di fatto creato una «notizia» di colore perché è diventato parte attiva del siparietto. Poi è partito il doxing: ovvero l’individuazione dell’identità dei protagonisti grazie agli strumenti disponibili online.
Dalle banali ricerche manuali incrociando informazioni sulla posizione geografica e sull’aspetto dei due, agevolate da chi a un certo punto li ha probabilmente riconosciuti perché li conosceva già, ai più elaborati software di riconoscimento facciale che scansionano il web alla ricerca di corrispondenze fotografiche. Così si è arrivati velocemente a nomi e profili dell’amministratore delegato e della manager delle risorse umane di una società americana di data analytics. Entrambi sposati con altre persone, entrambi costretti a dimettersi dopo pochi giorni.
Era imparabile: viene in mente solo che più si è attivi con profili social, sia personali sia professionali, più è rapida l’identificazione da parte di sconosciuti, ma non è certo qualcosa da cui ci si può preservare immaginando di trovarsi in futuro in una situazione tanto particolare. Particolare ma non irripetibile: mentre scriviamo, per esempio, c’è chi cerca su X di far partire un’onda analoga mostrando lo spezzone di un servizio tv in cui un uomo sottrae un cappellino che un tennista stava dando a un piccolo tifoso. «Rendiamolo famoso» scrivono. Il giochino (sadico) è chiaro. Non sempre funziona.
«Siamo tutti un po’ personaggi pubblici, è fuor di dubbio. Non solo per il tema della riconoscibilità facciale, ma anche perché ormai condividiamo tantissimo (vacanze, figli, ecc.), cose che un tempo si sapevano solo dei Vip» dice Guido Scorza, componente del Garante italiano per la Privacy, sottolineando che «il trattamento illecito dei dati può esserci stato da parte di chi per primo ha pubblicato il video sui social e da parte delle aziende che hanno strumentalizzato il caso a fini di pubblicità».
Prosegue: «Domani, innestando l’AI in questo contesto, non solo sarà più facile essere riconosciuti: chiunque, tra miliardi di persone, potrà anche prendere frammenti della tua identità, darli in pasto a servizi di larghissimo uso e ritrovarsi una scheda super dettagliata. Una scheda che oggi faremmo fatica a costruire persino per un personaggio pubblico, figurarsi per uno sconosciuto». In una parola: dossieraggio.
Aggiunge Riccardo Meggiato, consulente di cybersicurezza e informatica forense: «L’AI permette anche di creare rapidamente profili molto simili a quelli di persone reali, attingendo a foto e video esistenti e modificandoli. Lo vediamo già: abbiamo lavorato a campagne pubblicitarie su Facebook per negozi che promuovevano svendite e “svuota tutto”. In realtà portavano a siti fake che sembravano e-commerce autentici e credibili. Le persone facevano acquisti, ma la merce non arrivava mai. Erano operazioni “one shot”: in un mese incassavano 150-200 mila euro e poi chiudevano. È un esempio di come si può clonare in modo rapido».
Questo ci porta al caso del gruppo Facebook “Mia Moglie”, in cui oltre 30mila utenti condividevano foto private di donne ritratte senza il loro consenso. Gli autori dei post, in cui si invitavano gli altri utenti a commentare, erano in molti casi i mariti o i compagni delle donne fotografate anche in intimo o nude. Dopo essere stato segnalato dalla scrittrice Carolina Capria ed essere diventato di dominio pubblico, è stato rimosso da Meta per violazione delle policy contro lo sfruttamento sessuale degli adulti.
«C’erano immagini sia reali sia sintetiche» spiega Scorza. «Non si sa quali e quante fossero interamente generate dall’AI o in quali casi la tecnologia fosse stata usata per rendere sessualmente esplicite foto di volti reali. Di certo c’è che già oggi, da nudify al deep porn, abbiamo strumenti potentissimi per creare artificialmente un’intimità violata: se non ce l’ho, me la creo e faccio violenza così. È già successo nelle scuole». «In questo caso si parla di revenge porn ed è reato» sottolinea. «Lo è anche quando la diffusione riguarda casi come quello di De Martino».
Stefano De Martino, conduttore di punta della Rai che è stato vittima con la fidanzata Caroline Tronelli della violazione o appropriazione illecita di un video intimo registrato con la telecamera di sorveglianza della casa della ragazza. Il filmato è stato pubblicato online e ha iniziato a circolare sui social e app di messaggistica. Il rischio è più frequente di quanto si possa pensare: secondo un calcolo fatto da Roberto Cosentino sul Corriere, in Italia sono più di 74mila le videocamere «esposte» in rete e accessibili anche con competenze informatiche non così avanzate.
«Non siamo mai stati così esposti» osserva Meggiato. «Tre quarti delle telecamere domestiche low cost sono assemblate con vecchi componenti, spesso già vulnerabili, e collegate a cloud in Paesi lontani. È impossibile per un utente comune verificarne la sicurezza. Basta poco per trasformare un momento privato in materiale pubblico».
Aggiunge Corrado Giustozzi, docente ed esperto di cybersicurezza: «Abbiamo superato il punto di non ritorno: le tecnologie consentono applicazioni invasive da parte di terzi e sarà sempre peggio. Chi compra una telecamera non è in grado di capirne e controllarne il funzionamento: vede le immagini sullo smartphone, ma non sa che passano attraverso server e cloud di terzi, magari in Paesi con normative blande. L’Europa sta lavorando su certificazioni: si punta a un bollino blu che dia una garanzia in termini di sicurezza (volontario dal febbraio 2025, mentre dal dicembre del 2027 ci saranno standard vincolanti, ndr). Quando si acquista un dispositivo bisogna fare un calcolo di costi – che non possono essere troppo bassi –, benefici e rischi. E dobbiamo dare per scontato di poterci fidare di marche note e con una buona reputazione, o dovremmo vivere da Amish».
Una questione di fiducia, dunque: quella di Raoul Bova è stata tradita da una o più persone, ma l’attore ha pagato anche la leggerezza con cui si è affidato a uno strumento come Whatsapp e a un formato come quello dei messaggi audio per comunicare con la donna con cui aveva una relazione extraconiugale. In un momento di erosione sempre più massiccia del confine tra pubblico e privato, Bova ha seminato tracce digitali che gli si sono ritorte contro.
Il vocale in cui in modo sdolcinato e un po’ goffo si rivolgeva a Martina Ceretti è stato usato come strumento di ricatto e poi inoltrato a Fabrizio Corona che lo ha diffuso in rete. «È un caso di violazione della privacy» chiarisce Scorza. «La prima condivisione a un soggetto terzo è già illecita. La pubblicazione integrale dell’audio lo è altrettanto: il diritto di cronaca non giustifica la diffusione completa di un contenuto privato».
E aggiunge: «C’è un problema di percezione del rischio. Troppa confidenza e troppa naturalezza nell’uso di questi strumenti portano a una minore consapevolezza delle conseguenze. Tra i più giovani, soprattutto».
Per tutelare i minori in svariati Paesi del mondo si sta sperimentando la cosiddetta age verification, che obbliga le piattaforme a verificare l’età dei loro utenti. Non è uno strumento di protezione della privacy: al contrario può eroderla per far rispettare i limiti di età di siti e app. Nel Regno Unito è legge, l’Europa inizierà una sperimentazione nel 2026, con una app contenuta nei portafogli digitali nazionali e l’Italia fra i capofila (insieme a Francia, Spagna, Grecia e Danimarca).
«Mettere un altro layer tecnologico rischia di far fallire tutto in modo più spettacolare» avverte Matteo Flora, esperto e divulgatore. Flora si scaglia anche contro Chat Control, la proposta europea di controllare tutto quello che viaggia sulle chat. «L’idea di controllare le comunicazioni disabilitando la cifratura è pericolosa: le potenzialità distruttive superano quelle costruttive. È soluzionismo tecnologico», dice, riconoscendo che «siamo nel periodo di massima esposizione di insicurezza digitale della storia».
Anche secondo Ivana Bartoletti, esperta di privacy, etica e governance nel campo dell’Intelligenza artificiale «siamo a un punto di svolta». «La quantità di dati è aumentata in modo esponenziale e l’AI generativa li rende utilizzabili in modi nuovi. A me preoccupa soprattutto la monetizzazione del dato più intimo: l’AI viene già usata come un terapeuta».
Incalza: «Non possiamo più pensarla come responsabilità individuale: la privacy è un valore collettivo. La sorveglianza colpisce i più vulnerabili. Le app per la fertilità usate contro chi vuole abortire, i manifestanti a Hong Kong tracciati dai biglietti della metro, le categorie già fragili. Più che generazionale, il tema è sociale: la domanda è sempre la stessa, privacy per chi?». Tutti, auspicabilmente. Ma come?