Si dice spesso che gli algoritmi sono le leggi di questo secolo. Nessuna sorpresa, dunque, se l’antico brocardo secondo il quale “fatta la legge, trovato l’inganno”, possa efficacemente essere parafrasato in un più moderno “fatto l’algoritmo, trovato l’inganno”. A confermarlo una storia che rimbalza da YouTube dove una Youtuber, stanca di perdere visualizzazioni per colpa di una quantità enorme di video generati artificialmente e pubblicati online all’unico scopo di raccogliere views e denari ha deciso di dichiarare guerra a chi li genera.
La soluzione che ha elaborato per scendere in campo è ingegnosa e sembra funzionare.
Tenuto conto che i suoi concorrenti per generare i video usano largamente gli script dei sottotitoli che lei – così come milioni di youtuber in carne ed ossa – inserisce nei propri contenuti ha, semplicemente, deciso di avvelenare questi script.
Per farlo vi inserisce dei contenuti privi di senso, invisibili agli occhi umani – e che quindi non disturbano il suo pubblico – ma visibili dagli algoritmi e capaci di mandarli in panne.
Certo la soluzione, lo racconta lei stessa, non è efficace al 100% perché esistono rimedi attraverso i quali gli algoritmi possono evitare di cadere nel tranello ma pare sufficiente a suggerire ai più di desistere facendo risultare la partita difficile da vincere.
L’iniziativa di F4mi come si fa chiamare la YouTuber protagonista di questa originale battaglia da Davide contro Golia, peraltro, si inserisce nell’ambito di un autentico movimento di resistenza che va diffondendosi sul web contro i crawler delle grandi fabbriche di intelligenza artificiale che continuano a fare razzia di ogni genere di contenuto talvolta persino ignorando i comandi con i quali i gestori dei siti rappresentano la volontà di passare oltre e tenere giù le mani da dati, informazioni e contenuti pubblicati online.
Una partita quella in corso da seguire con il fiato sospeso.
Al contempo l’idea di F4mi fa sorgere un sospetto.
E se la stessa tecnica di avvelenamento dei pozzi di approvvigionamento dei modelli algoritmici fosse adottata anche da chi rende disponibili dati, informazioni e contenuti utilizzati dagli algoritmi per risolvere problemi – con tutto il rispetto per la generazione di contenuti destinati a raccogliere visualizzazioni su YouTube – più seri?
Non c’è il rischio che questi avvelenamenti a monte producano disastrose decisioni algoritmiche a valle?
E, in ogni caso, non varrebbe la pena affrontare e risolvere una volta per tutte la questione?
Possibile che debbano essere mercato e industria a decidere se sia normale e sostenibile, nella dimensione della concorrenza e in quella della democrazia, che pochi trasformino in asset tecno-commerciali dati, informazioni e contenuti di miliardi di persone?
A questa idea proprio non convince.
Ma, naturalmente, parliamone.
Frattanto buona giornata e, naturalmente, good morning privacy.