E se domani, anzi no, oggi i social network si riempissero di utenti non umani con un solo obiettivo: fingersi umani e persuadere gli utenti umani a pensarla in un certo modo o a fare certe scelte?
Sapremmo riconoscerli?
C’è una storia che rimbalza dalle pagine di Reddit che suggerisce di porci questa domanda e di provare a rispondere con una certa urgenza.
La sigla e ne parliamo.
Viviamo in una società ibrida, metà umana e metà artificiale e dobbiamo farcene una ragione e correre ai ripari, almeno per quanto possibile.
Lo sanno bene i gestori e gli utenti di Reddit, il più popolare forum online di tutti i tempi, sulle cui pagine, nei mesi scorsi, alcuni ricercatori universitari hanno deliberatamente infiltrato centinaia di bot, utenti artificiali, che hanno postato quasi duemila post.
Obiettivo non dichiarato dell’esperimento: persuadere gli utenti umani di essere anch’essi umani e convincerli di una serie di tesi diverse più o meno facilmente sostenibili.
Esperimento riuscito.
La più parte degli utenti umani ha interagito con i bot dei ricercatori come se fossero umani.
Nessuna novità e nessuna scoperta, per la verità.
È dal 1966, da quando Joseph Weizenbaum, matematico e informatico tedesco emigrato in America, sviluppò Eliza, il primo chatbot della storia, che i chatbot riescono nell’impresa di persuadere gli umani di essere umani pur non essendolo.
Tanto che il fenomeno è noto proprio come “Effetto Eliza”.
La novità è che a differenza di ieri oggi chiunque può disporre di un esercito di bot e farlo marciare su qualsiasi piattaforma online fino a invaderla letteralmente, convincendo gli utenti che siano decine di migliaia, centinaia di migliaia, milioni o miliardi sostanzialmente di qualsiasi tesi.
Ora il punto è: come si fa a scongiurare questo rischio?
Come si fa a riconoscere i bot e distinguerli dagli utenti umani?
Come si fa a tenerli fuori dal fossato?
Come si fa, in altre parole, a consentire agli utenti, quelli veri e in carne ed ossa, di fornire una prova di umanità agli altri utenti e ai gestori della piattaforma?
Non è facile e lo stanno scoprendo gli uomini di Reddit che, dopo l’esperimento dei ricercatori, stanno correndo ai ripari.
Già perché il sistema più semplice per provare l’umanità di una persona è provare la sua identità ma, naturalmente, per questa via si rischia di far saltare definitivamente ogni possibilità di condividere idee, opinioni e contenuti online in forma anonima.
Una medicina che potrebbe essere peggiore del male che si vuole curare.
E, infatti, appena Reddit ha annunciato di valutare rimedi di questo tipo, gli utenti – quelli umani – hanno iniziato a protestare rumorosamente.
Che fare allora? Perché il rischio di ritrovarci a interagire con un robot considerandolo umano e di essere vittima di ogni genere di esercizio di manipolazione artificiale e di altrettanto artificiale compressione del nostro diritto a autodeterminarci è elevatissimo.
In effetti sembra che Sam Altman sia tra quelli che ha guardato più lontano: il suo progetto di identificare l’intera umanità attraverso l’impronta dell’iride e, quindi, di consegnare a ciascuno una prova di umanità da spendere proprio al fine di dimostrare di non essere un robot nella dimensione digitale va proprio in questa direzione.
Poi che si tratti di soluzione esente da limiti e rischi in particolare legati proprio alle cose della privacy è un’altra storia.
Ma il problema indiscutibilmente esiste e sarà sempre più urgente e, almeno metodologicamente, quella di Altman e della sua WorldCoinFoundation è una delle possibili soluzioni.
Ma il discorso è lungo e il caffè del mattino ristretto, quindi, meglio fermarsi qui.
Buona giornata e, naturalmente, good morning privacy.