Redazione – 22/09/2025
Nuove tecnologie, serve un’etica forte per fermare i nuovi padroni del mondo
Il podcast di Rai RadioTre condotto ieri sera da Luca De Biase per la prima volta live sul palco del Teatro Piccinni grazie alla tappa barese del festival Lectorinfabula
Sullo schermo scorrono i volti di Mark Zuckenberg, Jeff Bezos, Sundar Pinchai, Tim Cook, Sam Altman, Shou Zi Chew, Bill Gates e, naturalmente, Elon Musk. Il Teatro Piccinni è al buio, un faro illumina Luca De Biase mentre propone il suo racconto dei «Padroni del mondo», per la prima volta live, per la prima volta a Bari, dove l’evento è realizzato in collaborazione con Lectorinfabula, il festival promosso dalla Fondazione Di Vagno, che offre così al podcast di Rai RadioTre l’occasione di riflettere sull’«Orizzonte dell’umanità», cui questa ventunesima edizione è dedicata. Un mondo parallelo Così, mentre le sagome di quei volti si compongono e si sfaldano in successione, ci chiediamo con De Biase come sia possibile che esista «qualcuno che ha lo sguardo perennemente puntato su di noi, ed è come se ci vedesse senza vestiti, senza pelle, in tutta la nostra intimità. Eppure loro sono una dozzina di persone, noi diversi miliardi», constata il giornalista. Dodici persone che vivono in un mondo parallelo, un luogo dal quale possono vedere, ascoltare, commentare, decidere. «Le loro aziende valgono complessivamente 22 miliardi di dollari, ossia quanto tutto l’oro del mondo», continua, precisando poi «che non è soltanto una questione di ricchezza, perché tutto quel denaro è servito per reinventare il potere». Regole diverse un
potere che pare sfuggire alle comuni regole di convivenza, se è vero che «un tempo si chiamavano pirati i ragazzi che riproducevano musica aggirando il diritto d’autore, mentre se OpenAi insegna a dei minori come togliersi la vita, si rimedierà con la prossima versione di ChatGpt. O se Anthropic saccheggia opere soggette a copyright per istruire il suo modello, tutto si risolve con un risarcimento da niente, se paragonato agli investimenti che continua ad attrarre».
È dunque davvero un mondo a parte, quello dei padroni del mondo. «E la nostra liberazione passa per la risposta a un solo interrogativo: che cosa vogliono?». La conoscenza è potere «Vogliono il nostro tempo e la nostra attenzione per raccogliere informazioni su di noi», risponde Guido Scorza, avvocato e componente del Collegio del Garante per la protezione dei dati personali, fra gli ospiti di Lectorinfabula che salgono in palcoscenico a metà serata. «Questa conoscenza è potere. Conoscendo le nostre debolezze, le fragilità, i desideri, possono orientare le nostre scelte. Se siamo fortunati, si tratterà di scelte di consumo: un paio di scarpe piuttosto che un jeans o una serie tv. Se non lo siamo, potranno orientare le nostre opzioni di voto, portarci a votare per questo o quel soggetto», prosegue Scorza.
Gli scenari di guerra Ma le nuove tecnologie acquisiscono ruoli ormai dominanti anche negli scenari di guerra. «È il concetto stesso di guerra a essere ormai ibridato. In questo senso il conflitto russo-ucraino ha rappresentato uno
spartiacque», rilancia Maria Rosaria Taddeo, docente di Etica Digitale a Oxford. «Quello che fa più paura è l’utilizzo di queste tecnologie nella logistica predittiva. Gli algoritmi non sono affidabili al cento per cento, allora un conto è se si sbaglia a generare un brano musicale, un altro se si sta identificando un target militare», prosegue l’esperta, secondo la quale occorrerebbe un’etica globalmente condivisa nell’utilizzo di nuove tecnologie, per evitare che i conflitti vengano sottratti al controllo umano. L’informazione Non meno pericoloso l’utilizzo di Intelligenza artificiale generativa nel campo dell’informazione. «Pensiamo ai falsi video sull’arresto di Trump, sul funerale di Berlusconi o sul Papa in piumino bianco. Esempi tutto sommato innocui. Ma che effetti potranno avere immagini accompagnate da voci clonate su quegli stessi scenari di guerra?», si chiede Francesca Lagioia, docente di Informatica Giuridica. «Basta pensare al video nel quale il sottosegretario alla Difesa ucraino ammetteva il coinvolgimento di Kiev nel sanguinoso attentato al Crocus City Hall di Mosca, lo scorso anno». Non si tratta più soltanto di falsi virali o di meme ingannevoli, ma di strumenti capaci di innescare tensioni internazionali potenzialmente devastanti. Senza un’etica condivisa e strumenti di verifica robusti, l’IA generativa rischia di diventare il detonatore di crisi che nessuna diplomazia potrà disinnescare.