GOOD MORNING PRIVACY! | L’AI usata bene nella redazione del New York Times

Semafor l’ha battuta come uno scoop, forse per la verità esagerando un po’.
Il New York Times, ha rifiutato di commentarla, dicendo che non ci sarebbe niente di nuovo sotto il sole e che le sue linee guida per l’uso in redazione dell’intelligenza artificiale sarebbero online dalla scorsa primavera.
Circostanza di per sé vera.
Ma che sia buona la prima o la seconda, la notizia c’è: i giornalisti del New York Times, nei giorni scorsi, hanno ricevuto una serie di mail con l’invito a un uso responsabile dell’intelligenza artificiale per migliorare il loro lavoro.
E si tratta di una notizia perché il New York Times è protagonista di una delle più grandi azioni legali promosse contro OpenAI per violazione del diritto d’autore, per aver usato i contenuti del Times senza alcuna autorizzazione.

Continua a leggere

GOOD MORNING PRIVACY! | Fermiamo il porno deep fake

“Questa indagine ci ha portato negli angoli più oscuri di Internet e sono assolutamente inorridito per le donne e le ragazze che hanno dovuto sopportare questo sfruttamento”.
Sono le parole con le quali, qualche mese fa, il Procuratore capo di San Francisco, David Chiu ha annunciato di aver trascinato in Tribunale sedici fornitori di servizi che offrivano al pubblico soluzioni capaci di generare, grazie all’intelligenza artificiale, immagini e video sessualmente esplicite di chiunque, partendo da una qualsiasi foto pubblicata sui social.

Continua a leggere

GOOD MORNING PRIVACY! | Privacy, un amore irrinunciabile

È un j’accuse documentato e piuttosto duro quello pubblicato dalla BBC a proposito dell’affidabilità di quattro tra i modelli di intelligenza artificiale generativa più popolari al mondo e, nello specifico, ChatGPT di OpenAI, Copilot di Microsoft, Gemini di Google e Perplexity.
Quando si tratta di rispondere a domande di cronaca e attualità rielaborando le notizie già pubblicate dalla BBC, gli algoritmi sbaglierebbero tanto, anzi, secondo la BBC decisamente troppo.
Per arrivare a questa conclusione un pool di giornalisti della BBC ha posto ai quattro servizi basati sull’intelligenza artificiale centinaia di domande, chiedendo di utilizzare nelle risposte, come fonte, proprio la BBC.

Continua a leggere

GOOD MORNING PRIVACY! | Privacy, un amore irrinunciabile

Oggi, nel giorno di Cupido, c’è una freccia che non posso far a meno di scoccare è quella con la quale mi piacerebbe che qualcuno si innamorasse di uno dei diritti più preziosi che c’è, il diritto alla privacy.
Ma è difficilissimo che vada a segno specie in un’epoca nella quale tutto suggerisce di considerarla morta, inutile, superata, dai tempi e dalle tecnologie.

Continua a leggere

GOOD MORNING PRIVACY! | Il “fair use” è un’altra cosa. Parola di un giudice pentito.

Il “fair use” è un’altra cosa. Parola di un giudice pentito.

“Un uomo intelligente sa quando ha ragione; un uomo saggio sa quando ha torto. La saggezza non mi trova sempre, quindi cerco di accoglierla quando lo fa, anche se arriva tardi, come in questo caso. Rivedo quindi il mio giudizio sommario del 2023 e l’ordinanza in questo caso”.

Continua a leggere

GOOD MORNING PRIVACY! | Se ti dimentichi di usarci, non ci paghi

Quante volte ci capita di abbonarci a un servizio o di scaricare un’app mossi da una qualche urgenza, usarla per qualche ora o per qualche giorno e poi dimenticarcene completamente?
Non so a voi ma a me, forse per colpa della curiosità, capita spesso.
E, naturalmente, finisce che pago per mesi, se non per anni, per un servizio che non uso.
Contrattualmente ineccepibile ma eticamente ingiusto.
Certo, prima di tutto sciocco da parte mia.
Ma questa è un’altra storia.
Forse proprio per questo mi ha colpito la notizia della nuova politica commerciale applicata da Kagi, un motore di ricerca alternativo ai più famosi e a pagamento.

Continua a leggere

GOOD MORNING PRIVACY! | Non usare l’AI per scrivere il CV. Parola di chi la produce!

“Per favore… non utilizzare assistenti AI, mentre incoraggiamo le persone a usare sistemi di intelligenza artificiale una volta assunte per aiutarle a lavorare più velocemente e in modo più efficace, vi preghiamo di non usare assistenti di intelligenza artificiale durante il processo di candidatura perché vogliamo capire il vostro interesse personale a lavorare per la nostra società senza mediazione tramite un sistema di intelligenza artificiale e vogliamo anche valutare le vostre capacità di comunicazione non assistite da intelligenza artificiale”.
Chi indovina chi pubblica un’avvertenza di questo genere in cima alla pagina web dedicata alla selezione del personale oggi vince il caffè.

Continua a leggere