<?xml version="1.0" encoding="UTF-8"?><rss version="2.0"
	xmlns:content="http://purl.org/rss/1.0/modules/content/"
	xmlns:wfw="http://wellformedweb.org/CommentAPI/"
	xmlns:dc="http://purl.org/dc/elements/1.1/"
	xmlns:atom="http://www.w3.org/2005/Atom"
	xmlns:sy="http://purl.org/rss/1.0/modules/syndication/"
	xmlns:slash="http://purl.org/rss/1.0/modules/slash/"
	>

<channel>
	<title>admin &#8211; Guido Scorza</title>
	<atom:link href="https://guidoscorza.it/author/hosting_b2ejfirb/feed/" rel="self" type="application/rss+xml" />
	<link>https://guidoscorza.it</link>
	<description>Conoscere, discutere, valutare l&#039;impatto delle decisioni e poi deliberare</description>
	<lastBuildDate>Sun, 15 Mar 2026 15:49:51 +0000</lastBuildDate>
	<language>it-IT</language>
	<sy:updatePeriod>
	hourly	</sy:updatePeriod>
	<sy:updateFrequency>
	1	</sy:updateFrequency>
	<generator>https://wordpress.org/?v=6.9.4</generator>

<image>
	<url>https://guidoscorza.it/wp-content/uploads/2024/10/cropped-Testata-blog-32x32.png</url>
	<title>admin &#8211; Guido Scorza</title>
	<link>https://guidoscorza.it</link>
	<width>32</width>
	<height>32</height>
</image> 
	<item>
		<title>Se pubblicare una foto significa dire dove sei</title>
		<link>https://guidoscorza.it/privacy-weekly-02-02-2026/</link>
		
		<dc:creator><![CDATA[admin]]></dc:creator>
		<pubDate>Wed, 04 Feb 2026 13:45:44 +0000</pubDate>
				<category><![CDATA[In evidenza]]></category>
		<category><![CDATA[Startup Italia]]></category>
		<category><![CDATA[Privacy]]></category>
		<guid isPermaLink="false">https://guidoscorza.it/?p=3359</guid>

					<description><![CDATA[Startup Italia &#8211; Guido Scorza Sappiamo tutti che quando pubblichiamo una foto online, nostra o dei nostri bambini, offriamo a chiunque la guardi – quali che siano le sue intenzioni – una serie di indizi sul luogo in cui è stata scattata, in cui eravamo, in cui erano i soggetti ritratti. È intuitivo. I più addentro alle cose delle tecnologie – pochi, purtroppo, in un Paese, come il nostro, di analfabetismo digitale dilagante – sanno anche che le foto digitali spesso contengono delle informazioni nascoste con la geolocalizzazione puntuale del luogo in cui sono state scattate. Sono informazioni – cc.dd. meta-informazioni – che possono essere eliminate direttamente attraverso apposite opzioni presenti sui nostri dispositivi. Certo bisogna saperlo, bisogna pensarci prima di condividere la foto via social, bisogna trovare il pulsante per farlo, ma si può fare. E, per la verità, alcune app di messaggistica eliminano automaticamente alcune di queste informazioni garantendoci – o, almeno, provandoci &#8211; un po’ di privacy in più almeno sul luogo nel quale abbiamo scattato la foto se non è immediatamente riconoscibile. Ora, però, sembra che complice l’intelligenza artificiale che avanza mantenere la riservatezza sul luogo nel quale abbiamo scattato una foto o girato un video o facendo una diretta via social sia e sarà sempre più difficile. Qualcuno già dice, semplicemente, impossibile. Iniziano, infatti, a diffondersi online una serie di servizi basati, appunto, su servizi algoritmi di intelligenza artificiale che data un’immagine sono in grado di collocarla esattamente nello spazio, proprio nel luogo nel quale è stata realizzata utilizzando una serie di parametri diversi. Per carità, niente di inimmaginabile davanti ai continui “portenti artificiali” ma, forse, ancora una volta, la realtà sta superando o ha superato l’immaginazione più rapidamente di quanto non si potesse immaginare. Certo questo genere di servizi può essere straordinariamente utile in una serie di casi d’uso specifici: dalla ricerca e identificazione del luogo nel quale si trova una persona in condizioni di emergenza, alla ricerca e identificazione di criminali o autori di ogni genere di illeciti. Un servizio prezioso in casi di questo genere e decine di altri analoghi, a condizione che a usarlo siano soccorritori, forze dell’ordine, istituzioni nell’interesse pubblico e nel rispetto del principio di proporzionalità cui deve ispirarsi ogni trattamento di dati personali da chiunque posto in essere. Un servizio pericoloso e, anzi, pericolosissimo in centinaia di altri casi. Sempre se nelle mani sbagliate nelle quali, sfortunatamente, è difficile pensare prima o poi non cada come, purtroppo, sta accadendo con tutti i servizi del genere. Due le sfide che abbiamo davanti. La prima è culturale e ci riguarda tutti: prendere atto che l’intelligenza artificiale continua a modificare il mondo nel quale viviamo, a spostare in avanti il confine del pubblico e a far arretrare quello del privato con la conseguenza che dobbiamo imparare a vivere in un mondo diverso da quello in cui siamo nati. Nel caso specifico, forse, questo significa pensarci ancora una volta di più prima di decidere una foto nostra e soprattutto dei nostri figli sui social. La seconda è giuridica: questo genere di servizi non dovrebbe poter essere distribuito sul libero mercato, non dovrebbe poter esser venduto a chiunque e utilizzato da chiunque. Non ora, non oggi, non così presto. Saremo in grado di vincerle entrambe? Difficile a dirsi e, anzi, lecito dubitarne e legittima una punta di pessimismo. Ma dobbiamo provarci.]]></description>
										<content:encoded><![CDATA[
<p><a href="https://startupitalia.eu/tech/regno-unito-ai-alza-il-freno/">Startup Italia</a> &#8211; Guido Scorza</p>



<div class="wp-block-group is-nowrap is-layout-flex wp-container-core-group-is-layout-6c531013 wp-block-group-is-layout-flex"></div>



<p>Sappiamo tutti che quando pubblichiamo una foto online, nostra o dei nostri bambini, offriamo a chiunque la guardi – quali che siano le sue intenzioni – una serie di indizi sul luogo in cui è stata scattata, in cui eravamo, in cui erano i soggetti ritratti.</p>



<p>È intuitivo.</p>



<p>I più addentro alle cose delle tecnologie – pochi, purtroppo, in un Paese, come il nostro, di analfabetismo digitale dilagante – sanno anche che le foto digitali spesso contengono delle informazioni nascoste con la geolocalizzazione puntuale del luogo in cui sono state scattate.</p>



<p></p>



<span id="more-3359"></span>



<p>Sono informazioni – cc.dd. meta-informazioni – che possono essere eliminate direttamente attraverso apposite opzioni presenti sui nostri dispositivi.</p>



<p>Certo bisogna saperlo, bisogna pensarci prima di condividere la foto via social, bisogna trovare il pulsante per farlo, ma si può fare.</p>



<p>E, per la verità, alcune app di messaggistica eliminano automaticamente alcune di queste informazioni garantendoci – o, almeno, provandoci &#8211; un po’ di privacy in più almeno sul luogo nel quale abbiamo scattato la foto se non è immediatamente riconoscibile.</p>



<p>Ora, però, sembra che complice l’intelligenza artificiale che avanza mantenere la riservatezza sul luogo nel quale abbiamo scattato una foto o girato un video o facendo una diretta via social sia e sarà sempre più difficile.</p>



<p>Qualcuno già dice, semplicemente, impossibile.</p>



<p>Iniziano, infatti, a diffondersi online una serie di servizi basati, appunto, su servizi algoritmi di intelligenza artificiale che data un’immagine sono in grado di collocarla esattamente nello spazio, proprio nel luogo nel quale è stata realizzata utilizzando una serie di parametri diversi.</p>



<p>Per carità, niente di inimmaginabile davanti ai continui “portenti artificiali” ma, forse, ancora una volta, la realtà sta superando o ha superato l’immaginazione più rapidamente di quanto non si potesse immaginare.</p>



<p>Certo questo genere di servizi può essere straordinariamente utile in una serie di casi d’uso specifici: dalla ricerca e identificazione del luogo nel quale si trova una persona in condizioni di emergenza, alla ricerca e identificazione di criminali o autori di ogni genere di illeciti.</p>



<p>Un servizio prezioso in casi di questo genere e decine di altri analoghi, a condizione che a usarlo siano soccorritori, forze dell’ordine, istituzioni nell’interesse pubblico e nel rispetto del principio di proporzionalità cui deve ispirarsi ogni trattamento di dati personali da chiunque posto in essere.</p>



<p>Un servizio pericoloso e, anzi, pericolosissimo in centinaia di altri casi.</p>



<p>Sempre se nelle mani sbagliate nelle quali, sfortunatamente, è difficile pensare prima o poi non cada come, purtroppo, sta accadendo con tutti i servizi del genere.</p>



<p>Due le sfide che abbiamo davanti.</p>



<p>La prima è culturale e ci riguarda tutti: prendere atto che l’intelligenza artificiale continua a modificare il mondo nel quale viviamo, a spostare in avanti il confine del pubblico e a far arretrare quello del privato con la conseguenza che dobbiamo imparare a vivere in un mondo diverso da quello in cui siamo nati.</p>



<p>Nel caso specifico, forse, questo significa pensarci ancora una volta di più prima di decidere una foto nostra e soprattutto dei nostri figli sui social.</p>



<p>La seconda è giuridica: questo genere di servizi non dovrebbe poter essere distribuito sul libero mercato, non dovrebbe poter esser venduto a chiunque e utilizzato da chiunque.</p>



<p>Non ora, non oggi, non così presto.</p>



<p>Saremo in grado di vincerle entrambe?</p>



<p>Difficile a dirsi e, anzi, lecito dubitarne e legittima una punta di pessimismo.</p>



<p>Ma dobbiamo provarci.</p>



<p></p>
]]></content:encoded>
					
		
		
			</item>
	</channel>
</rss>
