Key4biz

Garante Soro: ‘Monetizzazione dei dati? No, ma pretendere la privacy by design negli algoritmi’

L’entrata in vigore del GDPR ha rappresentato nell’Unione Europea un freno alla razzia indiscriminata dei dati online. Il Regolamento prevede che il consenso sia informato, specifico, libero e inequivocabile da parte degli utenti per autorizzare il trattamento dei dati per una determinata finalità. Quindi è ora più difficile ottenere l’ok consapevole per poter utilizzare i dati. L’offrire i servizi gratuiti, la modalità con cui si è alimentata finora la digital economy e in particolare gli Over the Top, fa sempre meno breccia negli utenti, così stanno nascendo app che promettono (pochi) soldi in cambio dei dati con il consenso “informato, specifico, libero e inequivocabile”.

“Non cedere alla monetizzazione dei dati, effetti pericolosissimi sulla libertà”

E il Garante Privacy mette in guardia i cittadini proprio su questo fenomeno. “Per contrastare i rischi del web, come l’autoisolamento, la soluzione non è, probabilmente, in quel diritto al dividendo dei dati, auspicato in California quale beneficio da riconoscere agli utenti della rete per lo sfruttamento dei loro dati da parte delle grandi piattaforme”, ha detto Antonello Soro, intervenendo al convegno “Comunità Convergenti” in corso fino a domani ad Assisi. “Aderendo a quest’idea”, ha aggiunto “non si farebbe altro, infatti, che approfondire la tendenza alla monetizzazione della privacy che ha effetti pericolosissimi sulla libertà”.

Allora come difendersi da queste nuove sirene digitali che, in cambio di circa 40 euro al mese a chi decide dietro il proprio consenso, raccolgono i dati dell’utente (per esempio tenere sempre attivata la localizzazione) e li rivendono ad altre società?

Antonello Soro ha indicato la soluzione: “In questo senso, ad esempio, si dovrebbe valorizzare, anche in sede di progettazione algoritmica, la privacy by design quale punto di convergenza tra approccio giuridico-regolatorio ed etico-comportamentale, incorporando nei sistemi misure di tutela della privacy ma anche, quindi, della dignità”.

Non solo privacy, quindi, ha concluso il Garante, “ma anche precaution, humanity, ethics by design: valori, questi, che attraverso la garanzia del diritto alla protezione dati devono inscriversi negli algoritmi ed ispirarne ‘l’intelligenza’”.

Anche l’intelligenza artificiale a prova di privacy

Sì, perché anche l’intelligenza artificiale (IA), nuovo motore degli algoritmi, deve rispettare i diritti fondamentali, incluso quello alla protezione dei dati. Sviluppatori, produttori e fornitori di servizi IA devono valutare preventivamente i possibili rischi, adottando un approccio di tipo “precauzionale”.

Concretamente, ogni progetto basato sull’intelligenza artificiale, come indicato dalle linee guida del Garante, dovrebbe rispettare la dignità umana e le libertà fondamentali, nonché i principi base di liceità, correttezza, specificazione della finalità, proporzionalità del trattamento, protezione dei dati fin dalla progettazione (privacy by design) e protezione per impostazione predefinita (privacy by default), responsabilità e dimostrazione della conformità (accountability), trasparenza, sicurezza dei dati e gestione dei rischi.

Privacy by design, privacy by default, accountability, trasparenza, sicurezza dei dati e gestione dei rischi: “l’unica moneta” di valore da accettare per cedere i propri dati.

Exit mobile version