Key4biz

#GpdpEU2018. Dall’IoT all’IoB, tutti i rischi dello sciame digitale

La crescente invasività degli algoritmi in tutte le dimensioni della nostra vita, e la necessità di rivendicare un ruolo attivo per il nuovo “homo digitalis” dei nostri gironi, sempre più immerso in uno sciame di dati, che arrivano anche da chips impiantati sotto pelle in ottica IoB (Internet of Beings). Dati sempre più scientificamente trasformati in Big Data da soggetti terzi per fare business, letteralmente, sulla nostra pelle. Dati che ci seguono ormai come un’ombra e che ci impongono quindi la necessità di rivendicare un ruolo attivo e consapevole rispetto ad un predominio tecnologico sempre più totalizzante e difficile da arginare e perimetrare. Questo in sintesi lo scenario, alquanto inquietante, delineato oggi in occasione della Giornata europea della Protezione dei dati personali all’evento organizzato dal Garante per la protezione dei dati personali a Roma “Uomini e macchine. Protezione dati per un’etica del digitale”. L’evento è stato aperto con l’intervento di Antonello Soro, Presidente dell’Autorità Garante per la protezione dei dati personali; a seguire gli interventi del teologo Vito Mancuso e di Antonio Punzi, Ordinario di metodologia della scienza giuridica, Università Luiss Guido Carli coordinati da Augusta Iannini, Vicepresidente dell’Autorità Garante per la protezione dei dati personali; Luisa Crisigiovanni, Membro dell’Esecutivo BEUC e segretario Generale di Altroconsumo, Massimo Sideri, editorialista del Corriere della Sera coordinati da Licia Califano, Componente dell’Autorità Garante per la protezione dei dati personali; a seguire Edoardo Fleischner, Docente di comunicazione crossmediale, Università degli Studi di Milano, Francesco Grillo, Docente di economia politica, Università Oxford, coordinati da Giovanna Bianche Clerici, Componente dell’Autorità Garante per la protezione dei dati personali; ha chiuso la giornata Maria Elena Boschi, Sottosegretaria alla presidenza del Consiglio dei Ministri.

Antonello Soro ‘Il digitale è diventato la trama delle nostre vite’

Se già nel primo novecento “il dominio della tecnica” fu considerato il tratto distintivo del post-moderno, “esso caratterizza ancor più marcatamente il nostro tempo, profondamente mutato dalle nuove tecnologie e dalle loro implicazioni sociali”, ha detto il Presidente dell’Autorità Garante Antonello Soro (clicca qui per l’intervento integrale del Garante), mettendo in guardia dall’idea del potere smisurato della tecnica e del costo umano, in termini di libertà, del progresso determinato da internet (of things, of toys, of beings). Intelligenza artificiale e algoritmi estendono il loro potere sul lavoro, sulla salute, sulla ricerca scientifica ma anche sulla giustizia “che finisce per divenire predittiva, affidando agli algoritmi persino quelle decisioni dirimenti sull’uomo: colpevolezza, libertà, punibilità, che sembrano l’ultimo baluardo della sovranità e, quindi, della razionalità umana”.

Con le nuove tecnologie indossabili, “il corpo diviene password” che rende accessibile a chiunque la nostra identità più remota. Identità sempre più caleidoscopica, determinata dagli algoritmi, fatta da una galassia di tracce digitali trasparenti per chi “sia capace di estrarre frammenti” di informazione sui nostri gusti e le nostre preferenze, in ottica di Big Data.

Uno scenario inquietante. Nel 2016 abbiamo generato tanti dati quanti ne abbiamo prodotti nell’intera storia dell’umanità fino al 2015. Tra dieci anni questa quantità di dati è destinata a raddoppiare ogni 12 ore, in un contesto in cui già oggi il 70% delle transazioni finanziarie è realizzato mediante algoritmi e il valore dei dati personali cresce progressivamente.

E l’uomo che fine fa? Nei prossimi 10 0 20 anni la metà dei lavori attuali sarà realizzata da macchine, con una crisi occupazionale che investirà tutto il mondo dei colletti bianchi. “Presto tutti gli oggetti e il nostro abbigliamento saranno connessi – prosegue il Garante – si stima che in 10 anni vi saranno 150 miliardi di sensori in rete, 20 volte di più della popolazione mondiale”.

Il tema della neutralità dell’algoritmo diventa quindi centrale. Come centrale diventa il ruolo del garante, per salvaguardare l’autodeterminazione informativa e l’autonomia delle scelte individuali in un mondo sempre più iperconnesso.

Intelligenza delle macchine e libertà dell’uomo

Senza controllo la tecnica resta autoreferenziale. Servono regole per non soccombere all’invadenza del digitale, dei social, ai rischi connessi alla cybersicurezza “Dobbiamo avere paura? Dobbiamo imbrigliare gli algoritmi, in un’epoca in cui la reputazione online è sempre più centrale e i ragazzi non si frequentano più in piazza, sacrificando i rapporti umani al web?”, domanda Augusta Iannini, vicepresidente dell’Autorità.

Secondo il teologo Vito Mancuso è necessario un appello alla libertà, in un’epoca in cui per l’uomo occidentale ha sostituito l’onnipotenza divina con quella della tecnica. “L’essenza dell’Occidente, fin dai tempi dei Greci, risiede nella libertà – dice Mancuso – libertà fatta di tre elementi: consapevolezza (capacità di conoscere); creatività (agire in modo creativo); responsabilità (agire in armonia con gli altri e con l’ambiente)”.

L’intelligenza artificiale che creeremo sarà quindi tanto più positiva per l’uomo in quanto risponderà ai criteri di libertà. “Garantire la privacy significa tutelare la persona in quanto agente libero”, aggiunge Mancuso, secondo cui le comodità legate all’utilizzo crescente delle macchine riduce (per non dire che soffoca) lo slancio vitale, l’agire impulsivo e quel caos che consente all’uomo di esprimere curiosità e meraviglia per il mondo. Nessun appello al luddismo contro le tecnologie, ma una sana rivendicazione ad una maggior consapevolezza circa il rischio di abdicare alle nostre prerogative umane, in termini di libertà e “ignoranza”, a favore di un ordine “macchinico”, ordinato da microchip onnipresenti, che riduce di molto gli spazi di libertà individuale.

Sulla stessa linea di Mancuso Antonio Punzi, Ordinario di metodologia della scienza giuridica, Università Luiss Guido Carli: “Perimetrare le persone oggi è un’impresa titanica (siamo fatti anche di dati ndr)” e i confini delle nostre vite sono sempre più labili: lavoro, casa e spazi sono sempre più rarefatti e per questo anche la difesa dei diritti e della privacy sono più complessi. “L’inconscio digitale distrugge la dicotomia soggetto-oggetto”, aggiunge Punzi, ricordando la crescente pervasività di microchip cerebrali, wearables, misuratori biometrici e smartphone che portiamo addosso tutto il tempo e che trasmettono informazioni su di noi. In gioco c’è quindi il diritto alla nostra identità, perché “L’info-persona di oggi sa poco di sé e del mondo in cui ondeggia. Come info-persone ci muoviamo un po’ alla cieca, andiamo per tentativi nell’info-spazio”, chiude Punzi, secondo cui convivere con le macchine non è un pericolo, a patto che conosciamo i nostri diritti.

Giocattoli intelligenti e oggetti che ci sorvegliano   

In questo contesto in costante divenire, spicca il rischio privacy legato agli smart toys, i giocattoli intelligenti in grado di interagire con i bambini e di ritrasmettere dati e immagini delle nostre case ad aziende terze, per lo più senza che noi ne siamo consapevoli. “L’Internet of Toys è una branca dell’Internet of Things che in futuro peserà fino al 45% del mercato complessivo dell’IoT”, dice Licia Califano, Componente dell’Autorità Garante per la Protezione dei Dati personali. Si tratta di robot giocattoli e bambole parlanti e senzienti, connesse a Internet, che si accendono via smartphone. Sono giocattoli muniti di telecamere, altoparlante e microfono che raccolgono quindi frasi e suoni, sono muniti di sistemi di geolocalizzazione. Si tratta di una tecnologia che può essere applicata in svariati ambiti, fra cui peraltro (con successo) alla cura dei malati di Alzheimer. Le bambole intelligenti potrebbero essere utili, ad esempio insegnando l’inglese ai nostri bambini. Il prezzo? Il rischio di cedere libertà e il dominio sui nostri dati, che vengono trasmessi dalle bambole a server che li conservano e li incrociano a scopi commerciali.

Il rischio di finire nel “tritacarne” dei Big Data è concreto, viste le previsioni di 31 miliardi di oggetti connessi nel 2020 che potrebbero diventare 75 miliardi nel 2025. “Con la crecente diffusione dell’Internet of Things aumenta il rischio privacy e sicurezza – dice Luisa Crisigiovanni, Membro dell’Esecutivo BEUC e segretario Generale di Altroconsumo – tanto più che nel 2016 si sono registrati 4mila attacchi ransomware al giorno, in crescita del 300%. E’ per questo che bisogno tenere puliti i nostri device, assumendo principi di igiene digitale che troppi genitori non conoscono”.

Un esempio per tutti è quello degli smartwatch, dati ai figli dai genitori per seguire i loro spostamenti. Ma troppo spesso affidati indossati dai minori senza tener conto del rischio di geolocalizzazione e hackeraggio, dimenticando che il Gps può essere manipolato da malintenzionati che in qualche modo spiano i minori. “Ma i dati sui percorsi dei bambini registrati sugli smartphone per lo più non vengono cancellati dai genitori”, dice Crisigiovanni, che pur non mettendo in dubbio le potenzialità dei wearables, soprattutto in ambito medico, sottolinea l’importanza fondamentale di gestire e pulire i dispositivi indossati dai figli. Tanto più che a fronte di 125 milioni di wearables venduti annualmente oggi sul mercato se ne prevedono 240 milioni fra quattro anni.

Un caso emblematico è stata nei mesi scorsi la bambola elettronica Cayla, che spiava i bambini, e per questo è stata bandita in Germania e Austria (ma non in Italia, dove è acquistabile online).

C’è poi il problema della scarsissima attenzione degli utenti per le normative di utilizzo delle app (il 91% degli utenti non le guarda nemmeno, il 57% non le legge perché troppo lunghe mentre il 60% sarebbe disposto a cedere i suoi dati personali su compenso).

Per Massimo Sideri, editorialista del Corriere della Sera, “quando si parla di regolamentazione, la tecnologia è un tema sensibile”. I nativi digitali sono contrari a forme di regolamentazione del digitale, che peraltro sono necessarie per “educare” gli utenti all’utilizzo di qualsiasi novità tecnologica (come nel caso della bicicletta, che dopo la sua introduzione sul mercato provocò più di un incidente prima che il suo utilizzo fosse regolato). “L’Internet of Things è una tecnologia ancora molto giovane – dice Sideri – è necessaria una sua maturazione”, ed è per questo motivo che anche la bambola Kayla, bandita da diversi paesi europei per il trasferimento dei dati raccolti trasferiti su server negli Usa (come documentato da un’inchiesta del Garante dei consumatori norvegese), potrebbe trasformarsi in futuro in una killer application “nell’insegnamento dell’inglese ai bambini”, aggiunge Sideri, secondo cui la tutela della privacy non deve essere delegata agli utenti finali, troppo pigri per leggere le prescrizioni delle app prima dell’utilizzo. Per questo serve una regolamentazione forte con sanzioni per gli abusi nel trattamento dei dati personali.

Corpo elettronico e tecnologie indossabili

Visori elettronici, rilevatori del battito cardiaco, microchip sotto pelle per misurare la glicemia, dati sempre aggiornati da condividere con il medico ma anche con il broker assicurativo. Sono infinite le possibilità di declinazione dei Big Data legati all’espansione fisica del nostro corpo, fra smartphone e sensori sottocutanei che registrano tutto di noi.  “Di corpo elettronico parlò per la prima volta, 20 anni fa, Stefano Rodotà, interessato alle possibilità legate ai potenziamenti tecnologici della nostra fisicità”, dice Giovanna Bianchi Clerici, Componente dell’Autorità alzando il velo sulla trasformazione in atto con l’avvento della realtà aumentata e dell’intelligenza artificiale.

Sono sempre di più gli oggetti connessi che portiamo addosso tutti i giorni. Dallo smartwatch allo smartphone, passando per i fitness tracker. Dispositivi con cui si raccolgono quantità crescenti di Big Data, “in grado di dire molto di noi, dei nostri gusti e delle nostre preferenze”, dice Edoardo Fleischner, Docente di Comunicazione crossmediale, Università degli Studi di Milano.  “I Big Data sono il vero oro, stiamo diventando un enorme algoritmo che lascia sciami elettronici” dietro di sé, sempre più emettitori di dati. Per questo, “la privacy da garantire non è quella delle persone, ma quella dello sciame digitale che forniamo”, nella nuova era dell’Internet of Beings.

In questo contesto, l’intelligenza artificiale può effettivamente “distruggere la libertà – dice Francesco Grillo, Docente di economia politica, Università Oxford – e le piattaforme digitali della Silicon Valley, culla della libertà, rischiano (con i loro algoritmi basati proprio sull’intelligenza artificiale ndr) di strozzare l’innovazione e la concorrenza”.

La nuova era dell’Internet of Beings, che di fatto è un passo ulteriore rispetto all’Internet of Things, vede la fusione fra corpo umano e animale e macchina. La potenza di calcolo è sempre più grande, basti pensare che l’iPhone 7 ha 125mila volte la capacità informativa del Mac del 2005.

“L’Internet of Beings può essere anche positiva, visto che ad esempio può azzerare le morti evitabili per infarto – aggiunge Grillo – ma il paradosso di Internet è che la produttività è in calo e l’informatica non sta facendo fare all’economia i progressi che dovrebbe”. Questi problemi, connessi ai Big Data, non si risolvono a livello nazionale e implicano un rimescolamento di competenze fra Privacy e Antitrust. La salvaguardia di questo nuovo corpo, mezzo umano e mezzo elettronico, si garantisce con le medesime tutele.

Maria Elena Boschi ‘La prima sfida è la difesa della sicurezza dei dati’

Il tema della tutela della privacy “pone problemi di carattere culturale e sociale – dice la Sottosegretaria alla Presidenza del Consiglio Maria Elena Boschiche può fare il Governo? Bisogna gestire il presente che è già qui, perché si tratta di un cambiamento digitale che riguarda tutti noi, dal momento che vengono rilevati dati sulla nostra pelle e sui nostri parametri vitali”.

Bisogna quindi garantire l’inaccessibilità dei dati personali degli individui, ma nello stesso tempo bisogna anche capire come i dati possano fornire un contributo (fatto salvo il non utilizzo di algoritmi) di carattere tributario e fiscale. In altre parole, bisogna cogliere le potenzialità economiche dello Stato dall’utilizzo dei Big Data, secondo Boschi, che per quanto riguarda il caso della bambola Kayla pone l’accento sul rischio pedofilia. In generale, per quanto riguarda la tutela dei dati personali, “i cittadini devono essere più consapevoli dei loro diritti”, chiude la Sottosegretaria, secondo cui fondamentale in rete è il diritto all’oblio.

Exit mobile version