Key4biz

Democrazia Futura. Perché l’oligopolio di Big Tech è insopportabile

Proseguendo in questo numero le sue analisi sul caso americano già affrontate nel numero zero di Democrazia futura, Arturo Di Corinto, partendo dal motore di ricerca di Google e dal suo sistema di navigazione Chrome, in un pezzo ricco di esempi che non risparmiano nessuno, spiega le ragioni per le quali definisce “l’oligopolio di Big Tech” (e non delle Big Tech, come se si trattasse in realtà di una monade e non di un composito sistema di aziende e di App operanti in un libero mercato) sia ormai del tutto insopportabile, in assenza di sovranità dei dati, algoritmi e profilazioni destinati a produrre disinformazione.

Google sa tutto di noi. Se facciamo una ricerca in rete Google sa che parola chiave abbiamo usato e se abbiamo cliccato o no sul banner pubblicitario di Adsense. Da quella semplice keyword sa se siamo preoccupati del Covid o se cerchiamo una clinica oncologica. Google sa che siti abbiamo visitato e se abbiamo usato il suo indirizzo Gmail per “loggarci” su un certo sito. Questo vale per i siti erotici come per l’accesso ai siti di giornalismo investigativo. Se la ricerca ci porta su YouTube è in grado di suggerirci i video da vedere favorendo i video simili a quelli che abbiamo già cliccato e presentarci dei contenuti razzisti anziché storie di solidarietà quotidiana.

Mentre navighiamo con il suo browser, Chrome, Google raccoglie le informazioni relative alla nostra permanenza su ciascun sito: sa da dove siamo partiti e dove siamo arrivati durante la nostra sessione di web surfing. Se però ce ne andiamo in giro, a piedi o in macchina, e usiamo Google Maps, saprà ancora più cose: da dove partiamo e dove andiamo, se quel percorso è ripetuto e frequente, quanto tempo ci mettiamo per arrivare e se ci siamo fermati a fare shopping presso un negozio identificato sulla mappa.

Queste informazioni che Google raccoglie incessantemente sono scritte con la penna, non con la matita, e sono destinate a rimanere archiviate per successive analisi di mercato. Google lo dichiara apertamente: tutte le informazioni che raccoglie su di noi servono a migliorare i suoi servizi e a produrre annunci e risultati personalizzati in base alle nostre ricerche, anche a favore dei suoi clienti. In cambio di qualche comodità abbiamo così barattato la nostra privacy, quell’elemento della vita associata che ci permette di nasconderci all’occhio inquisitore degli altri garantendoci il diritto a essere imperfetti. È così che il diritto a non essere valutati e sorvegliati si ferma alle porte di Google. Perché Google sa di noi anche quello che non ci ricordiamo più: dove siamo stati, con chi, per quanto tempo, e quello che abbiamo fatto.

Google è una potenza il cui fatturato è superiore a quello di nazioni intere, ed è più avanti di molti governi nello sviluppo di computer quantistici e delle intelligenze artificiali che ci sostituiranno nel lavoro.

Anche Zoom ci spia. La piattaforma per videoconferenze tanto in voga durante la quarantena passa(va) le nostre informazioni a Facebook. WhatsApp, invece, ci chiede di accettare la condivisione dei dati che generiamo usando l’app con la casa madre, Facebook, se vogliamo continuare a usare i suoi servizi. Niente di scandaloso, direte, lo stesso vale per altre app, siti e software che grazie ai dati generati dalle nostre interazioni creano profili statici e dinamici, singoli o aggregati, della nostra persona digitale, quella che ci precede nelle interazioni online e che viene usata da Amazon per decidere il prezzo da proporci quando navighiamo tra i suoi prodotti.

Il capitalismo delle piattaforme in fondo fa proprio questo: estrae valore dalla profilazione degli utenti e dal data mining dei nostri comportamenti online. In questo modo le aziende sanno con precisione che cosa offrirci, quando, dove e a quale prezzo, sapendo già cosa siamo propensi a desiderare. Il loro modello di business è basato sulla conoscenza dei soggetti isolati e iperconnessi che più tempo passano con i loro software gratuiti più facilmente manifesteranno desideri, fragilità e sentimenti da soddisfare con un’azione: postare, condividere, cliccare, comprare. Ogni click diventa l’occasione per arricchire il nostro profilo psicometrico, venderlo al migliore offerente, anche per le campagne politiche. È così che Trump ha vinto.

La colpa di un uso così disinvolto dei dati è anche nostra. Non abbiamo ancora capito il valore della nostra presenza online. I dati che generiamo quando siamo online indicano dei comportamenti e, in una società digitale, questi comportamenti sono trasformati in dati digitali. Il trattamento dei dati digitali consente di interpretate e spiegare i comportamenti passati ma anche di predire i comportamenti futuri. È così che i nostri dati vengono resi “produttivi”. Siccome quei dati possono essere venduti e comprati, le piattaforme ci offrono gratis i loro servizi. Ma quei servizi li paghiamo con i nostri dati. Quando non paghi qualcosa il “prodotto” sei tu.

I Dati

Noah Yuval Harari, storico, ha dettoLa gente è felice di elargire la propria risorsa più preziosa – i dati personali – in cambio di servizi di posta gratuiti e video di gattini. Un po’ come è accaduto agli africani e agli indiani d’America che hanno venduto grandi territori in cambio di perline colorate”(1).

I dati sono l’oro e il petrolio dell’umanità connessa e dalla loro corretta gestione dipendono i gradi di libertà delle scelte quotidiane. E allora perché siamo pronti a darli via solo per partecipare a sonore litigate su Facebook, farci buggerare via email da rapinatori digitali e tracciare da poliziotti zelanti con app pensate per i criminali?

La verità è che nella gestione della propria presenza online si rivela quel pericoloso divario digitale che ancora oggi, a 30 anni dall’invenzione del Web, riflette antiche disuguaglianze: tra chi è capace di controllare, difendere e rivendicare la tutela dei suoi dati e chi non è in grado di farlo.

Potremmo sbrigarcela dicendo che con gli smartphone always on e le app a prova di incapace abbiamo messo armi potentissime in mano ad adulti che si comportano come bambini che bisticciano, tifano, si mostrano crudeli verso gli altri, dimentichi di ogni forma di empatia. Ma non possiamo.

Questa ignoranza digitale indirizzata dal mercato è il frutto di vari fattori: la diffusione su scala globale di personal media sempre più potenti, maneggevoli ed economici; un sapere comunicativo diffuso promosso da scuole e università; l’iperconnessione religiosa ai social; l’avvento della me-communication, la “comunicazione autoriferita”, come la chiama il sociologo Manuel Castells (2).

Pilotata dai signori delle piattaforme che oggi sono i signori dei dati, l’ignoranza digitale ha generato secondo Paul Mason (3) un nuovo Feudalesimo digitale che divide il mondo in due, tra chi produce gratuitamente questi dati e chi li raccoglie e mette a profitto.

La raccolta, l’organizzazione e l’utilizzo dei dati sono al centro di quello che David Harvey (4) ha chiamato il capitalismo estrattivo delle piattaforme (5) che, conoscendo le più intime inclinazioni, il sentiment, dei propri utenti, sono in grado di anticiparne mosse e desideri affinché continuino a produrli. Prodotti e trattati da algoritmi potenti, con le metodologie delle scienze sociali (la psicometria), diventano il carburante per le intelligenze artificiali che ci sostituiranno (già lo fanno) in compiti complessi per i quali una volta si veniva remunerati e campavano le famiglie.

La violazione dei dati realizzata da Cambridge Analytica per cui Facebook è stata multata, rientra in questo schema: se conosco gli orientamenti politici del produttore di dati – e lo so in base ai like che ha messo – sarò in grado di cucirgli addosso un messaggio che non potrà rifiutare. Il messaggio andrà a rinforzare le sue convinzioni preesistenti e gli stenderà intorno un “cordone sanitario” affinché non acceda a contenuti che le possano mettere in discussione (6).

I termini di servizio della nostra vita onlife

Quando ci iscriviamo a un sito, scarichiamo un’app o usiamo un servizio Internet, in genere ci viene richiesto di accettare i «Termini di servizio», i ToS, che indicano come i nostri dati sono raccolti e usati. La maggior parte delle volte non li leggiamo, semplicemente perché non ne abbiamo il tempo e la voglia, ma soprattutto perché non li capiamo, visto che sono scritti in … legalese. Eppure è così che perdiamo così il controllo dei dati che ci identificano come cittadini, lavoratori e consumatori. Quei dati infatti verranno utilizzati per creare dei profili dettagliati dei nostri comportamenti e verranno commerciati per usi che non sempre conosciamo.

Ad esempio i ToS di Facebook e di Amazon dicono che i nostri dati sono usati per tracciare il nostro comportamento su altri siti. LinkedIn, di proprietà di Microsoft, raccoglie, usa e condivide i dati di geolocalizzazione e Instagram ci mette il copyright. I termini di servizio di Reddit, Yahoo e WhatsApp dicono che usandoli accettiamo «di difendere, indennizzare e sollevare il servizio da ogni responsabilità in caso di reclamo». Quasi tutti prevedono che gli stessi termini possono essere modificati in qualsiasi momento a discrezione del fornitore, senza preavviso per l’utente.

Nel suo “Data Manifesto” Kevin Kelly, tecnologo e co-fondatore della rivista Wired, dice che i dati «non esistono da soli», ma che hanno valore solo se messi in relazione ad altri dati e che solo circolando diventano una risorsa condivisa. Per questo possono risentire della tragedia dei beni comuni, cioè di un’egoistica azione di appropriazione – come quando un privato recinta un pezzo di parco pubblico – da parte delle piattaforme e pertanto vanno protetti dai governi (7).

I dati infatti sono un bene comune perché, sulla base dei dati raccolti, possiamo costruire una società migliore. I dati che noi produciamo incessantemente attraverso l’interazione con i dispositivi e le piattaforme digitali, rappresentano comportamenti quotidiani e possono essere una base di conoscenza importante per sviluppare politiche efficaci, servizi utili alle persone e nuovi prodotti. I dati, anonimizzati e aggregati, possono servire a migliorare la capacità di uno Stato di rispondere alle esigenze dei propri cittadini.

Due esempi. Se noi abbiamo i dati, anonimi e aggregati, dei pazienti ospedalieri, probabilmente saremo in grado di pianificare meglio le risorse sanitarie necessarie a garantire la salute pubblica. Già viene fatto, pensate agli sforzi di raccolta e analisi dei dati epidemiologici.

Se abbiamo i dati di quanti e quali attacchi cibernetici ci sono stati negli ultimi anni, saremo sia in grado di anticipare nuovi attacchi che di imparare a difenderci. Quindi, il dato inteso come bene comune è questo: è un dato che può essere utilizzato in maniera utile dagli Stati per consentire una migliore qualità della vita delle persone e garantire diritti all’altezza delle democrazie in cui vogliamo vivere.

Il Gdpr, il Regolamento europeo generale sulla protezione dei dati prevede, in caso di grave violazione dei database, la comunicazione diretta ai singoli interessati entro 72 ore, pena multe salatissime, fino a 20 milioni di euro e al 4 per cento del fatturato annuo aziendale. Le sanzioni possono essere un deterrente, ma in genere non lo sono per i grandi player della rete. Perciò anche noi dobbiamo fare la nostra parte e capire se, quando e come ci conviene cedere i nostri dati.

Sovranità dei dati

Questo fatto ci introduce al rapporto stretto che intercorre tra la privacy e la cybersecurity, la sicurezza informatica. Il motivo è semplice da capire: in un mondo digitale i dati che identificano i nostri comportamenti sono digitalizzati; se non riusciamo a tutelare questi dati digitali, non riusciamo a tutelare i nostri comportamenti. In particolare non riusciamo a tutelare i comportamenti passati dalle tecnologie che li possono spiegare e dalle tecnologie che li possono predire. I dati personali sono uno strumento di intelligence. Pensiamo alle massive violazioni di basi di dati personali usati per orientare il comportamento delle persone, Con i dati ormai ci si fa la “guerra”. In un mondo in cui ogni comportamento viene datificato diventando un dato digitale, proteggere quei dati che rimandano ai comportamenti quotidiani è cruciale, lo ripetiamo, proprio per la loro capacità di spiegare i comportamenti passati e di predire quelli futuri. Se non riusciamo a proteggere i dati che ci definiscono come cittadini, elettori, lavoratori, e vicini di casa, potremmo essere esposti a un potere incontrollabile, quello della sorveglianza di massa, della manipolazione politica e della persuasione commerciale (8). La sovranità sui dati che produciamo è insomma la precondizione per esercitare il diritto alla libertà d’opinione, d’associazione, di movimento, e altri diritti altrettanto importanti.

Algoritmi e disinformazione

I dati raccolti dalle piattaforme sono usati per creare profili individuali e collettivi.

Questa profilazione può essere usata per comunicazioni mirate e geolocalizzate, anche durante le elezioni. La logica qui è doppia: se so chi sei, so quali contenuti farti vedere. Se conosco le tue scelte passate sono in grado di mostrarti solo le notizie che sei pronto a cliccare. Ogni click dice quali sono le nostre preferenze culturali e politiche, proprio quelle che sono collezionate nei giganteschi database che i padroni dei dati come Google, Amazon e Facebook usano per definire i nostri profili sociali, economici, ed elettorali.

Una manovra a tenaglia: prima la profilazione e l’esposizione alle fake news per polarizzare l’elettorato, poi il messaggio politico ritagliato ad hoc sotto forma di una comunicazione nominativa, diretta a una moltitudine di singoli elettori, ai quali viene recapitata in maniera ripetuta un’informazione specifica e coerente con il proprio profilo psicologico ed elettorale. Nell’era di Internet la disinformazione fa largo uso delle fake news e la sua viralità approfitta soprattutto di Facebook, Google, Instagram fino a WhatsApp, piattaforme che agiscono da potenti casse di risonanza per i nostri pregiudizi, soprattutto quando sono veicolati da chi ci fidiamo di più: amici e conoscenti.

Sappiamo che le strategie di disinformazione si basano sulla manipolazione delle percezioni. Per questo la disinformazione è un’arma usata per indurre l’avversario a fare le scelte sbagliate.

Le fake news oggi sono la testa d’ariete di queste strategie di disinformazione e servono a farci “comprare” quello che altri hanno deciso che ”vogliamo” comprare: uno shampoo, una strategia, oppure un candidato politico.

La propaganda computazionale

Una volta le campagne di disinformazione bersagliavano i decisori – funzionari pubblici di alto livello, i politici, i giornalisti affermati, i funzionari dello Stato -, oggi queste campagne di disinformazione sono dirette a manipolare quella forma larvale di dibattito pubblico che c’è sui social network (9).

Come si produce tutto ciò? Agendo attraverso la propaganda computazionale che sfrutta i social media e la credulità di chi li abita, la psicologia umana che non distingue la realtà dalla finzione, le voci e i pettegolezzi tanto cari ai cospiratori e gli algoritmi per manipolare l’opinione pubblica. È così che funzionano i dark ads: messaggi promozionali a pagamento diretti solo a specifici indirizzi o territori.

Una tecnica propagandistica salita prepotentemente alla ribalta durante la corsa alla Casa Bianca del 2016, nella direzione della soppressione del voto democratico afroamericano (10), ma che ha degli antenati ‘illustri’ nelle psy-ops, le operazioni di guerra psicologica condotte da eserciti rivali per demoralizzare le truppe avversarie, influenzare il sentiment della popolazione e disorientare i governi (11).

Degooglizzare la vita

Per tutti questi motivi è importante proteggere i nostri dati digitali, anche imparando a capire se, come e quando ci conviene offrirli alle grandi piattaforme. Ma una cosa va capita una volta per tutte: i nostri dati vanno protetti per proteggere la riservatezza dei nostri comportamenti: come, quando, con chi ci colleghiamo, ci amiamo, facciamo affari. Informazioni utili agli stati autoritari, a un parente geloso, a un concorrente sleale. I dati ci definiscono come buoni o cattivi consumatori, buoni o cattivi lavoratori, buono i cattivi vicini di casa. I dati indicano i nostri comportamenti sociali.

Per questo sono più che mai necessarie leggi ad hoc che minimizzino la raccolta e il trattamento dei dati anche in situazioni emergenziali, ad esempio per la salvaguardia della salute pubblica, della sicurezza nazionale, ed è urgente farlo, perché in tempo di crisi i governi sono sempre tentati di limitare le libertà fondamentali introducendo nuove forme di sorveglianza, sia perché i cambiamenti di oggi potrebbe essere destinati a rimanere domani. In ogni caso una volta presa la decisione di raccogliere massivamente i dati che ci identificano e categorizzano, ad esempio ai fini del contenimento della pandemia da Coronavirus, bisogna comunicare con la massima trasparenza l’uso che verrà fatto dei nostri dati e una volta terminata la necessità di usarli, vanno distrutti.

La scelta in questo caso non è tra la salute e la privacy, ma tra la possibilità di essere curati nel rispetto dei propri diritti ed essere curati nella totale mancanza di rispetto dei diritti. Poi, finita la fase dell’emergenza potremo tornare a ragionare sull’uso dei software adottati nelle scuole, per lo smart working e per l’intrattenimento. Le aziende che divorano i nostri dati, li usano per raffinare i prodotti che ci offrono prima gratis, poi a pagamento. Esistono infatti molte alternative al mondo del software proprietario e commerciale che evitano di inviare in paesi stranieri, con ridotta protezione della privacy, i nostri dati personali e l’esito di ogni interazione elettronica. Degooglizzare la nostra vita non è facile, ma è importante gestire in maniera consapevole i dati prodotti. Proteggere i nostri dati, usando strumenti a prova di privacy, pretendendo la sovranità sui nostri comportamenti digitali, è fondamentale. Non sappiamo infatti che uso potrà esserne fatto. Stavolta ci viene in aiuto anche la Commissione Europea con il Digital Services e il Digital Markets Act, bisognerà vigilare affinché servano a quello che dicono, e cioè a definire una strategia europea di governo dei dati a favore dei cittadini e non delle multinazionali.

Note al testo

(1)Noah Yuval Harari, 21 Lezioni per il XXI secolo, Milano, Bompiani, 2018. Edizione originale: 21 Lessons for the 21st Century, London-New York, Vintage Publishing, 2018, 524 p.

(2) Manuel Castells, Comunicazione e Potere. Milano, Università Bocconi, 2009 , XXVIII-665 p. Seconda edizione Milano, Egea, 2017, LXVI-665 p. Edizione originale. Communication power, Oxford, Oxford University Press, 2009, XVII-571 p.

(3) Paul Mason, Il Futuro migliore. In difesa dell’essere umano: manifesto per un ottimismo radicale, Milano, Il Saggiatore, 2019, 409 p. Edizione originale: Clear Bright Future: A Radical Defence of the Human Being, London, Penguin Books, 2018, 368 p.

(4) Sulla teoria sull’accumulazione senza espoliazione (“accumulation by dispossession”) si veda David Harvey, La guerra perpetua. Analisi del nuovo imperialismo, Milano Il Saggiatore, 2006, 223 p. Edizione originale The new Imperialism. Oxford, Oxford University Press, 2003, IX-253 p. Si vedano anche dello stesso autore David Harvey, L’enigma del capitale e il prezzo della sua sopravvivenza, Milano, Feltrinelli, 2011, 311 p. Edizione originale: The enigma of capital and the crises of capitalism, London, Profil, 2010, VIII-296 p. David Harvey, Città ribelli: i movimenti urbani dalla Comune di Parigi a Occupy Wall Street, Milano, Il Saggiatore, 2013, 212 p. Edizione originale. Rebel cities: from the right to the city to the urban revolution, London-New York, Verso, 2012, XVIII-187 p.

(5) Si vedano altresì Carlo Formenti, Cybersoviet. Utopia postdemocratiche e nuovi media, Milano, Raffaello Cortina editore, 2008, XXIV-279 p.  e Shoshana Zuboff, The Age of Surveillance Capitalism. The Fight for a human Future at the new Frontier of Power, Campus,2018. Traduzione italiana: Il capitalismo della sorveglianza. Il futuro dell’umanità nell’era dei nuovi poteri, Roma, Luiss University Press, 2019, 622 p.

(6) Walter Quattrociocchi, Antonella Vicini, Liberi di crederci: informazione, interne e post-verità, Torino-Roma, Codice – Le Reti, 2018, 142 p.

(7) Kevin Kelly]“Data Manifesto”, The Technium, 24 aprile 2019. Cfr. https://kk.org/thetechnium/data-manifesto/

(8) David Lyon, L’occhio elettronico, L’occhio elettronico : privacy e filosofia della sorveglianza, Milano, Feltrinelli, 1997, 327 p. Edizione originale: The electronic eye : the rise of surveillance society, Cambridge, Cambridge Polity Press, 1994, X-270 p.

(9)Nicola Cristadoro, La dottrina Gerasimov, : la filosofia della guerra non convenzionale nella strategia russa contemporanea, Roma, Libellula, 2018, 237 p.

(10)Christopher Wilye, Il Mercato del consenso: come ho creato e poi distrutto Cambridge Analytica, Milano, Longanesi, 2019, 332 p. Edizione originale Mindf*ck: Inside Cambridge Analytica’s Plot to Break the World, London, Profile Books, 2019, 288 p.

(11) AA.VV. Disinformazione e manipolazione delle percezioni: una nuova minaccia al sistema-paese, a cura di Luigi Serio Germani, Roma, Eurilink, 2017, 154 p.

Exit mobile version