Key4biz

I Big Data stanno trasformando l’industria dei media?

Il dibattito odierno, organizzato da Infocivica, ci ha innanzitutto dato conferma di una prima e fondamentale evidenza. Ancora pochi anni fa il tema Big Data interessava quasi esclusivamente l’ambito economico, ed in particolare il settore della pubblicità on-line. La gestione di grandi quantità di dati serviva a profilare masse crescenti di clienti e ad orientare in modo più sofisticato gli investimenti pubblicitari per target e cluster. E’ ciò che chiamiamo “uso primario” dei Big Data.

Da qualche tempo a questa parte ci interessiamo sempre più all’ “uso secondario” di Big Data, un uso che certamente continua a riguardare aspetti commerciali (in tutti gli ambiti merceologici), ma che sconfina sempre più in ambiti che attengono alla sfera politica e sociale. Per un regolatore che si occupa dei mercati della comunicazione, questo è senza dubbio il fronte più coinvolgente perché ha a che fare con quel diritto all’informazione il cui presidio costituisce uno dei tratti fondamentali del suo operare.

Le elezioni americane dell’anno passato hanno portato prepotentemente alla ribalta il rapporto tra web e propaganda, assieme al tema delle notizie false (fake, troll) e delle tecniche invasive per propagarle. Naturalmente non si tratta di fenomeni nuovi e sconosciuti.

Orwell prevedeva il Grande Fratello nel 1984, e ben prima, nel 1928, Edward Bernays (scrittore, pubblicitario e tra i padri della moderna tecnica della relazione pubblica) scriveva “siamo governati, le nostre menti plasmate, i nostri gusti formati, le nostre idee suggerite in gran parte da uomini di cui non abbiamo mai sentito parlare prima”.

La novità dirompente, che non consente comparazioni col passato, è il travolgente cambio di parametro che caratterizza le odierne modalità di trattamento dei dati digitali. È ciò che Erick Lambert poc’anzi sintetizzava nelle tre V: volume, velocità, varietà. Una immensa messe di dati (volumi inimmaginabili solo pochi anni fa); utilizzabili ed elaborabili a velocità crescente, e rappresentabili in formati e modalità sempre più varie e più accattivanti. Questo è ciò che rende i Big Data un fenomeno inedito, con implicazioni straordinarie di ordine economico, culturale, sociale e politico.

Naturalmente, le potenzialità offerte dalle nuove tecniche utilizzate per estrapolare dai dati previsioni in specifiche aree di interesse, fanno dei Big Data un importante e positivo fattore di innovazione e crescita per i mercati, e per la società nel suo complesso. In ambito economico, ciò è riscontrabile soprattutto nei settori legati allo sviluppo dell’Internet delle cose. Non sorprende, al riguardo, che già da qualche anno, a livello comunitario, si parli espressamente di economia data-driven. Lo ha fatto la Comunicazione 2014 della Commissione, Towards a thriving data-driven economy, e, più di recente, la Comunicazione del 2017 “Building a european data economy”. Più in generale, come è stato ricordato stamani, Big Data ha assolto in questi anni (e sempre più assolverà in futuro) un ruolo straordinario ad esempio nell’ambito delle scienze mediche, consentendo comparazioni ed elaborazioni preziose per le diagnosi e le cure.

Tutto ciò non può tuttavia indurre ad ignorare i molteplici risvolti critici connessi al mutamento di parametri e scenari che Big Data comporta. È altrettanto pacificamente riconosciuto, infatti, sia in ambito scientifico, sia a livello istituzionale ed economico, il ruolo guida che i dati – e gli algoritmi utilizzati per processarli – esercitano sui processi decisionali. E con esso, la possibilità – per chi di tali dati dispone liberamente – di interferire sulle scelte quotidiane delle persone a tutti i livelli. Non è infrequente, in ambito sociologico, il ricorso al termine di “datacrazia”, intesa come capacità di governare fenomeni, categorie e gruppi umani attraverso gli algoritmi. Si tratta di una rivoluzione che mette in discussione tradizionali e consolidati paradigmi democratici e che determina, in particolare sulle piattaforme social, fenomeni di contagio emotivo che rappresentano una forma di patologia della comunicazione.

Questo fenomeno del contagio emotivo è particolarmente insidioso quando riguarda il mondo dell’informazione in senso stretto. É in questo ambito che le cd fake news producono i maggiori danni, nella misura in cui “aggrediscono” quel valore pubblico che è il diritto all’informazione

Come ha ricordato il Presidente Agcom, Angelo Marcello Cardani in più occasioni, il dibattito planetario su post verità e fake news ci dice innanzitutto che esiste un problema che ha a che fare con le ragioni fondative di una moderna democrazia. La pervasività delle tecnologie digitali, la disponibilità di ingenti masse di dati elaborabili e utilizzabili a piacimento, la circolarità delle informazioni sul web, il rischio di cannibalizzazione di tutta la filiera informativa tradizionale da parte delle grandi piattaforme digitali, sono tutti fenomeni che mettono in crisi i classici modelli di formazione dell’opinione pubblica e di costruzione del consenso.

In questo contesto, mentre cresce il bisogno di informazione nella società always connected, all’opposto si consuma una crisi economica e di identità senza precedenti dell’industria dell’informazione classica (quanto ai numeri disperanti della crisi strutturale dei giornali quotidiani si rinvia allo studio ASIG Rapporto 2016 sull’industria dei quotidiani in Italia. Quanto agli effetti che tale crisi riversa sulla professione giornalistica si rinvia alle due edizioni dell’Osservatorio Agcom sul giornalismo, nonché all’Indagine conoscitiva della stessa Agcom su Informazione e internet in Italia). Trovare le risposte giuste per reagire a questa duplice contrastante dinamica è una delle grandi domande del presente per un moderno ordinamento democratico, anche perché – lo ribadiamo – con l’entrata in campo in modo massiccio del tema delle fake news sono in gioco (come il dibattito critico scatenatosi all’indomani delle presidenziali americane dimostra) i fondamenti su cui si reggono gli Stati democratici, ovvero l’orientamento dell’opinione pubblica e la costruzione del consenso in forma libera e trasparente.

Non si intende sottovalutare quanto le grandi piattaforme digitali stanno facendo – innanzitutto e comprensibilmente nel loro interesse – per arginare le dinamiche più deteriori. Il continuo aggiornamento e perfezionamento, ad esempio, dell’algoritmo impiegato per la news feed di Facebook, che presiede all’ordinamento ed alla presentazione ad ogni singolo utente dei contenuti che la piattaforma stessa ritiene di suo precipuo interesse, è lavoro complesso e meritorio. Ma ciononostante, e nonostante le molte migliaia di parametri che muovono l’algoritmo stesso, siamo ben lungi dall’avere contezza del fatto che attendibilità, qualità giornalistica e, soprattutto, rilevanza in termini di public interest del contenuto/notizia, siano in cima alle preoccupazioni dell’intelligenza artificiale che presiede ai meccanismi di gerarchizzazione. Un (ormai) vecchio studio del 2014 ad opera di Philip Napoli, un ricercatore della Rutger School of Communication and Information di New Brunsvick (New Jersey), metteva in luce che i parametri fondamentali utilizzati per mostrare ad un utente contenuti ritenuti di suo interesse fossero la prossimità (e dunque i post degli amici), e l’engagement ottenuto dagli stessi (e quindi like, condivisioni, commenti). Le comunicazioni più recenti della stessa Facebook non inducono a ritenere che questa modalità di gerarchizzazione abbia subito stravolgenti modifiche, cosa che peraltro appare anche del tutto comprensibile e ragionevole nell’ottica della filosofia della piattaforma.

Il problema è che ai tempi di trionfo del web, la quantità di dati, fatti o informazioni suscettibile di assumere valore di notizia, ha proporzioni astronomiche. E, come molte ricerche ci ricordano, di questa immensa mole di informazioni, la più larga parte è destinata a cadere nell’oblio. In un bel volume del 2015 curato da Franco Pizzetti e dedicato al tema “Internet e i diritti della persona”, un giovane studioso, Giuseppe D’Acquisto, ci ricorda, studi e stime alla mano, che il 90% dell’informazione che ci bombarda quotidianamente, è praticamente buttata via. Che del 9% di essa facciamo un uso estemporaneo e caduco. E che, in definitiva, solo l’1% di questa immensa quantità di dati e notizie che intercettiamo quotidianamente, entra permanentemente nella nostra memoria. Di fronte a dati del genere – e a quelli che del pari ci informano dell’uso crescente della rete e dei social quali strumenti di informazione alternativi e sostitutivi dei mezzi classici – non può che generare preoccupazione il fatto che siano gli algoritmi delle grandi piattaforme digitali a gerarchizzare, e in definitiva a decidere, almeno per la stragrande maggioranza dei propri utenti, quale sia questo 1% di notizie su cui valga la pena soffermarsi.

Ma c’è di più. Queste specifiche modalità di distribuzione delle news attraverso le piattaforme digitali, non solo sono suscettibili di determinare sostanziali modifiche nelle dinamiche che presidiano alla formazione e all’orientamento dell’opinione pubblica. Il che già basterebbe di per sé a creare allarme. Esse, con i propri meccanismi di gerarchizzazione e personalizzazione dei contenuti, agiscono anche –  per loro intrinseca natura – da fattore di impoverimento e semplificazione di quel complesso di opinioni e punti di vista che caratterizzano il dibattito pubblico, determinando quel fenomeno di “echo chambers”, particolarmente indagato da tempo da alcuni giovani accademici e, più di recente, da veri e propri laboratori universitari italiani e internazionali (si veda in particolare Quattrociocchi – Vicini, Misinformation. Guida alla società dell’informazione e della credulità, Franco Angeli, 2016).

Il fenomeno è noto nelle sue grandi linee: a predeterminate categorie di utenti sono presentate in maniera amplificata soltanto le notizie che già riflettono le opinioni e le tesi politiche che esse abbiano manifestato di preferire, in ragione delle notizie da esse stesse selezionate in precedenza o in virtù di altri parametri di personalizzazione elaborati sulla base dei Big Data. Da qui a modellare una società civile intesa a dialogare e scambiare punti di vista solo all’interno di cerchie ristrette di amici e sodali, il passo – almeno nel medio termine – non è troppo lungo.

Tutto questo, naturalmente, ha molto a che fare con i compiti e le competenze di una Autorità di regolamentazione che ha nella sua carta di identità e nella sua mission il compito di vigilare sulla attuazione dell’articolo 21 della Costituzione. Questa prospettiva di analisi – più che le chiavi di lettura offerte dal diritto della concorrenza e dalla tutela della privacy – incrocia infatti tematiche e campi d’azione tipici della sua ragion d’essere. Si pensi in primis al tema della tutela del pluralismo informativo e della libertà di espressione, ma poi anche ai temi della tutela della dignità della persona, della protezione dei minori, delle discriminazioni.

In altri termini, a me sembra che le competenze di Agcom su questi fronti siano di tale respiro strategico da modellare, in certa misura, anche gli interventi delle altre Autorità sul tema Big Data in settori altrettanto cruciali quali la tutela della privacy e la tutela della concorrenza.

Naturalmente, sempre che si sappia cogliere fino in fondo il carattere straordinariamente innovativo e dirompente dei fenomeni che abbiamo davanti. Un cambio di parametro e strumentazione che coinvolge tutti. Se pensiamo ad esempio al tema Big Data in relazione alle regole della concorrenza, riscontriamo ormai una diffusa consapevolezza circa il fatto che i paradigmi tradizionali non bastano più a leggere e a sistematizzare le sollecitazioni innescate dalla realtà in atto. Google, Apple, Facebook, Amazon, Intel, Microsoft, si impongono come monopolisti, anche quando la loro posizione non corrisponde perfettamente al modello consueto di chi controlla saldamente un mercato. E la stessa definizione classica di mercato rilevante è ormai sottoposta a una rigorosa lettura critica da parte di autorevoli studiosi (si veda ad esempio Roberto Pardolesi, prefazione a Concorrenza e comportamenti escludenti nei mercati dell’innovazione, Il Mulino, 2016).

Differenti per loro natura, ma non dissimili per complessità, sono i dilemmi che si pongono innanzi alle Autorità che presidiano il settore della comunicazione. Da questo specifico punto di osservazione il tema centrale, come ho cercato di dire finora, mi sembra riassumibile nei termini seguenti: come la rivoluzione digitale, l’esplosione delle app, la gestione dei Big Data e l’evoluzione dei motori di ricerca interferiscano sui tradizionali principi di pluralismo (equilibrio e trasparenza delle informazioni, verificabilità delle fonti), e in che misura (e con quali conseguenze), le grandi piattaforme digitali, con il loro potere di condizionamento, si candidano  a formare e ad orientare in modo determinante l’opinione pubblica nelle sue più disparate manifestazioni (preferenze politiche, tavole valoriali, propensione ai consumi, ecc). Del pluralismo dell’informazione si è detto in abbondanza. Ma su altro piano, se Google, Facebook e Amazon, dominano sempre più i mercati, come non interrogarsi sui costi sociali di un fenomeno che – nel controllare la creazione stessa dell’informazione commerciale – finisce per condizionare pesantemente le attitudini, l’orientamento, i bisogni e le scelte dei consumatori?

Ci sono almeno due direttrici di particolare interesse.

La prima concerne il grado di neutralità e di trasparenza degli algoritmi, sia con riferimento alle operazioni di gerarchizzazione e di indicizzazione delle news, sia con riguardo alla connessa potestà di indurre i cittadini a determinati comportamenti (acquisti, stili di vita, opinioni). Gli algoritmi, come ogni costruzione dell’uomo – per quanto in questo caso si tratti di una costruzione presidiata da una raffinatissima intelligenza artificiale – non saranno mai neutrali, direi per definizione. Se questo è vero, il fronte di lavoro su cui ha senso impegnarsi è quello della trasparenza. Garantire un’adeguata trasparenza del modus operandi degli algoritmi e, per tale via, dei meccanismi che presiedono, ad esempio, alla formazione dei suggerimenti che la rete fornisce, ovvero dei margini di errore che il calcolo probabilistico determina, appare obiettivo qualificante di una efficace azione regolamentare. Si tratta di uno dei focus più avvincenti dell’Indagine conoscitiva Agcom, tuttora in corso, su Piattaforme digitali e sistema dell’informazione.

La seconda direttrice, di grande rilievo strategico sotto il profilo politico e sociale, chiama in causa un dilemma classico: se l’immensa galassia Big Data debba continuare ad essere circonfusa, in tutta la sua consistenza, da un’aura di intangibilità in nome del diritto dell’impresa e del segreto industriale; ovvero esista una porzione più o meno rilevante di questi dati che si configurano come bene pubblico, e che, in quanto tale, debbano essere trasparenti e accessibili.

Si tratta di prospettive d’indagine complesse, che coinvolgono più discipline e più livelli di responsabilità. Ecco perché, dal punto di vista istituzionale, serve cooperazione e concorso di specialismi. E’ certamente questa la ragione che ha indotto all’inizio di questa estate l’Autorità per le garanzie nelle comunicazioni, l’Autorità garante della concorrenza e del mercato e il Garante per la protezione dei dati personali ad avviare una Indagine conoscitiva congiunta il cui obiettivo è studiare le criticità connesse all’uso dei Big Data e definire un possibile quadro di regole in grado di tutelare e promuovere il pluralismo nell’ecosistema digitale, nonché di promuovere la protezione dei dati personali, la concorrenza dei mercati dell’economia digitale e la tutela del consumatore.

Non si tratta evidentemente né di contrastare né di esorcizzare i fenomeni innescati dalla rivoluzione digitale. Si tratta semplicemente di interrogarsi su come disciplinarne gli aspetti suscettibili di una qualche forma di regolamentazione. E di avviare anche una grande stagione di co-regolamentazione. Si tratta di capire che le vecchie regole sono sempre meno utilizzabili. Si tratta di promuovere un approccio aggiornato, innovativo, organico, multidisciplinare, che veda tutte le istituzioni interessate – e le stesse aziende coinvolte – impegnarsi in uno sforzo comune, alla ricerca di risposte niente affatto semplici ai problemi che i nuovi mercati digitali e il fenomeno Big Data pongono, a tutti, ed a tutti i livelli.

Exit mobile version