Social network

BreakingDigital. Edicola globale: tutti i rischi dell’algoritmo ‘unico’

di Michele Mezza, (docente di Culture Digitali all’Università Federico II Napoli) - mediasenzamediatori.org |

L'intera economia del mondo è oggi condizionata dalle forme e dai linguaggi delle decisioni automatiche. Lo stesso processo vale adesso anche per le notizie distribuite dai giornali sui social network

Siamo nei primi 5 secondi di una lunga storia. Siamo a cinque giorni dal lancio di Instant Articles, la nuova soluzione che permette a Facebook, in accordo sperimentale con alcune grandi testate globali, come il New York Times, il Guardian e anche integratori di news come Buzzfeed, di distribuire le notizie dei giornali direttamente sul flusso delle nostre pagine mentre siamo a chattare sul social network.

BreakingDigital, rubrica a cura di Michele Mezza (docente di Culture Digitali all’Università Federico II Napoli) – mediasenzamediatori.org. Analisi e approfondimenti sul mondo dei media e del digitale, con particolare attenzione alle nuove tendenze della galassia multimediale e dei social network. Clicca qui per leggere tutti i contributi.

Per risparmiare 8 secondi – sono quelli necessari a passare da un link all’altro nella navigazione fra le notizie dei vari giornali – si centrifuga tutto in un unico flusso governato da un unico algoritmo.

Ne abbiamo già parlato in riferimento ai possibili effetti sul giornalismo: è una svolta epocale, che chiude una lunga fase, quella iniziata con l’invenzione della stampa e ne apre un’altra di cui siamo testimoni proprio della fase iniziale.

Il Breaking Digital di questa settimana adotta il metodo della convergenza digitale per analizzare il fenomeno, sovrapponendo ai ragionamenti sulle nuove forme di informazione biodegradata nel flusso veloce di Facebook e la discrezionalità che lo stesso social network si prende nel distribuirci queste notizie, in base ai profili che si è creato di ognuno di noi.

Sul numero di Science del 7 maggio è stato pubblicato un lungo studio apparentemente tecnico, dal titolo ‘Esposizione a notizie e opinioni ideologicamente varie su Facebook’.

In sostanza, si è misurato come su un vasto campione, circa 10 milioni di utenti del social network, agisca la discrezionalità dell’algoritmo di Mark Zuckerberg nel dare ad ognuno quello che è bene che ognuno veda e sappia. Messa così, si intuisce che siamo al centro di un’azione di manipolazione al cui confronto il sociologo e giornalista Vance Packard, con i suoi persuasori occulti del 1957, sembrano dei boy scout che facevano attraversare la strada alle vecchine.

Ma proprio la storia iniziata nel cuore degli anni ‘50 in seguito alla prima esplosione della televisione di massa deve insegnarci che non è possibile lanciare crociate ideologiche. Come allora, anche oggi non siamo parte di congiure da Beati Paoli, in cui alcuni misteriosi personaggi determinano il modo di pensare e di comprare del mondo.

Siamo però, esattamente come allora, all’inizio di una dialettica di nuovi poteri che se non sono riconosciuti e riconoscibili, perfino se fossero del tutto neutri, e (come vedremo) non lo sono, sarebbero comunque pericolosi, come del resto lo sono tutti i poteri che agiscono, consapevolmente o meno, nell’ombra.

Infatti, le considerazioni della ricerca pubblicata da Science, combinate con i ragionamenti che stanno prendendo forma sul destino dell’opinione pubblica al tempo di Facebook come edicola globale, ci porta ad una sola considerazione: come sostiene Frank Pasquale nel suo saggio “The black box Society”, l’autorità è espressa sempre più in termini di algoritmi. Lo abbiamo già visto con i primi grandi calcolatori negli anni ‘50, che hanno imposto una logica allo sviluppo dell’informatica, tutta centralizzata e verticale.

Una logica del tutto opzionale e parziale, che non aveva nulla di oggettivo e tanto meno di neutro, come dimostrò, fin troppo clamorosamente, Adriano Olivetti che negli stessi anni dei grandi calcolatori IBM, diede vita alla straordinaria esperienza del Programma 101, il primo personal computer che apriva la strada al decentramento della potenza di calcolo all’individuo.

Quell’esperienza fu stroncata in pochi mesi e si concluse, dopo la morte dello stesso Olivetti, con la “confisca” della divisione elettronica del gruppo informatico italiano da parte della General Electric. Quella era la fase che accompagnava la guerra fredda e supportava la militarizzazione della prima scienza digitale.

Successivamente, si passò alla fase dell’informatica di consumo, per affiancare il processo di superamento dell’industrializzazione di massa e di quella che Giuseppe De Rita chiama la “cetomedizzazione della società”. Siamo a metà degli anni ‘70 e la privatizzazione degli algoritmi diventa la premessa dei grandi imperi come Microsoft e successivamente Apple.

Anche qui nulla di inesorabilmente inevitabile. Come poco dopo fu dimostrato dall’avvento dell’open source e di una nuova ondata che vedeva al centro non gli oggetti informatici ma le relazioni, con il disegno della rete e poi delle forme di socializzazione relazionale che furono avviate prima da Google e poi da Facebook.

Motore di questo processo rimane l’algoritmo, ossia quella formula di istruzioni finalizzata a risolvere un problema e ad assicurare un risultato. Automatico.

Il campo di scorreria e laboratorio di applicazioni di questo potere misterioso per larga parte degli anni ‘90 fino ad oggi è stato il mercato finanziario, con il cosiddetto high frequency trading, ossia quell’insieme di gigantesche transazioni azionarie, condotte praticamente in real time direttamente da algoritmi. L’intera economia del mondo è oggi condizionata dalle forme e dai linguaggi delle decisioni automatiche.

E’ questo l’esempio che prefigura quella che oggi si paventa come dittatura di un solo algoritmo. Infatti perfino negli Usa, rispetto all’ingovernabilità e all’opacità del mercato finanziario automatizzato, si comincia a chiedere interventi normativi prescrittivi.

Ora proviamo a ragionare sulle prospettiva di una configurazione del modello informativo basato prevalentemente sulla discrezionalità di Facebook nell’attribuire ad ognuno dei suoi utenti, circa 1 miliardo e mezzo, in virtù del profilo e dell’identità digitale che si determina dall’analisi dei big data operata dall’algoritmo del social network, le notizie del giorno. Ognuno di noi vedrà, in diretta in ogni vigilia di decisione, quelle notizie che Facebook considererà “pertinenti”, in un unico  ed esclusivo flusso, diverso da tutti gli altri.

Un’azione distributiva che si baserà esattamente sulla distorsione che l’indagine che abbiamo citato prima su un amplissimo campione, riportata da Science, individua come “progressivamente” manipolatoria. Infatti, lo studio ci dice che l’azione discrezionale di Facebook non modifica clamorosamente il quadro informativo ma lo corregge e integra progressivamente, in modo che a lungo andare, ossia con il passare del tempo, giorno dopo giorno, mese dopo mese, ci si trova  in un contesto del tutto artefatto.

Come scrive Eli Pariser, un giovanissimo esperto della rete, affermato critico della personalizzazione opaca, autore del saggio “Il Filtro. Quello che Internet ci nasconde” (Il Saggiatore 2012) “E’ come un piano inclinato e più nel tempo si tenderà a non uscirne…. perché ogni algoritmo contiene un punto di vista sul mondo”. E qui veniamo al cuore del nostro evento settimanale, il vero breaking digitale: “Gli algoritmi sono esattamente questo: una teoria su come una parte del mondo dovrebbe funzionare, espressa in termini matematici o informatici”. Questa visione del mondo da 5 giorni sta collaudando l’edicola globale da cui progressivamente ci forniremo. Tutti.