Key4biz

Fake news, Walter Quattrociocchi replica a Michele Mezza: ‘Mai proposta una censura’

Pubblichiamo la replica di Walter Quattrociocchi, direttore del Laboratorio di Computational Social Science – IMT Lucca, all’articolo scritto da Michele Mezza.

I surrealisti hanno dato molta importanza al linguaggio, alla sua manipolazione e alla costruzione di giochi di parole. Tra le varie prassi c’era quella del “cadavere squisito”.

Nello specifico, il gioco consiste nel comporre una frase con altri giocatori seguendo un ordine e nessuno sa cosa è stato scritto precedentemente. Le produzioni sono spesso interessanti e divertenti, ma sempre prive di senso.

La bellezza del gioco, però, diventa grottesca quando assomiglia alla prassi di costruzione del pensiero e del dibattito pubblico. Purtroppo noi scienziati siamo estranei alla costruzione di conoscenza attraverso le tecniche di scrittura creativa e narrativa.

Dobbiamo fare esperimenti, verificare ipotesi. La terzietà del metodo scientifico garantisce più o meno una certa sobrietà nella lettura dei risultati. Ed è un vincolo molto stringente che non permette molte fughe e personalismi.

I nostri risultati [1-4] (miei e del mio gruppo) dicono in maniera abbastanza incontrovertibile e netta che il modo in cui si consumano le informazioni è dominato dal pregiudizio di conferma (la tendenza ad acquisire informazioni coerenti con il nostro sistema di credenze). Per esempio se sono contento di essere basso mi attrarranno tutte le informazioni che supportino questa visione. Nessuno è immune. Neanche gli intellettuali.

Internet è pieno di informazioni e narrazioni. Troviamo quelle che più si adeguano al nostro modo di vedere e finiamo per trovare persone che la pensano come noi e con cui rinforziamo le nostre credenze. In questa configurazione le informazioni vengono adottate se coerenti con la narrazione, anche se contengono informazioni false, e escludiamo altri punti di vista. In particolare il nostro contributo sta nell’aver costruito un framework empirico per misurare e modellare il processo. Un po’ come calcolarne temperatura, salinità, profondità, velocità, etc.

In generale la misinformation è l’uso strumentale dell’informazione in un sistema fortemente polarizzato. Non c’è una narrazione che non le usa.

Mi sfuggono molti punti dell’interpretazione del professor Mezza.

Non è mai stato nel mio pensiero proporre una censura. Anzi, mi sono sempre speso contro la “bufala” del fact-checking risolutivo. L’ho scritto chiaramente anche nel Global Risk Report del WEF quest’anno.

Nella realtà, sto lavorando insieme ad altri colleghi alla costruzione di un osservatorio (PANDOORS) dedicato alle dinamiche sociali su web per capirle e studiarle a fondo.

Finora hanno aderito al board di questo nascituro centro grosse personalità del mondo della scienza, delle istituzioni e del giornalismo. L’idea di creare delle sinergie e lavorare attorno ad un framework quantitativo e non da scrittura creativa sembra buona.

Trovo davvero poco elegante e pretestuosa la chiamata in causa della Presidente Boldrini che sta dando importanza politica al problema. Non so dove il professor Mezza abbia sentito della volontà di bonificare la Rete.

Il World economic forum lo elenca tra i rischi globali dal 2013 dare rilievo politico al problema di un sistema dell’informazione rotto credo sia cosa molto importante.

Sono perplesso e confuso nel leggere la posizione di Mezza. La perplessità nasce dal fatto che mi si attribuirebbe una volontà normativa nei confronti dei social perché “essi non sono un media ma un prolungamento della vita”. Al contrario, qualche tempo fa lui stesso chiedeva la regolamentazione degli algoritmi dei social.

Non ho mai pensato ad una normativa sulla verità. La logica ci spiega che non esiste una narrazione che possa contenere la realtà. Anzi, in un sistema in cui la verità a monte è difficile da identificare, mettere un controllore o un garante delle qualità che dica a valle cosa è vero o falso, è quantomeno ingenuo.

Con il 63% delle persone che si informa attraverso i social [5] rimane oscura l’affermazione “la rete non è socialmente, professionalmente né culturalmente un media”. Gli argomenti di dibattito nei social non sono più mediati da un’élite, ma seguono le stesse dinamiche dei selfie e dei gattini.

Il sistema informativo insegue e non domina più in questo ambiente. E allora ecco che fioriscono le narrazioni legittimanti e le speculazioni da scrittura creativa. Opinionismi ed Espertismi 3.0. Parlare di cose che non si hanno ben chiare fa perdere di vista il ruolo di servizio della comunicazione. Non è comunicare per servizio. Che sia questo ad aver contribuito alla delegittimazione dell’élite intellettuale?

La complessità è esplosa e l’ermeneutica può essere ancora più fallace. Infatti, la mente umana semplifica, a volte troppo, ed è piena di bias.

La parola medium non va pronunciata. È proscritta. Si preferisce la più suggestiva e romantica di una rete che è “una protesi che prolunga e aumenta potenze della vita”. Forse sfugge che questa “protesi” (medium abbiamo capito che è male) reifica la delegittimazione dell’élite attraverso il “mostro” della disintermediazione.

È l’ambiente in cui si diffonde l’informazione e dove le testate non dominano più, ma inseguono.

In questa Mezza-verità il problema sarebbero i fake users e l’identità certificata risolverebbe ogni problema. Forse sfugge che i fake non devono decidere se vaccinare i loro fake-figli, o usare le fake-matite.

Ribadendo che non è possibile sostenere in maniera credibile che io mi sia mai detto a favore di un controllo normativo sui social, credo che abbia invece una certa plausibilità la proposta di Cass Susntein.

Sunstein parlava di una cultura dell’umiltà per disinnescare questa polarizzante dialettica egoica.

Che sia il caso di cominciare da lì?

[1] Del Vicario, M., Bessi, A., Zollo, F., Petroni, F., Scala, A., Caldarelli, G., … & Quattrociocchi, W. (2016). The spreading of misinformation online. Proceedings of the National Academy of Sciences, 113(3), 554-559.

[2] Quattrociocchi, W., Scala, A., & Sunstein, C. R. (2016). Echo chambers on facebook.

[3] Del Vicario, M., Scala, A., Caldarelli, G., Stanley, H. E., & Quattrociocchi, W. (2016). Modeling confirmation bias and polarization. arXiv preprint arXiv:1607.00022.

[4] Quattrociocchi, W., & Vicini, A. (2016). Misinformation.: Guida alla società dell’informazione e della credulità. FrancoAngeli.

[5] Newman, N., Levy, D. A., & Nielsen, R. K. (2015). Reuters Institute Digital News Report 2015. Available at SSRN 2619576.

Per approfondire:

Exit mobile version