L'approfondimento

Democrazia Futura. Alle Radici dell’odio in rete. Polarizzazione disinformazione vanità e infelicità

di Arturo Di Corinto, docente Università Sapienza di Roma |

Comportamenti e consumi nelle reti di persuasione sociale. Nell'era del capitalismo della sorveglianza ogni azione che intraprendiamo online viene raccolta per uno scopo: modellare noi e il nostro comportamento, per prevedere meglio cosa faremo. Queste previsioni sono il petrolio dell'era digitale.

Arturo Di Corinto

La riflessione a più voci si conclude  con un articolo di Arturo Di Corinto, “Alle radici dell’odio in rete. Polarizzazione, disinformazione, vanità e infelicità”  dedicato -chiarisce l’occhiello – ai “Comportamenti e consumi nelle reti di persuasione sociale”. Di Corinto chiarisce che “I social media sono diventati strumenti, teatro e spazio di conflitto tra poteri che lottano per la nostra attenzione e manipolano le nostre percezioni. Un obiettivo politico che è ingegnerizzato nel funzionamento stesso degli strumenti digitali per trasformarci in consumatori […].Nell’era del capitalismo della sorveglianza ogni azione che intraprendiamo online viene raccolta per uno scopo: modellare noi e il nostro comportamento, per prevedere meglio cosa faremo. Queste previsioni sono il petrolio dell’era digitale. Guidano la pubblicità, guidano il gioco moderno della politica, guidano tutto ciò che beneficia della nostra attenzione, che è tutto nell’economia digitale. Ma, ancora una volta, quelle previsioni non sono guidate dalla razionalità. Invece, sono guidate dallo sfruttamento delle caratteristiche psicologiche e delle debolezze, di noi esseri umani. Il lavoro fatto dallo stratega digitale di Donald Trump, Brad Pascale, non mirava a cercare soluzioni al problema dell’immigrazione o del terrorismo, ma mirava alla rabbia, a isolare le persone per categorizzarle, a innescare reazioni di massa, a confermare i nostri pregiudizi. I social, tutti i social, sono nati così: servono alla persuasione commerciale, alla manipolazione politica e alla sorveglianza statuale”. Seguono vari paragrafi di approfondimento dedicati al “Brain Hacking, l’hackeraggio del nostro cervello”, agli “Algoritmi che decidono la presentazione dei contenuti”, all’”Effetto Dunning Kruger: “Meno sai, più credi di sapere”, ai “social come armi di distrazione di massa e di influenza politica”, al “caso Tik Tok, un uso improprio dell’intelligenza artificiale”, prima di avventurarsi nelle conclusioni: “Nei paesi autoritari si muore per potersi esprimere, in quelli democratici si abusa della libertà d’espressione. In Italia aumenta ogni giorno il numero di chi si rende colpevole di fenomeni di cyberbullismo, cyberstalking, hate speech, revenge porn. […]. Aiutati da un atteggiamento antiscientifico, un vasto sentimento anticasta, comizi online basati sul vaffanculo, e una profonda ignoranza di come funzioni davvero il Web, molti, troppi, pensano che sulle reti sociali si possa dire di tutto. Così al riparo di un presunto anonimato si confonde la libertà d’espressione con la libertà di insulto”. Per Di Corinto “La soluzione è la cultura. In Italia, seconda in Europa per analfabeti funzionali, penultima nella classifica dei laureati, con basso indice di lettura di libri e giornali, bisogna trovare un’altra strada”. L’articolo si conclude con un Post Scriptum “Facebook vende l’odio”: “Non ci piace ammetterlo, ma i social, non solo Facebook, sono diffusori d’odio. Il loro modello di business si basa sulla vendita dei dati personali degli utenti e sulla capacità di indirizzare la loro attenzione verso specifici target pubblicitari. Più utenti hanno, maggiore è il volume di traffico che possono generare e maggiore il loro valore per gli inserzionisti. Maggiori gli utenti, maggiori i profitti, maggiore il valore delle azioni, maggiori i dividendi per gli azionisti […] Le piattaforme social non hanno ideologia se non quella del mercato. Non conta chi sei o come la pensi, contano i numeri che fai – like, fan, follower – insieme alla capacità di spesa nota dall’incrocio di fattori e informazioni anche esterne alla piattaforma. Per questo motivo le policies dei social mettono meno vincoli possibili al comportamento degli utenti, spesso sotto la bandiera di una presunta libertà d’espressione. L’effetto è che persone che non avrebbero mai ammesso in pubblico di essere antisemite e razziste verso i neri, i gay, o altre «minoranze», lo fanno di frequente nei social. Se a questo aggiungiamo la rabbia sociale di una società bloccata come la nostra, capiamo il successo dell’odio online”.

Che cosa direste se andando a cercarne la pagina di Wikipedia trovaste che Benito Mussolini fu un grande capo di stato?  E se il sistema di auto-completamento di Google vi proponesse che i gay sono persone malate? Eppure è proprio quello che succede quando accedete a un social: i contenuti presentati non sono neutrali, ma dipendono dalle vostre scelte precedenti, dalle pagine che avete visitato, dai like che avete messo, dalla posizione geografica rilevata, dalla popolarità dei post e dalle inserzioni pubblicitarie. E allora, perché lo accettiamo sui social?

I social media sono diventati strumenti, teatro e spazio di conflitto tra poteri che lottano per la nostra attenzione e manipolano le nostre percezioni. Un obiettivo politico che è ingegnerizzato nel funzionamento stesso degli strumenti digitali per trasformarci in consumatori. Perché, come ha detto Lawrence Lessig, qualunque lezione si voglia trarre dall’insurrezione del 6 gennaio a Capitol Hill, le migliaia di americani che hanno invaso il Campidoglio per “fermare il furto” facevano parte dei milioni di americani che erano stati portati a credere a una bugia: che Joe Biden aveva rubato le elezioni del 2020.

La colpa è degli algoritmi, certo, ma gli algoritmi informatici come ha spiegato bene Chris Wilye nel libro Il Mercato del consenso(1), sono solo e sempre “l’output politico” di un procedimento matematico. Nell’era del capitalismo della sorveglianza (2), come l’ha definito Shoshana Zuboff (3), e come ci ricorda Lessig, ogni azione che intraprendiamo online viene raccolta per uno scopo: modellare noi e il nostro comportamento, per prevedere meglio cosa faremo. Queste previsioni sono il petrolio dell’era digitale. Guidano la pubblicità, guidano il gioco moderno della politica, guidano tutto ciò che beneficia della nostra attenzione, che è tutto nell’economia digitale. Ma, ancora una volta, quelle previsioni non sono guidate dalla razionalità. Invece, sono guidate dallo sfruttamento delle caratteristiche psicologiche e delle debolezze, di noi esseri umani. Il lavoro fatto dallo stratega digitale di Donald Trump, Brad Pascale, non mirava a cercare soluzioni al problema dell’immigrazione o del terrorismo, ma mirava alla rabbia, a isolare le persone per categorizzarle, a innescare reazioni di massa, a confermare i nostri pregiudizi.

I social, tutti i social, sono nati così: servono alla persuasione commerciale, alla manipolazione politica e alla sorveglianza statuale.

Brain Hacking, l’hackeraggio del nostro cervello

I social sono una notevole fonte di distrazione. Anche quando si eliminano le notifiche dallo smartphone, la tentazione di vedere se qualcuno ci ha commentati, likati, insultati, rimane forte: un riflesso comportamentale che si fonda sull’attitudine del cervello ad attivarsi di fronte a delle ricompense: la scoperta di una novità o di una gratificazione. Quando parliamo di informazione, è proprio la “news” ad essere gratificante, spesso indipendentemente dal contenuto. Il meccanismo che ci porta a consultare lo smartphone migliaia di volte al giorno è di tipo scientifico ed è stato ingegnerizzato nel suo software: Tristan Harris, ex vicepresidente di Google lo chiama brain hacking, hackeraggio del cervello.

Attenzione. Le sfumature, i dubbi, i ragionamenti, le scuse non sono fatte per i social

Avete mai notato che l’attenzione nelle reti sociali dove si discute di tutto, si attiva soprattutto davanti ai conflitti, quelli che generano ‘thread’ di discussione a cui, per orgoglio, appartenenza, vanità, talvolta per rispetto dell’interlocutore, tendiamo a rispondere, mantenendoli vivi?

Ma spesso finiamo per litigare. Oltre al fatto che in questo modo ci roviniamo la giornata e ci alieniamo anche la simpatia di vecchi amici, sosteniamo il modello di business delle piattaforme social basate sui volumi di traffico prodotti, indifferenti alla qualità e all’acutezza di post e reply. Indifferenti alla qualità delle relazioni umane perse o acquisite a causa di questa bulimia verbale. Solo i numeri contano.

La regola aurea della produzione social è che l’attenzione creata intorno a un post è inversamente proporzionale alla sua complessità, qualità e lunghezza. Lo “spettatore con potere di parola” reagirà più facilmente a testi brevi, apodittici, tranchant e di immediata comprensione.

La brevità dei post e delle conversazioni ingegnerizzata nei social – pensate ai 280 caratteri di Twitter – produce una forte polarizzazione che si basa su scorciatoie linguistiche e grammaticali e quindi concettuali, dividendo il mondo in buoni e cattivi. Le sfumature, i dubbi, i ragionamenti, le scuse, non sono fatti per i social. Le prese di posizioni sì. Per questo sono tanto usati dai politici.

Algoritmi: sono loro che decidono la presentazione dei contenuti

Il meccanismo artificiale che gestisce tanta incontinenza verbale non siamo noi, ma sono gli algoritmi che decidono la presentazione dei contenuti, vero segreto industriale di Facebook, Twitter, Youtube e company. Funziona più o meno così: più volte hai cliccato un certo tipo di contenuto, più facile sarà la sua riproposizione nel tuo feed di notizie.  È un algoritmo che decide i contenuti “per te” più rilevanti. Questo meccanismo è anche la base della diffusione delle “false news”, quelle coi titoli urlati e i contenuti sgrammaticati o ridotti a meme.  Questi ultimi, i meme, minime unità concettuali presentate sotto forma di immagine + slogan “funzionano” perché sono digeribili anche dagli analfabeti funzionali che il linguista Tullio De Mauro calcolava essere quasi un quinto della popolazione italiana: persone che non hanno la capacità di comprendere un contenuto complesso ma neanche di sintetizzare il catenaccio (o il sommario) di un articolo giornalistico ma che reagiscono emotivamente a stimoli cognitivi.

Effetto Dunning Kruger: “Meno sai, più credi di sapere

L’algoritmo, insieme all’analfabetismo di ritorno, alla pretesa dell’uno vale uno, potenzia l’effetto Dunning Kruger. Si tratta di un effetto psicologico che prende il nome da chi l’ha teorizzato vincendoci un Ig Nobel (Ignobel) il premio Nobel che viene scherzosamente assegnato alle ricerche più improbabili e che possiamo sintetizzare così: “Meno sai, più credi di sapere”.

L’effetto spiega l’autovalutazione positiva di chi pur essendo ignorante in una tale materia, se ne considera esperto. Scie chimiche, chip di sorveglianza, vaccini che causano l’autismo, complotti e teorie cospirazioniste, sono solo l’epifenomeno di questo effetto sulle persone che credono che le leggi della fisica, della medicina o dell’economia si decidano per alzata di mano come in una riunione di condominio. Ecco, dispiace dirglielo, ma la temperatura di ebollizione dell’acqua non si decide per votazione.

Esibizionismo fra voyeurismo e narcisismo, vedere e vedersi, far vedere e farsi vedere

Secondo l’analisi dello psicolinguista italiano Raffaele Simone, l’autorappresentazione pervicace e violenta di se stessi sul palcoscenico social è solo l’effetto estremo della dinamica tra voyeurismo/narcisismo, pulsioni che continuamente ricreano la dipendenza da feedback e notifiche e si sostanzia in quattro diversi comportamenti: per il Voyeurismo, il primo effetto cercato è “il vedere” (quello che fanno e dicono gli altri), il secondo è “il vedersi” (per costruire e raffinare la propria immagine sociale); viceversa, per il Narcisismo il primo effetto è “il far vedere” (quello che noi siamo o vorremmo essere rispetto agli altri), il secondo è “il farsi vedere” (per sentirsi parte della comunità, riceverne conferme e stimoli e feedback per aggiustare la nostra immagine in relazione ai propri valori).

Gratuità miscela esplosiva fra pulsioni autopromozionali e meccanismi difettosi

L’accesso gratuito alle piattaforme social e alle app di messaggistica rappresenta una miscela esplosiva per tutti questi fattori pulsionali e motivazionali: con poco sforzo, il nostro tempo e la nostra attenzione, beni senza prezzo ma preziosissimi e non rinnovabili, pensiamo di promuoverci e creare consenso sociale intorno a noi e alle nostre attività, siano essere ludiche, affettive, professionali o politiche. A un secondo sguardo, questi meccanismi di auto-comunicazione – “me-communication”, nelle tesi del sociologo Manuel Castells (4) – sono fallati: non ci viene mai restituito abbastanza di quello che diamo, a meno che non intraprendiamo il lavoro dello youtuber o dell’influencer. E voi, conoscete qualcuno che ha trovato lavoro mettendo il proprio profilo su LinkedIn?

Politica, disinformazione, manipolazione, cyberspionaggio, e quanto resta della propaganda islamista

I social sono diventati il nuovo terreno di battaglia per le campagne di disinformazione e di manipolazione politico elettorale. Non è solo il caso Cambridge Analytica, ma anche degli eserciti di troll governati dal “cuoco di Putin” attraverso la Internet Research Agency di San Pietroburgo, e dei chatbot di Riyad che attaccavano ogni giorno il defunto Jamal Khashoggi, giornalista ucciso perché critico nei confronti del governo del suo paese, l’Arabia Saudita; ci sono le honey traps delle finte manager cinesi su LinkedIn che fanno cyber-spionaggio e cercano di reclutare professionisti per i loro servizi segreti. Ci sono anche i video e le notizie fasulle dei galoppini di Jair Bolsonaro, candidato presidente brasiliano, che hanno intasato i gruppi WhatsApp come raccontato dall’associazione brasiliana dei giornalisti indipendenti Aos Fatos. E c’è quello che rimane dell’Isis che diffonde messaggi criptati su Instagram. E si potrebbe continuare.

Autonomia. I social come armi di distrazione di massa e di influenza politica

Abbiamo già scritto che Google ha ammesso di leggerci le email e di farle leggere agli sviluppatori di app; Edward Snowden ha spiegato come funziona la sorveglianza della National Security Agency e i servizi segreti ci hanno spiegato che agenti di paesi ostili trollano i nostri contenuti online (l’Electronic Syrian Army), mentre eserciti di bot russi producono messaggi politici e commerciali personalizzati per adescarci in reti stese da altri. I social insomma, si sono trasformati in armi di distrazione di massa e di influenza politica.

Il caso Tik Tok, un uso improprio dell’intelligenza artificiale e il rischio di subire cyberbullismo

A partire dal 9 febbraio 2021, Tik Tok chiede agli utenti di indicare di nuovo la loro data di nascita prima di continuare ad utilizzare l’app rimuovendo i minori di 13 anni. Poiché non è certo che i ragazzi dichiareranno con sincerità l’età, la piattaforma ha comunicato che potrebbe valutarla con sistemi indiretti. Come? Usando l’Intelligenza Artificiale (IA), previo un accordo con l’Autorità privacy dell’Irlanda dove ha l’azienda ha il suo stabilimento principale. Il rimedio potrebbe essere peggiore del male.  La verifica dell’età può implicare la raccolta e l’analisi di tutti i dati riferibili a un utente, dall’indirizzo Ip con cui si connette alla rete fino al setaccio di dati e comportamenti attraverso tecniche di psicometria e biometria facciale, settore in cui i cinesi sono all’avanguardia. Bytedance, proprietaria di TikTok, infatti, non si occupa solo di piattaforme digitali quanto piuttosto di servizi basati su algoritmi di machine learning come nel caso del suo aggregatore di news, Toutiao, costruito sulle preferenze e sui gusti degli utenti. Già adesso TikTok utilizza l’intelligenza artificiale per analizzarne interessi e gusti con lo scopo di personalizzare i contenuti.

Come fanno? Quando si entra in un social i contenuti proposti sono suddivisi per fascia d’età e anno di nascita. La fascia d’età viene dedotta dai comportamenti in-app come like, commenti, frequenza di scorrimento dei post, orari e frequenza di connessione, e poi dalla rete di amicizie. Con questi metodi TikTok è già in grado di individuare abbastanza bene i 14-17enni ma non i giovani sotto i tredici anni perché, dicono, non possono raccoglierne i dati. Ma è esattamente quello che fanno tutti gli altri social networks.

Perché non se ne parla? Radio, tv e giornali non hanno abbastanza esperti, fondi, e spazio per parlarne, ma forse è anche il riflesso di una forte resistenza cognitiva a valutare gli aspetti negativi dell’uso delle piattaforme Web, delle app di messaggistica e dei social media. Per questo il nostro Garante privacy quando ha chiesto e ottenuto dall’app di video-sharing TikTok di vigilare sull’accesso dei minori alla piattaforma perché i suoi utenti non sempre hanno la maturità necessaria per valutarne i rischi. Ma non esiste solo TikTok. I giovani usano le chat dei videogame e la maggior parte di loro usa Discord e Snapchat, lasciando Facebook, Twitter e LinkedIn agli adulti. E Facebook, nonostante la pessima reputazione dopo lo scandalo di Cambridge Analytica, secondo il Digital Forensic Lab del Consiglio Atlantico, continua a ospitare spie, mestatori e bufalari: e a raccogliere dati sui nostri comportamenti in rete, anche attraverso le sue controllate come WhatsApp.

Il Web tossico

Complice la retorica della comunicazione di tutti verso tutti, la paura di essere tagliati fuori dal discorso pubblico, la disperata ricerca di relazioni, i primi difensori di questo web tossico sono proprio gli adulti che aspirano a un barlume di notorietà, che giustificano la loro presenza con motivi di business e che, con la loro ignoranza della grammatica della sicurezza, aprono le porte all’hate speech, ai cyberbulli, a stalker e hacker criminali.

Invece di insegnare il valore della libertà di espressione che Internet promuove, la rovesciano nel suo contrario, silenziando le voci più gentili e gli utenti più fragili dati in pasto a haters e scansafatiche.

Dietro questi comportamenti c’è una resistenza psicologica a volere rendere le piattaforme digitali responsabili degli algoritmi che premiano il conflitto in rete, la distribuzione di fake news, la profilazione dei comportamenti a fini commerciali, ma soprattutto c’è la stolida sottovalutazione del valore della propria privacy.Ce l’hanno dimostrato in questi giorni gli adulti che si sono catapultati dentro ClubHouse, il social audio dove si entra per invito per chiacchierate da twittare al proprio “pubblico”, come fosse una notizia. Clubhouse con la sua privacy policy all’acqua di rose sarà il nuovo incubo dei Garanti Privacy, quando se ne accorgeranno.

Per questo è da accogliere con sollievo la decisione del Garante per le comunicazioni, Agcom, che ha avviato una mappatura di tutti i servizi attualmente offerti sulle piattaforme online (5) con l’obbiettivo di farne emergere, accanto ai vantaggi individuali e collettivi, anche i rischi e le problematiche: dai comportamenti illeciti che mettono in pericolo le piccole e medie imprese, all’hate speech e più in generale alle violazioni dei diritti fondamentali “capaci di compromettere l’integrità dei processi democratici, l’autonomia decisionale degli individui, la tenuta del tessuto sociale, il pluralismo informativo e la tutela dei minori” (6).

Conclusioni

Nei paesi autoritari si muore per potersi esprimere, in quelli democratici si abusa della libertà d’espressione. In Italia aumenta ogni giorno il numero di chi si rende colpevole di fenomeni di cyberbullismo, cyberstalking, hate speech, revenge porn. La legge sul cyberbullismo, gli interventi del Garante per la privacy, le campagne di comunicazione non sembrano bastare. I social network continuano a calamitare la rabbia e l’aggressività repressa di chi si sente defraudato di qualcosa da qualcuno. I bersagli preferiti rimangono i politici, i professori, i giornalisti, chiunque incarni l’autorità o una presunta élite. Ma è solo fumo negli occhi per distrarci dalle vere dinamiche del potere. Complice l’immobilità sociale, la crisi economica, l’incapacità di comprendere fenomeni globali come l’immigrazione, la rabbia esplode cercando bersagli a casaccio. Aiutati da un atteggiamento antiscientifico, un vasto sentimento anticasta, comizi online basati sul vaffanculo, e una profonda ignoranza di come funzioni davvero il Web, molti, troppi, pensano che sulle reti sociali si possa dire di tutto. Così al riparo di un presunto anonimato si confonde la libertà d’espressione con la libertà di insulto e il matematico Piergiorgio Odifreddi diventa uno pseudo-intellettuale, Corrado Augias un bufalaro, Laura Boldrini una donnaccia e i virologi tutti mercenari. Tanto per fare degli esempi.

Spesso sono gli stessi parlamentari della Repubblica a fare post e commenti sopra le righe. Matteo Salvini aveva riciclato ed esasperato la critica renziana ai gufi e ai professori mentre Luigi Di Maio e Alessandro Di Battista hanno promosso i giornalisti a «puttane, pennivendoli, infimi sciacalli».

Con questi esempi non ci si può aspettare che il popolo bue dotato di smartphone possa rinunciare a esprimere con minacce e maleparole un disagio che andrebbe curato nei consultori sanitari.

Facebook, Twitter, Instagram, sono progettati per farci reagire in maniera emotiva e, quando non si hanno molte occasioni di confrontarsi e di ragionare, l’impulso a litigare sui social durante la guardia al capannone, l’attesa del cliente che entra in negozio, tra un’email di lavoro e un’altra, fa uscire fuori il lato peggiore di noi. Pensando di condizionare il dibattito sui social, colpevolmente usati come fonte d’informazione dai media tradizionali, si arriva a manifestazioni estreme, augurando perfino la morte dell’interlocutore. Ma c’è un però. Nessuno è al di sopra dalla legge che, se vuole, ha tutti gli strumenti per indagare e sanzionare chi, abusando della libertà della Rete, è autore di comportamenti grossolani che sfociano in reati veri e propri. Però non basta. E non è solo per le lentezze, i costi e le contraddizioni della giustizia nostrana. La soluzione è la cultura. In Italia, seconda in Europa per analfabeti funzionali, penultima nella classifica dei laureati, con basso indice di lettura di libri e giornali, bisogna trovare un’altra strada.

Facebook vende l’odio

The Intercept, il giornale online (7) fondato da Glenn Greenwald, Laura Poitras e Jeremy Scahill, ha dimostrato che Facebook vendeva pubblicità razziste e antisemite ai suoi utenti. Proprio nei giorni del massacro alla sinagoga di Pittsburgh. L’autore dell’omicidio di 11 persone era convinto dell’esistenza di un complotto per decimare la «razza bianca», noto come «White genocide». Si tratta di una teoria complottista secondo la quale «i negri» cospirerebbero per cacciare i bianchi dalle loro terre.

Nonostante gli sforzi internazionali per smascherare la falsa tesi di un «Genocidio bianco», Facebook vendeva agli inserzionisti la teoria complottista a un «target dettagliato» di un gruppo di interesse di 168 mila utenti che avevano espresso il favore per contenuti simili. L’azienda, contattata per un commento, ha eliminato la categoria di targeting, si è scusata e ha affermato che non avrebbe mai dovuto esistere. Quante pagine e quante inserzioni di questo tipo esistono ancora su Facebook?

Non ci piace ammetterlo, ma i social, non solo Facebook, sono diffusori d’odio. Il loro modello di business si basa sulla vendita dei dati personali degli utenti e sulla capacità di indirizzare la loro attenzione verso specifici target pubblicitari. Più utenti hanno, maggiore è il volume di traffico che possono generare e maggiore il loro valore per gli inserzionisti. Maggiori gli utenti, maggiori i profitti, maggiore il valore delle azioni, maggiori i dividendi per gli azionisti. Per ampliare la platea degli iscritti ai social il primo obbiettivo è di renderli fruibili attraverso interfacce semplificate e sistemi di ricompensa. Gli stessi dispositivi digitali che usiamo per accedervi sono già predisposti per farlo grazie alle app, software dedicati a prova d’incapace.

No, non offendetevi. Siti web, app, social e i dispositivi sono ingegnerizzati come i comandi di una lavatrice per essere usati senza capire come funzionano per davvero. Grazie alla logica del design centrato sull’utente, devono poter essere usati da tutti e perciò fanno leva su abilità umane comuni: coordinamento percettivo, linguaggio (povero) e memoria (Google). Ma i social sono luoghi d’interazione che retroagiscono non solo su quelle abilità ma sui nostri «frame» comportamentali, modificandoli.

Ricapitolando: perché sui social si litiga tanto? Perché l’assenza fisica dell’interlocutore elimina il timore di rappresaglie fisiche. Perché le opinioni sui social sono tanto polarizzate? Perché gli utenti possono approfittare dell’anonimato e si sentono meno responsabili di quello che pubblicano. Perché odiano tanto? Perché veniamo assegnati a categorie di utenti simili a noi che vedono e leggono le stesse cose, rafforzando conformismo e group thinking.

Le piattaforme social non hanno ideologia se non quella del mercato. Non conta chi sei o come la pensi, contano i numeri che fai – like, fan, follower – insieme alla capacità di spesa nota dall’incrocio di fattori e informazioni anche esterne alla piattaforma. Per questo motivo le policies dei social mettono meno vincoli possibili al comportamento degli utenti, spesso sotto la bandiera di una presunta libertà d’espressione. L’effetto è che persone che non avrebbero mai ammesso in pubblico di essere antisemite e razziste verso i neri, i gay, o altre «minoranze», lo fanno di frequente nei social. Se a questo aggiungiamo la rabbia sociale di una società bloccata come la nostra, capiamo il successo dell’odio online.

Note al testo

(1)Christopher Wilye, Il Mercato del consenso: come ho creato e poi distrutto Cambridge Analytica, Milano, Longanesi, 2019, 332 p. Edizione originale Mindf*ck: Inside Cambridge Analytica’s Plot to Break the World, London, Profile Books, 2019, 288 p.

(2) Si vedano i contributi di Massimo De Angelis, Erik Lambert, Michele Mezza, Arturo di Corinto, Giuseppe Richeri, Raffaele Barberio e Giacomo Mazzone nel Focus di approfondimento “Big data e capitalismo della sorveglianza”, Democrazia futura, numero zero, ottobre-dicembre 2020, pp. 43-93.

(3) Shoshana Zuboff, The Age of Surveillance Capitalism. The Fight for a human Future at the new Frontier of Power, Campus, 2018. Traduzione italiana: Il capitalismo della sorveglianza. Il futuro dell’umanità nell’era dei nuovi poteri, Roma, Luiss University Press, 2019, 622 p.

(4) Manuel Castells, “Communication, Power and Counter-power in the Network Society”, International Journal of Communication, Vol. I, 2007, pp. 238-266. Scaricabile on line https://ijoc.org/index.php/ijoc/article/view/46.

(5) AGCOM, Delibera 44/21/Cons,  “Avvio di un’indagine conoscitiva relativa ai servizi offerti sulle piattaforme online”, Roma, Autorità per le Garanzie nelle Comunicazioni, 4 febbraio 2021. Consultabile on line sul sito dell’Autorità: https://www.agcom.it/documents/10179/21649104/Delibera+44-21-CONS/2ed0f672-ed0a-4b8a-8d0b-108e104f2dcf?version=1.0 

(6) Dal Comunicato Stampa “Agcom. Al via un’indagine per mappare l’ecosistema digitale. Classificazione dei servizi delle piattaforme online e analisi del quadro normativo nazionale e internazionale”, Roma, Agcom, 9 febbraio 2021. Cfr. https://www.agcom.it/documents/10179/21649104/Comunicato+stampa+09-02-2021/53189d1b-325c-4a86-a945-e77f6cde99a5?version=1.0.

(7) https://theintercept.com/.