gli scoop

Digital Education. Facebook di nuovo sotto accusa tra hate speech, fake news e attacco alla privacy

di Rachele Zinzocchi, Digital Strategy R&D - laboratorio Digital Education |

Tre scoop, dunque, tre nuovi scandali per Facebook: il più grave? La scarsa attenzione ai dati degli utenti, utilizzati e utilizzabili pertanto facilmente per scopi politici o pubblicitari da terze parti.

Digital Education è una rubrica settimanale promossa da Key4biz dedicata all’educazione civica digitale a cura di @Rachelezinzocchi Formatrice e public speaker, autrice del libro Telegram perché. Per consultare gli articoli precedenti, clicca qui.

Facebook, le tempeste non finiscono mai. Nuovi fulmini, saette e vere bombe giungono stavolta non da un uno, ma ben tre scoop giornalistici scoppiati nello stesso giorno, che gettano altro fuoco sulla mai spenta cenere dell’inaffidabilità di Facebook, persino della sua pericolosità per le nostre vite. Al punto da far gridare ormai centinaia di persone: «Facebook va rotto».

Primo caso, Gran Bretagna: un giornalista in incognito, infiltratosi in CPL Resources, una compagnia incaricata di moderare i contenuti del social, con sede a Dublino, in Irlanda, e con cui Facebook collabora dal 2010, ha rivelato le pratiche discutibili tenute dall’azienda nella moderazione dei post. Le regole, infatti, sarebbero bellamente ignorate e anzi il mandato sarebbe spesso quello di non rimuovere gruppi marginali o d’incitamento all’odio.

L’inchiesta, mandata in onda su Channel 4 nel documentario Inside Facebook: Secrets of the Social Network – «Dentro Facebook: i segreti del social network» – ha innescato un putiferio. Lo scandalo? La società consentirebbe alle Pagine di gruppi di estrema destra di «superare la soglia di cancellazione» e di esser «soggette a trattamenti diversi rispetto a pagine della stessa categoria ma appartenenti a governi e organizzazioni di notizie differenti». Inoltre, la compagnia avrebbe ordinato anche allo stesso reporter di ignorare gli utenti che sembravano avere meno di 13 anni, l’età minima richiesta per iscriversi al social, in conformità con il Child Online Protection Act, una legge sulla privacy del 1998 approvata negli Stati Uniti per proteggere i bambini dallo sfruttamento e dai contenuti dannosi e violenti su Internet. C’è di peggio, però. Il documentario, infatti, insinua che Facebook stesso adotti un approccio «morbido» verso non solo tali contenuti, ma anche le storie palesemente false fatte passare per vere, poiché attraggono e tengono incollati gli utenti più a lungo, aumentando così le entrate pubblicitarie.

Un’accusa quanto mai pericolosa per Facebook, che mina le sue affermazioni circa la sua (presunta) lotta contro le #FakeNews, la propaganda, l’hate speech, la web violence che è già violenza reale. Facebook però, dinanzi all’attacco, (cerca di non) farsi trovare impreparato e pubblica il 16 luglio, con un aggiornamento poi il 17 subito dopo la trasmissione, un post sul blog e una lettera più lunga e dettagliata, indirizzata alla società di produzione scozzese Firecrest Films, produttrice del documentario con Channel 4. Il contenuto? Ovviamente, «tante grazie al giornalista» che ha scoperchiato la pentola. Un «grazie» inevitabile quanto sofferto, poiché mette in luce, una volta di più, le mancanze del social nel controllo dei contenuti sulla piattaforma, nonostante tante promesse.

Promesse che però, a dispetto di ogni evidenza, sono di nuovo riaffermate con forza. Nel post sul blog – «Working to Keep Facebook Safe», Al lavoro per mantenere Facebook un posto sicuroMonika Bickert, vicepresidente della gestione delle politiche globali di Facebook, si cosparge il capo di cenere, pur riaffermando l’impegno investito per migliorare: «Prendiamo questi errori incredibilmente sul serio e siamo grati ai giornalisti che li hanno portati alla nostra attenzione. Abbiamo indagato esattamente su ciò che è accaduto in modo che possiamo evitare che questi problemi si ripetano. Stiamo lavorando sodo, ma non sempre lo facciamo bene». E per fornire prova della buona fede, continua: «Abbiamo immediatamente richiesto a tutti i trainer di Dublino di fare una sessione di riqualificazione e ci stiamo preparando a fare lo stesso a livello globale. Abbiamo anche esaminato le domande politiche e le azioni di contrasto che il giornalista ha sollevato e corretto gli errori che abbiamo trovato». Un aggiornamento del materiale di formazione per tutti i moderatori di contenuti, programmato di pari passo con la revisione delle pratiche di allenamento dei team e dello staff della CPL, finalizzato a «assicurare che chiunque si comporti in modi incoerenti con i valori di Facebook non lavori più per controllare i contenuti sulla nostra piattaforma». Conclusione? «Le persone di tutto il mondo usano Facebook per connettersi con amici e familiari e discutere apertamente idee diverse. Ma condivideranno solo quando sono al sicuro. Ecco perché abbiamo regole chiare su ciò che è accettabile su Facebook e sui processi stabiliti per applicarle».

Regole chiare? Non si direbbe. E, se chiarezza c’è, lascia più perplessi e dubbiosi che soddisfatti e rassicurati. Questo grazie anche alla «seconda bomba»: innescata dall’inchiesta di Motherboard, forte di documenti segreti e giunti in loro possesso grazie a qualche gola profonda, che svelano finalmente le regole adottate da Facebook per la moderazione dei contenuti e soprattutto le «soglie» necessarie per l’eliminazione di Pagine e Gruppi: quelle stesse soglie su cui, durante la testimonianza ai legislatori, i rappresentanti di Facebook non avevano voluto fornire dettagli. Per procedere alla cancellazione delle Pagine, ad esempio, l’amministratore deve ricevere 5 segnalazioni negative entro 90 giorni, o violazioni degli standard della comunità di almeno il 30% dei contenuti entro 90 giorni. Analoga politica del 30% anche per i Gruppi. Un altro documento sull’incitamento all’odio prevede soglie di 5 o più parti di hate speech e ancora, per i contenuti a sfondo sessuale, la soglia è sui 2 elementi, come la descrizione della pagina, il titolo, la foto o i post che includono esplicita sollecitazione di immagini nude.

Il problema però, come sempre, è: chi controlla i controllori? Tutto dipende, infatti, dai moderatori, che identificano ed etichettano i post come violazioni per raggiungere quella soglia. Proprio di recente c’è stato un feroce dibattito online su ciò che si qualifica come hate speech e #FakeNews. Difficile, d’altronde, chiudere gli occhi dinanzi a clip come questa – con un ragazzino picchiato e calpestato – «contrassegnata come inquietante» ma, alla fine, non rimossa per anni. Un’altra clip condivisa su Twitter mostra una sessione di training a futuri moderatori, in cui è dato loro l’esempio di un’immagine che possono scegliere di ignorare. Che cosa mostra? Niente meno che il meme di una ragazza affogata nella vasca da bagno. Inquietante la didascalia: «Quando tua figlia si prende una cotta per un piccolo negro».

Tutto ciò traccia il quadro di un Facebook, nella migliore ipotesi, «disattento» se non volutamente «arbitrario» e «in malafede»: quantomeno, però, certo stato bravo a dare una sufficiente elasticità e soggettività a regole che, in teoria, si presumevano ferree ed esempio di trasparenza. Magari a scopi di business o di propaganda politica.

Un’impressione rafforzata anche da altri due fattori decisivi. Nell’ordine, anzitutto, la direzione in cui risulta difficile non leggere anche e proprio la parte centrale della «arringa di difesa» di Bickert, non tanto nel blog post quanto nella lettera inviata alla produzione. Nel primo, infatti, si legge: «È stato suggerito che chiudere un occhio sui contenuti negativi sia nei nostri interessi commerciali. Questo non è vero. Creare un ambiente sicuro in cui persone da tutto il mondo possano condividere e connettersi è fondamentale per il successo a lungo termine di Facebook». Un «successo» chiamato invece nella lettera a Nicole Kleeman, Executive Producer della Firecrest, più direttamente, senza fronzoli e giri di parole, «il nostro core business»: giustappunto nel paragrafo «Facebook’s Business Model». Ancora, mentre nel post si legge «Se i nostri servizi non sono sicuri, le persone non condivideranno e nel tempo smetterebbero di usarli. Né gli inserzionisti vogliono che i loro marchi siano associati a contenuti inquietanti o problematici», nella lettera si dice espressamente: «La pubblicità è la nostra principale fonte di reddito. Per questo abbiamo investito miliardi di dollari per rafforzare al massimo staff e tecnologia sempre più avanzata, come l’Intelligenza Artificiale e il Machine Learning».

Sfumature? No, parole precise e ufficiali. E, comunque, sufficienti a dissolver la «favoletta» cui allude – e ci «illude» – la promessa originaria di Zuckerberg: «È gratis e lo sarà per sempre». Tutt’uno con quel «primo comandamento», fondante per Facebook e ogni social fin dalla nascita: «creare un mondo sempre connesso», ribadito a febbraio col Manifesto Building Global Community. Premessa-promessa sempre tradita: non si fa che andare verso il Dis-Connect, una progressiva Dis-ConnessioneDis-InformazioneDis-Educazione. Altro, dunque, che far felice «la gente e i loro amici»: il buon Facebook non la smette un attimo di pensare al business.

Se avete ancora voglia di leggere giustificazioni di Facebook, potete dilettarvi con la risposta scritta e una trascrizione dell’intervista rilasciata da Richard Allan, vicepresidente per Global Policy Solutions, a Channel 4, qui e qui. Oppure ancora ripensare a tutti i paroloni spesi in questi mesi circa l’Intelligenza Artificiale, cui appunto Facebook lavorerebbe attivamente con nuove partnership accademiche e l’espansione dei propri laboratori di ricerca in otto località nel mondo – un esempio su tutti l’acquisizione di una startup AI con base a Londra – come panacea già quasi pronta di ogni male. Obiettivo? Creare «macchine che abbiano un certo livello di buon senso» e che apprendano «come funziona il mondo osservando, come fanno i bambini piccoli nei primi mesi di vita». Peccato che il processo sia ben più che embrionale. Già qui facevamo notare come i più siano da sempre scettici: «Questa è la bestia che Facebook non può domare», ha scritto Quartz. Ancora: «L’intelligenza artificiale non è ancora abbastanza intelligente per funzionare come strumento di prevenzione». E già ci chiedevamo: «È la sconfitta dei social nella battaglia per la #StopWebViolence?».

Non finisce qui però. Terza bomba, che, come accennato, contribuisce ancor di più a rafforzare l’immagine di un Facebook davvero troppo «disattento», se non volutamente «arbitrario» e «in malafede»? CNN: «I dati di Cambridge Analytica su Facebook sono stati consultati dalla Russia». Damian Collins, il parlamentare conservatore che conduce un’indagine sulla disinformazione online, ha rivelato che, stando a una recente inchiesta, i dati raccolti da Aleksandr Kogan per conto di Cambridge Analytica siano stati consultati dalla Russia e da altri Paesi. La scoperta è stata fatta dall’Information Commissioner’s Office (ICO), l’autorità britannica per la protezione dei dati. Kogan, a sua discolpa, ha detto che la sua prima visita in Russia è avvenuta nell’aprile 2016, quando aveva già iniziato a cancellare la maggior parte dei dati raccolti e che qualsiasi dato sul suo dispositivo era stato reso anonimo. Kogan nega naturalmente la consegna dei dati a qualsiasi entità russa, ammettendo solo la possibilità che qualcuno in Russia abbia potuto accedere ai dati dal suo computer a sua insaputa. L’ICO non ha rilasciato commenti, ma il quotidiano britannico The Observer ha citato un funzionario ICO secondo cui «indirizzi IP riconducibili alla Russia e altre aree della CSI hanno avuto accesso ad alcuni sistemi collegati all’inchiesta».

Dinanzi a questo, torna la domanda: è davvero la «sconfitta dei social»? Interrogativo inevitabile, se ripensiamo anche ai recenti casi delle violenze inaudite in diretta Facebook di cui abbiamo parlato qui – il ventenne thailandese che uccide la figlia di 11 mesi impiccandola e posta il video su Facebook, il caso di Cleveland, con Steve Stephens che toglie la vita a una 74enne a caso e ne posta il video su social, o decine di altri casi di minori suicidi o abusati e finiti in live streaming con video rimasti in rete talora per anni. Abuso, però, è anche usar un minore a scopi pubblicitari, come nel caso dello scoop di The Australian, di cui parlavamo già qui. Abuso è usar loro o comunque gli utenti per appropriarsi dei loro dati con finalità di manipolazione politica, dell’informazione con diffusione di #FakeNews, o di #Adv. E, dinanzi a tutti questi fenomeni, né gli «impiegati» di Facebook né tantomeno la presunta Intelligenza Artificiale a lavoro sulla piattaforma si sono per ora dimostrati all’altezza della prova.

Conclusione, quanto mai rafforzata dagli scoop di questa intensa giornata? «Facebook va rotto». Il grido giunge in particolare da Freedom From Facebook, movimento che rivendica come «Facebook abbia preso troppo potere sulle nostre vite e la democrazia. È giunta l’ora di riprenderci il controllo». Un grido che, però, è fatto proprio da sempre più persone, secondo una tendenza che, dopo accadimenti come quelli odierni, c’è da aspettarsi che non possa che aumentare. «Questi eventi evidenziano due ragioni fondamentali per cui Facebook non risolverà mai i propri problemi», affermano da Freedom From Facebook. «Il suo modello di business si basa sul profitto dei dati degli utenti e sulla massimizzazione della quantità di contenuti sulla piattaforma. E nonostante lo scandalo di Cambridge Analytica, Facebook continua a essere disattento su attacchi informatici e violazioni dei dati. L’unico modo per proteggere il pubblico è che la FTC intervenga rompendo il monopolio di Facebook e imporre forti controlli sulla privacy». Da qui la petizione, indirizzata alla Federal Trade Commission, che chiede di «spezzare il monopolio di Facebook e ristabilire la concorrenza nello spazio di social networking tra WhatsApp, Instagram e Messenger».

Riepilogando? Tre scoop, dunque, tre nuovi scandali per Facebook:

  1. La sua (voluta?) tanto scarsa attenzione ai dati degli utenti, utilizzati e utilizzabili pertanto facilmente per scopi politici o pubblicitari da terze parti;
  2. La possibilità, apparentemente sempre più reale, che non siano solo le società di terze parti, ma il social stesso a imporre una simile direzione, grazie alle sue stesse regole intenzionalmente lassiste, comode per aver mano più libera su usi presenti e futuri di dati, informazioni personali, contenuti condivisi e preferenze;
  3. L’idea che in un mondo dominato da Facebook non si possa che andar sempre più verso morte della privacy, #FakeNews, Web Violence.

Non scomponiamoci allora se poi quelli di Freedom From Facebook dichiarano: «Occorre tornare a rendere Facebook un luogo sicuro per la democrazia». L’impressione è che non abbiano tutti i torti. E che, anzi, occorra agir in fretta, e subito.