Key4biz

Disinformazione e piattaforme online. Riuscirà il Digital Service Act della UE a risolvere le criticità?

Il blocco dell’account di Donald Trump da parte di Twitter ha finito con il mettere a nudo il Re, scoperchiando tutte le contraddizioni che l’abbraccio fra media digitali e informazione, sempre più stretto nell’ultimo decennio, ha progressivamente generato.

La vicenda relativa alla disinformazione online ed al contrasto contro l’hate speech mostra con grande evidenza che stiamo assistendo ad una mutazione genetica del settore dell’informazione.

Rispetto alle nuove forme di produzione e distribuzione dei contenuti informativi salta ogni regola che nel circuito legge – editore – responsabilità editoriale, assicurava, nei media tradizionali, una certa tutela al cittadino fruitore di informazione ed a una formazione corretta e dialettica del suo pensiero e del suo consenso.

Nel mondo online esistono aggregatori, intermediari (ed amplificatori) di informazioni prodotte chissà dove e da chi (spesso da utenti, che si auto-ritengono imprescindibili opinionisti ma anche da politici e istituzioni che non debbono più passare per le relazioni fra i propri uffici stampa e le redazioni di tv, radio e giornali). Questi aggregatori di mestiere fanno i prestatori di servizi tecnici per guadagnare soldi, non i giornalisti, né i redattori, né i moralizzatori dei costumi, né i paladini dell’interesse generale, e così via.

D’altro canto, a livello nazionale, chi dovrebbe dettare le regole primarie della corretta informazione (poiché aspetto centrale della regolazione della cosa pubblica in ordinamenti democratici, così come la disciplina dei servizi essenziali o della giurisdizione etc.) è scomparso all’orizzonte (se si escludono indagini conoscitive, tavoli tecnici, etc.), travolto da una complessità ormai indecifrabile e ingovernabile. L’unica istituzione pubblica (pertanto, idonea ad esprimere l’interesse generale) è ad oggi la Commissione europea, che, ben consapevole della delicatezza del problema, tenta di guidare, controllare (ma spesso recepire), quanto i soggetti privati stanno spontaneamente attuando per limitare i danni di una informazione sempre più fuori controllo, nei contenuti e nei modi[i]. Il modello è stato sin qui sostanzialmente autoregolamentare o al più co-regolamentare, con una sostanziale perdita secca di sovranità (su un tema di rilevanza costituzionale) sia – in genere – pubblica, che tra ordinamenti nazionali ed Unione europea (superando, nella sostanza, pur se ribadendolo nella forma[ii], il dogma della competenza nazionale su temi strettamente politici come quello della disciplina dell’informazione)[iii].

Quale è il risultato di questo mutamento probabilmente ineluttabile ed in qualche modo imposto dai fatti, dalla rapida evoluzione tecnologica e dall’inadeguatezza della complessità e dei tempi di una regolazione tradizionale?  Per le ragioni che si tenterà di spiegare fra poco, l’esito sembra essere quello di assegnare compiti non propri e per i quali certi soggetti – gli intermediari dei servizi online – non sono nati e non sono attrezzati (malgrado i titanici sforzi che stanno iniziando a fare) e che, appunto, si trovano a fare un po’ per caso e per necessità.

Twitter e il caso Trump

Cerchiamo di spiegare con alcuni esempi. Nel caso dei pericolosi tweet di Donald Trump, “sterilizzati” da Twitter (e il discorso vale ancor di più per la finale sospensione dell’account @therealDonaldTRump e di molti altri), è proprio la piattaforma ad aver scrutinato il messaggio, segnalando che non era supportato da fonti ufficiali e attendibili (“Official sources may not have called the race when this was Tweeted”) e, ancora più importante, è la stessa piattaforma che, svolgendo un ruolo propositivo e di vero orientamento (un tempo si sarebbe detto di “controinformazione”) ha selezionato delle fonti alternative cui gli utenti potevano essere reindirizzati, e che quindi ha in un certo senso dialetticamente confutato l’affermazione criticata (“Learn how voting by mail is safe and secure”.  “Learn about US 2020 election security efforts”).

Tali reazioni danno sostanzialmente attuazione a quanto prevedono, per noi europei, i due principali strumenti di autoregolamentazione in materia: il Code of practice on disinformation (che ha prodotto, ad esempio, l’azione informativa delle piattaforme in tema di Covid-19) ed il Codice di autoregoalementazione sull’hate speech, adottati dalle principali piattaforme soto l’ombrello della Commissione europea.

Innanzitutto i  due Codici attribuiscono  (o riconoscono) un ruolo delicatissimo alle piattaforme digitali.

Il Code of practice on disinformation (adottato nel 2018, ed attualmente sottoscritto da Facebook, inclusa Instagram, Google, Twitter, Microsoft e Tik Tok)[iv] difatti prevede che “the Signatories  are mindful of the fundamental right to freedom of expression and to an open Internet, and the delicate balance which any efforts to limit the spread and impact of otherwise lawful content must strike”. Le piattaforme sembrano dunque auto-assumersi il ruolo di soggetti che effettuano quel delicato bilanciamento di interessi normalmente operato da legslatori o giudici quando vi siano valori in conflitto tra loro.  La delicatezza del ruolo svolto dalle piattaforme emerge poi da varie altre previsioni del Codice dove si evidenza che la loro interrelazione con i contenuti informativi può essere determinante e come tale altamente pericolosa tanto da dover assumere, ma sempre in via autoregolamentare, un preciso impegno a non abusare del potere che hanno in mano (“Signatories should not be compelled by governments, nor should they adopt voluntary policies, to delete or prevent access to otherwise lawful content or messages solely on the basis that they are thought to be “false”). Che poi questo non sia il loro mestiere, svolto appunto un pò per caso, è evidenziato dal fatto che nel contribuire alla diffusione del critical thinking debbano appoggiarsi ad altri soggetti (“Signatories commit to partner with civil society, governments, edtional institutions, and other stakeholders to support efforts aimed at improving critical thinking and digital media literacy“).

I concreti poteri di intervento che seguono ad un loro coinvolgimento (dichiarato, auto-assunto e sempre più riconosciuto dai legislatori e regoatori) nella gestione del “materiale pericoloso” di cui si sta parlando, sono effettivamente molto incisivi e – potenzialmente – intrusivi. Le piattaforme possono difatti “dilute the visibility of disinformation by improving the findability of trustworthy content” e fornire all’utente tools “to facilitate content discovery and access to different news sources representing alternative viewpoints“. Attraverso indicators of trustworthiness le piattaforme stabiliscono cosa è verosimile ed attendibile. Inoltre possono proporre visoni alternative e confutazioni dei messaggi che ritengono falsi o non corretti.  Come già detto, è un lavoro che non fanno da sole (ma con l’ausilio di fact checkers, organismi pubblici etc.) ma  – e questo a mio avviso è il punto – sul cui output finale rimangono (per i limiti strutturali intrinseci di questo sistema) grandi incognite. Le piattaforme, sempre in base al Codice, dovranno investire in “technological means to prioritize relevant, authentic, and authoritative information”, concetti che – come evidente – lasciano preoccupanti spazi di discrezionalità non solo alle piattaforme ma anche ai soggetti terzi che eventualmente le assistano. 
Potrà non essere così semplice ed univoco raggiungere “objective criteria and endorsed by news media associations, in line with journalistic principles and processes” che assicurino la trustworthiness dell’informazione. Ed in ogni caso se esistono margini di operatività delle piattaforme che consentano alle stesse di discostarsi in tutto o in parte dal supporto degli specialisti dell’informazione significa che le piattaforme stanno svolgendo una funzione sostanzialmente editoriale. Se non esistono questi margini, significa che le piattaforme sono diventate degli editori in outsourcing senza però che sussista una responsabilità, vuoi di chi affida il servizio vuoi di chi lo svolge.

Stesso discorso può farsi con riferimento alla tutela avverso il c.d. hate speech. Secondo il Code of conduct on countering illegal hate speech online (che da attuazione alle misure richieste alle piattaforme dalla Direttiva sui servizi media audiovisivi) le piattaforme che lo hanno sottoscritto nel 2016 (originariamente Facebook, Microsoft, YouTube e Twitter e poi Instagram, Snapchat, Dailymotion, Jeuxvideo e Tik Tok) “share together with other platforms and social media companies, a collective responsibility and pride in promoting and facilitating freedom of expression throughout online word“.  E ancora, le piattaforme e la Commissione riconoscono il valore del “counter speech” contro la retorica dell’odio e si impegnano a “identifying and promoting independent counter-narratives, new ideas and initiatives and supporting educational programs that encourage critical thinking“.

Anche in tal caso, le funzioni delle piattaforme, almeno sulla carta in base alle altisonanti affermazioni appena richiamate, e sia pure accompagnate e guidate dalla Commissione europea, sembrano dunque di rilievo ed impatto decisivo su alcuni valori fondamentali e costituzionali.

Il Codice prevede un sistema che si basa sull’adozione di Community Guidelines in tema di hateful conduct che gli utenti devono rispettare. Le piattaforme possono ricevere segnalazioni in merito alla presenza di messaggi di incitamento all’odio direttamente da utenti  oppure dalle Civil Society Organisation (CSO, dei “trusted reporters” rappresentativi), segnalazioni queste ultime che vengono esaminate prioritariamente. Tutte le segnalazioni saranno vagliate dalle piattaforme (attraverso dei team dedicati) per verificare se i messaggi segnalati siano in contrasto con le proprie Guidelines o con le norme penali dei singoli Paesi Membri.

Sembra dunque che il ruolo delle piattaforme sia ancillare e volto a fornire concreti strumenti di contrasto da mettere in mano alle CSO, che sarebbero il punto decisionale e valutativo vero di ciò che va bloccato. L’operatività del sistema non sembra però confermare appieno questa conclusione, se solo si considera che nel primo rapporto sull’implementazione del Code of Conduct di cui si discute la Commissione riferisce che di 600 notifiche (di cui 270 fatte dalle CSO e 330 da end users) solo 169 contenuti sono stati rimossi dalle piattaforme. Inoltre la percentuale di contenuti rimossi sul numero di notifiche varia di molto da operatore a operatore (da un 19% di Twitter a quasi il 50% di YouTube).

Lo stesso sistema dei trusted reporter, che – come si è detto – non detengono in via esclusiva il potere di segnalazione,  solleva qualche perplessità. Innanzitutto perché non necessariamente si tratta di corpi inseriti direttamente o indirettamente nel circuito della rappresentatività, pur maneggiando una materia di sicura rilevanza per l’interesse generale. In secondo luogo perché, come mostra la prima valutazione svolta dalla Commissione sull’applicazione del Codice autoregolamentare, non tutte le CSO sono attrezzate ed attive per svolgere questa funzione di vigilanza/certificazione e si hanno così output di segnalazioni molto diversi da Paese a Paese (dove in certi casi le CSO sono più attive nel vigilare, in altri agiscono solo a seguito di input dell’utente finale). In terzo luogo, proprio perché le CSO sono (o possono essere) in linea di massima al di fuori del circuito istituzionale democratico (in Italia invece l’organismo deputato è l’Ufficio Nazionale Antidiscriminazioni Razziali istituito all’interno della Presidenza del Consiglio dei Ministri, pertanto organo Governativo e non Parlamentare) può darsi (come accaduto) che ci siano organismi che hanno un raggio di azione specifico, come ad esempio la lotta all’antisemitismo e che pertanto privilegino la segnalazione di messaggi antisemiti (piuttosto che di messaggi antiislamici o indirizzati ad altre comunità etniche o religiose), il che si traduce in un’azione di contrasto discrezionale e che non garantisce efficacemente l’interesse generale.

Il digital Service Act funzionerà?

Il recente Assesment sul funzionamento del Code of practice on Disinformation[v] svolto dalla Commissione europea a settembre dello scorso anno, sembra confermare tutte le criticità del sistema autoregolamentare di tutela dei diritto all’informazione di cui stiamo parlando. Le conclusioni ed i limiti del sistema autoregolamentare, ad oggi unico presidio a garanzia della libertà di informazione online, evidenziati dalla Commissione sono senz’altro alla base della soluzione regolatoria che viene ora proposta con il Digital Service Act. Non è detto però che quest’ultimo sia riuscito a superare il vizio di fondo, diciamo genetico, dell’approccio normativo al mondo dell’informazione online, che ha lasciato nelle mani degli operatori digitali un compito che non possono e non debbono avere, salvo non concludere che il loro ruolo è ormai definitivamente mutato ed abbandonare i dogmi della disciplina e-commerce, il mito dell’autoregolamentazione e così via.

Alle piattaforme si lascia di setacciare la rete rispetto a contenuti falsi o non attendibili e di selezionare i contenuti e le fonti attendibili. Di scegliere i fact chekers cui rivolgersi o le research community cui dare informazioni e credito. Di individuare o comunque rendere operativi day by day gli indicatori di attendibilità dei contenuti, certo  con l’aiuto si di fact chekers, media community, obblighi di trasparenza etc., ma in ultima istanza prendendo una decisione manageriale ed insindacabile (se non dai propri azionisti). Di gestire con delle ADR di natura privatistica le sorti del diritto di stare o non stare in rete, di poter parlare e diffondere il proprio pensiero o di poter accedere ai pensieri altrui. Di selezionare quale informazione posssa darci una visione completa di un problema (il “Context Bottom” di Facebook o la “Full Coverage” di Google, volta – forse un pò pretenziosamente – a consentire di espolare “a single story from a multiple perspective with news coverage and analysis from an array of sources“). Di decidere quale possa essere la più efficace ed acuta confutazione argomentativa di una posizione opposta. Se questo accade, è indubbio che alla fine abbiamo messo in mano a fornitori di servizi uno smisurato potere di merito sull’informazione e sulla formazione (la stessa capacità dialettica potrebbe essere influenzata negativamente dalla proposizione di confutazioni che ci abituino a schemi di opposizione concettuale banali, pedanti, scolastici, formali e non complessi o articolati).

Il tutto senza veri poteri di controllo e – come si è detto – senza responsabilità, nè delle piattaforme nè di altri soggetti. 

La Commissione nell’Assesment del Code of practice on disinformation già richiamato, difatti sottolinea l’assenza di sistemi di enforcement per la mancata compliance agli impegni assunti i via autoregolamentare (che peraltro, come si ritiene generalmete, costituiscono uno degli aspetti centrali per il successo di un sistema di self-regulation, tanto che lo stesso nuovo art. 4-bis della Direttiva SMAV  richiede che i sistemi alterativi di regolazione prevedano “un’applicazione effettiva, comprensiva altresì di sanzioni effettive e proporzionate“). Con specifico riferimento alla protezione di diritti fonamentali la Commissione specifica che nel Codice “there is no requirement for compliant procedures or other remedies to prevent or redress the erroneous treatment of content /e.g. demotion) or unwarrented actions against users (e.g. suspension of accounts) wich platforms consider to be in violation of their policieson disinformation”.

Il richio di lasciare a soggetti privati la scelta dei propri  (chiamiamoli così)  “consulenti di attendibilità dell’informazione e selezionatori di controinformazione” (i fact chekers cui la piattaforma intenda rivolgersi), tallone di achille di tutto l’attuale sistema, sembra aver motivato una obiezione della Commissione che ritengo di cruciale importanza. Nell’Assesment richiamato difatti si evidenzia come “online platforms have not considered other cooperative models such as open and non-discriminatory collaborations with independent fact checking initiatives that fulfil relevant eyhical and professional standards“. Una sorta di Open Access alla piattaforma da parte di chiunque abbia determinate caratteristiche  professionali  per poter svolgere il ruolo di verificatore, un  pluralismo interno delle piattaforme rispetto ai fact checkers. Lo stesso concetto viene ribadito dalla Commissione nel Piano d’azione per la democrazia europea del dicembre 2020,  dove si richiede una  collaborazione aperta e non discriminatoria tra verificatori di fatti e piattaforme.[vi] Resta chiaramente il tema di chi e con quale criterio stabilisca che un soggetto “fulfil relevant eyhical and professional standards“.

 Il sistema di reazione ed intervento contro fenomeni, che si verificano in ambiente digitale ma che si ripercuotono nel mondo reale, particolarmente pericolosi per il corretto funzionamento delle democrazie, mostrano dunque attualmente ampissime zone di criticità e spazi grigi dove potrebbe annidarsi un esercizio arbitrario e non sufficientemente garantista della gestione del diritto all’informazione, con una sostazale regressione qualitativa rispetto agli standard che si sono progressivamente imposti nel mondo dei media tradizionali.

La regolazione europea prossima futura (in particolare il DSA), sulla quale ora si chiede di convergere anche all’America di Biden, non sembra – a dire il vero – promettere  un decisivo “ritorno alla normalità” dei mezzi di informazione.

L’attuale sistema di certificazione dell’informazione illecita, ad esempio, sembra confermato e istituzionalizzato[vii] nella bozza di Regolamento europeo sul “Digital Services Act” dal binomio Global Service Coordinator (sostanzialmente una ANR a tema o un tema assegnato a ANR già esistenti) e Trusted Flaggers, nominati dal primo[viii], i quali però, ci si preoccupa di specificare, devono “represents collecitive interest”. Anche in tal caso sembra che tali entità non siano (o possano non essere, nelle soluzioni che ciascun Paese Membro potrà adottare) diretta e istituzionale espressione dell’interesse generale, inserita nel circuito democratico della rappresentanza.

In genere, comunque, anche il DSA sembra confermare l’antinomia tra soggetti che non hanno una responsabilità editoriale sui contenuti e le informazioni (pur avendo una – anche forte – responsabilità con riferimento ad altri aspetti relativi al corretto funzionamento delle loro piattaforme, specie per quelle più grandi, il Digital Service Act rubrica l’art. 7 come “No general monitor or active fact finding obligation”) ed il fatto che questi stessi soggetti sembrano detenere un potere effettivo e di intervento con riferimento all’informazione manipolata o polarizzante (e dunque particolarmente delicata per il funzionamento delle democrazie), tanto da essere gravati ad es. del compito di “content moderation”, e cioè della funzione di “detecting, identifying and addressing illegal content or information incompatible with their terms and conditions”, nonché di adottare azioni “that  affect the availability, visibility and accessibility of that illegal content”, ed in ultima istanza consistenti nella  “suspension of a recipient’s account”. Saranno poi le piattaforme stesse a prevedere dei sistemi di reclamo contro le loro decisioni di rimozione dei contenuti o di sospensione degli account, e tali decisioni non saranno (non dovranno essere) prese su basi esclusivamente automatizzate. Sembra perciò confermata una regolazione è di stampo privatistico (le condizioni contrattuali di fornitura del servizio predisposte dalle piattaforme) ed una gestione delle controversie parimenti rimessa al soggetto privato, laddove la rilevanza pubblicistica dell’azione svolta dalle piattaforme nel gestire le contestazioni sui propri provvedimenti di take down (oltre ad essere evidente) è appalesata dal fatto che si prevede che nelle procedure di notice and action le piattaforme debbano rispettare i diritti fondamentali tra cui la libertà di espressione e il diritto all’informazione.

Attraverso i compiti e i poteri progressivamente assegnati alle (o auto-assegnati dalle) piattaforme sulla base della incessante produzione di studi, orientamenti, accordi tra stakeholders, best practices condivise e proposte di regolazione che hanno caratterizzato gli ultimi anni (volti ad evidenziare la rilevanza del fenomeno della informazione online latu sensu illecita ed a predisporre strumenti di reazione e di intervento), anzicché  chiedere alle stesse (come nella filosofia della Direttiva SMAV, ben sintetizzata dall’Autorità di Regolazione britannica  Ofcom[ix]) una collaborazione di natura esclusivamente tecnica   si è delegato alle piattaforme un potere “di merito”, “discrezionale” sull’informazione che circola in rete. In sostanza un potere di “selezione ragionata” (oltre che di mera organizzazione), di intervento non solo “tecnico” ma assai vicino a quello esercitato  storicamente dagli editori, in quanto volto a promuovere diversità, fact cheking, valutazioni di illiceità e/o di rischiosità di un dato contenuto (come nel caso dei “cinguettii” che hanno accompagnato la rivolta di Capitol Hill), reperimento e promozione di informazione alternativa, promozione di informazione credibile e proveniente da fonti affidabili e, quando ciò non dovesse bastare….spegnimento della telecamera e dei microfoni.


[i] In verità la Commissione sta svolgendo una intensa attività in materia di informazione illecita online e di protezione della correttezza dei processi elettorali europei se si considerano, tra gli altri, le varie azioni in tema di disinformazione e “l’accompagnamento” delle relative attività autoregolamentari sinora messe in atto dagli operatori, di cui si è detto nel testo, nonché il Digital Services Act, l’annunciata proposta sulla trasparenza dei contenuti politici sponsorizzati (che dovrebbe essere presentata nel corso di quest’anno), etc. Nella visione futura della Commissione in questa sensibilissima materia c’è dunque spazio innanzitutto per una fonte primaria europea (pur riconoscendo che la materia è affidata principalmente agli Stati Membri ed avendo dunque ben presenti i limiti delle competenze Ue in questo settore); poi per un ruolo più attivo delle Autorità di Vigilanza (le quali, come sottolineava la Commissione già in passato, con riferimento all’informazione online, anche per ciò che riguarda le campagne elettorali, non hanno i medesimi poteri di cui dispongono verso i media tradizionali); infine completerebbero il quadro i codici di co-regolazione.

[ii] vedi nota precedente.

[iii] Ragion per cui le istituzioni europee, salvo qualche tentativo fatto nei primi anni ’90 e non andato a buon fine, hanno regolato i media tradizionali (i Servizi Media Audiovisivi), senza mai giungere sino a norme specifiche sul pluralismo informativo e sulle concentrazioni mediatiche. Anche recentemente il punto massimo dell’intervento europeo sembra essere la richiesta di maggiore trasparenza sugli assetti proprietari dei media e il finanziamento del nuovo osservatorio sulla proprietà dei media con la predisposizione (si veda il Piano di azione per la democrazia europea del 2020) di una banca dati pubblica che contenga queste informazioni, che si affianca alla più risalente elaborazione e applicazione del sistema di monitoraggio in base al Multimedia Pluralism Monitor.

[iv] Adottato sulla base della Comunicazione della Commissione “Contrastare la disinformazione online: un approccio europeo”, del 26.4.2018 (COM (2018) final).

[v] Commission Staff Working Document, Assesment of the Code of Practice on Disinformation – Acievements and areas for further improvement, SWD (2020)  180 final, del 10.9.2020.

[vi] La Commissione Ue,  nel Piano d’azione per la democrazia europea del 3.12.2020 (COM (2020) 790 final), nel prescrivere che il Code of practice on disinformation del 2018 debba essere riveduto e rafforzato, stabilisce  ad esempio che si “debbano prevedere  norme e procedure trasparenti per una collaborazione aperta e non discriminatoria tra verificatori di fatti e piattaforme”, lasciando così intendere che potrebbero esserci teoricamente casi in cui la piattaforma non si attenga a quanto valutato dal fact checker e che quest’ultimo non sia in definitiva il  dominus deputato in via esclusiva  a valutare l’illiceità dell’informazione .

[vii] La Commissione parla di “sostegno di coregolamentazione” al Codice di buone pratiche sulla disinformazione (sebbene rivisto e rafforzato, come si dirà).

[viii] In questo senso il DSA supera i limiti del quadro attuale limitando il potere discrezionale delle piattaforme nella scelta dei certificatori. La nomina del Trusted Flaggers ed in genere il rapporto tra quest’ultimo ed il Global Service Coordinator che lo ha nominato potrebbe però non essere di semplice gestione.  La possibilità di revoca del Trusted flagger da parte del Global Service Coordinator che lo ha nominato, prevista nel DSA, e la possibilità del primo di opporsi a tale revoca, sembrano far prevedere dei possibili contenziosi. In questo senso l’effettiva indipendenza nel tempo del GSC, oltre che chiaramente la qualità del TF, sembra essere forse l’unica garanzia rispetto ai rischi di un possibile funzionamento distorto di questo binomio di soggetti.

[ix]the Directive strikes an appropriate balance … Avoiding the undesirable attempt to impose mass media content regulations, intended for TV businesses, on other digital services and/or on thousands of individuals creating and sharing content online.

While it might be reasonable to consider whether YouTube and other AV platforms might have some specific regulatory responsibilities – potentially including roles which support the same purposes as the AVMSD – these responsibilities will need to reflect their specific role and function of platforms and should not, for example, entail some kind of editorial scrutiny of the characteristics of the AV content hosted.

Exit mobile version