il commento

Deepfake e teorie del complotto, ma a rischio è la nostra percezione del mondo

di |

L’approccio ai video deepfake basato sulla sua semplice identificazione per verificare se un video è o meno un falso non è sufficiente, dal momento che questo approccio può far aumentare i cosiddetti falsi positivi. Quando il virtuale non rappresenta più il reale, decade la differenza tra verità e menzogna e tutto diventa soggettivo e manipolabile.

Lo scorso 25 ottobre un gruppo di 5 ricercatori guidati da John Twomey ha pubblicato un paper scientifico sul ruolo dei deepfake nella guerra russo-ucraina (Do deepfake videos undermine our epistemic trust? A thematic analysis of tweets that discuss deepfakes in the Russian invasion of Ukraine).

Il deepfake di Zelensky e il loro usi nella guerra russo-ucraina

In effetti la guerra in corso non ci ha risparmiato nulla in tema di deepfake. Nel marzo 2022 fu diffuso un video con il presidente ucraino Volodymyr Zelensky che si rivolgeva ai propri soldati chiedendo di arrendersi all’esercito russo. Il video era un po’ dozzinale, con una sincronizzazione di labbra passabile, ma la voce, con un accento non preciso, non appariva propriamente la sua, infine la stessa attaccatura della testa di Volodymyr Zelensky sul collo lasciava a desiderare. Il video non ha avuto una grande diffusione, tranne che in Russia, dal momento che Facebook, X (allora Twitter) e YouTube, dichiararono di aver cancellato il post dai propri archivi. Si è poi saputo che hacker russi avevano anche provato ad hackerare i sistemi di protezione della TV ucraina per far apparire il video all’interno di un programma di massimo ascolto, senza peraltro riuscirci.

Quindi in un certo senso l’obiettivo degli autori del deepfake, che era prevedibilmente erodere la fiducia dell’opinione pubblica ucraina nei confronti di Volodymyr Zelensky, è stato raggiunto solo in minima parte.

Perchè possono minare la fiducia nei media e screditarne i contenuti

Tuttavia, è indubbio che video come questi possono essere responsabili di un tipo di erosione ben più insidiosa: possono infatti minare la fiducia nei media e in tutti i canali di informazione, screditandone i contenuti.

Ma la carente qualità dei deepfake usati generati dall’IA nel contesto della guerra russo-ucraina non deve trarre in inganno. Anche se i deepfake non sono molto convincenti, la loro stessa circolazione aiuta a diffondere dubbi e alimentare teorie del complotto nell’immaginazione dell’opinione pubblica online (che oggi è l’opinione pubblica tout-court).

E che il meccanismo funzioni lo testimonia il fatto che il mondo si popola di studios dove si possono produrre deepfake sempre più perfetti.

Ci si potrebbe spingere a dire che anche i deepfake non dannosi, fatti per spettacolo o per divertimento, possono contribuire anch’essi a questa azione di delegittimazione dell’informazione.

Individuare il video falso non è sufficiente

Nella loro ricerca John Twomey e i suoi colleghi hanno analizzato 1.392 tweet con deepfake nei primi 7 mesi del 2022.

Applicando una tecnica semantica nota come “analisi sematica riflessiva” (A worked example of Braun and Clarke’s approach to reflexive thematic analysis), hanno evidenziato che l’approccio ai video deepfake basato sulla semplice identificazione della sua natura, ovvero per verificare se un video è o meno un deepfake non è sufficiente, dal momento che questo approccio può far aumentare i cosiddetti falsi positivi.

Il risultato è stato molto chiaro. Buona parte dello scetticismo riscontrato era malsano. Il numero dei tweet che indicavano con precisione i deepfake è stato surclassato, con un rapporto 1 a 5, dai tweet che accusavano video veritieri ed affidabili di essere deepfake.

Taluni hanno indicato i deepfake come motivo per dubitare di qualsiasi informazione sul conflitto, anche da fonti di notizie affidabili. Altri hanno usato i deepfake come occasione per lanciare anatemi sul fatto che giornalisti e governi sono uniti dal medesimo obiettivo di costruire un’agenda del mondo nefasta.

Naturalmente al punto estremo si sono collocati i tweet che hanno sparato a zero usando il linguaggio tipico delle teorie del complotto. I ricercatori che si occupano di disinformazione parlano, in questo caso, del cosiddetto “dividendo del bugiardo” (The Liar’s Dividend: The Impact of Deepfakes and Fake News on Politician Support and Trust in Media).

Il succo è che in un contesto alterato c’è spazio per tutto.

Ad esempio, un politico può rintuzzare chi lo critica a ragione, accusandolo di diffondere notizie false e magari attraverso un deepfake, indipendentemente dalla veridicità delle affermazioni. Anche se si potrebbe obiettare che una dinamica del genere è vecchia come il mondo. Insomma, i risultati suggeriscono che anche i deepfake appartenente innocui, quelli fatti per spettacolo o per scherzo, contribuiscono anch’essi al “dividendo del bugiardo”.

I deepfake e i “falsi positivi”

Da tutto ciò si evince come sia difficile affrontare con prudenza la complessa tematica dei video che alterano la realtà. E intervenire non è semplice.

Non tutti i deepfake sono fatti allo stesso modo e quelli realizzati per ragioni politiche richiedono un tocco diverso rispetto a quelli creati per innocuo divertimento o costruiti per molestie o pornografia non consensuale. Del resto la stessa tecnologia usata è ancora nuova e in continua evoluzione, non deve pertanto colpire il fatto che il loro impatto sia ancora non del tutto analizzato come si vorrebbe.

Secondo Nils Kobis, scienziato comportamentale che studia le interazioni uomo-IA presso il Max Planck Institute for Human Developmente a Berlino: “Sarebbe davvero bello mostrare qual è l’impatto effettivo dei deepfakes, ad esempio, sulla memoria e sul lungo periodo. Gli studi a lungo termine sarebbero molto utili per capire meglio l’impatto che essi hanno sulla nostra mente”.

Alcune ricerche su notizie false o inventate di sana pianta (Fake news reinforces trust in mainstream news brands) indicano che la disinformazione se, da un lato, può accendere la sfiducia e generare sospetto, dall’altro, potrebbe aumentare la fiducia nei canali mainstream in qualche modo certificati e considerati come sicuri. Sarebbe una sfumatura di non poco conto.

L’uso politico o antigovernativo dei deepfake

Rimane il fatto che i deepfake legati alle attività di questo o quel governo non sono un fatto isolato o localizzato. Nel corso dell’anno non sono mancati ovviamente altri casi emblematici. A partire da quello dell’inizio anno, quando soggetti non meglio identificati hanno usato un software commerciale di IA destinato a produrre video di formazione per produrre invece propaganda a sostegno della giunta militare che aveva promosso il colpo di Stato del Burkina Faso (Deepfakes circulate of AI ‘pan-Africans’ backing Burkina Faso’s military junta), fino a quelli più recenti del conflitto Israele-Gaza, che ha generato un’ondata di deepfake per la verità anche minore rispetto alle aspettative degli esperti (Generative AI Is Playing a Surprising Role in Israel-Hamas Disinformation).

In conclusione, il lavoro di indagine di Twomey e dei suoi colleghi si è concentrato di fatto sui deepfake di una parte del mondo e su una sola piattaforma di social, sarebbe invece il caso si estenderla, dal momento che servirebbe un lavoro empirico di portata ben più ampia. Sarà una necessità del tutto inevitabile, dal momento che al centro dell’attenzione è la percezione che abbiamo del mondo in cui viviamo. E non è poco.