Key4biz

AI e valanga di falsi video della guerra in Iran. BBC: “Crollata ogni barriera”

Guerra, Iran, AI, disinformazione, fake news

Guerra, Iran, AI, disinformazione, fake news

Guerra Iran-Israele, boom di video e immagini satellitari falsi generati dall’AI

Un’ondata senza precedenti di contenuti falsi generati con l’intelligenza artificiale (AI) sta invadendo i social network mentre l’opinione pubblica cerca informazioni sulla guerra all’Iran di Stati Uniti e Israele. Video di bombardamenti mai avvenuti, immagini satellitari manipolate e scene spettacolari di città in fiamme, stanno accumulando milioni di visualizzazioni online.

È quanto emerge da un’inchiesta di Thomas Copeland per la BBC, che documenta come la disinformazione prodotta con l’AI stia diventando un vero e proprio modello di business per molti creator.

La barriera per creare filmati di guerra falsi e convincenti è crollata

Secondo Timothy Graham, esperto di media digitali della Queensland University of Technology, la situazione è ormai fuori scala: “La portata è davvero allarmante e questa guerra ha reso impossibile ignorarla”.

Il punto è che la tecnologia ha abbattuto quasi completamente le barriere tecniche: “Quello che prima richiedeva una produzione video professionale – ha precisato Graham – ora può essere fatto in pochi minuti con strumenti di AI”.

Il risultato è una proliferazione di contenuti che sembrano realistici ma che in realtà sono completamente falsi: “La barriera per creare filmati di guerra sintetici e convincenti è essenzialmente crollata”, ha sottolineato l’esperto della Queensland University.

Il falso video della nave da guerra condiviso anche dal governatore del Texas (lo stesso usato dai nostri TG per l’Ucraina)

Per capire pienamente la gravità del problema, basti pensare che il 5 marzo scorso, il governatore del Texas Greg Abbott ha condiviso sul suo profilo X (poi prontamente eliminato) il video falso di una nave da guerra americana che prendeva di mira un aereo militare iraniano.

Secondo l’articolo pubblicato da Lucy Carter e Michael Workman per ABC NEWS Verify il video sembrerebbe provenire da un famoso videogioco di simulazione militare chiamato War Thunder.

Il video ha totalizzato più di 7 milioni di visualizzazioni su X.
Secondo TJ Thomson, esperto di media digitali e comunicazione visiva del RMIT, “la portata di questo conflitto, unita ai rapidi progressi nella tecnologia dell’intelligenza artificiale generativa, sta rendendo sempre più difficile per le persone distinguere la realtà dalla finzione”.

Il rapido sviluppo della tecnologia dell’intelligenza artificiale farà sì che presto le persone non crederanno più ai propri occhi e purtroppo ci stiamo velocemente arrivando a questo punto”, ha commentato Thomson. A pensarci bene, più che un ovvio allarme generale è quasi un incubo per il futuro delle democrazie di tutto il mondo, che dipendono dall’informazione libera e di qualità.

Lo stesso videogioco (sempre “War Thunder“) è stato utilizzato dal TG1 e dal TG2 della nostra Rai nei primi giorni dell’invasione russa dell’Ucraina (24 febbraio 2022), spacciandolo per immagini di missili russi su Kiev durante le dirette dei giornalisti inviati sul campo.

Missili su Tel Aviv e Dubai in fiamme: i fake che diventano virali

Tra gli esempi analizzati da BBC Verify c’è un video AI che sembra mostrare missili che colpiscono Tel Aviv, accompagnati dal rumore delle esplosioni. Il filmato è stato pubblicato in oltre 300 post e condiviso decine di migliaia di volte.

Un altro video, visto milioni di volte, mostra il grattacielo Burj Khalifa di Dubai avvolto dalle fiamme, con persone che fuggono dalla zona. Anche questo è completamente generato con l’intelligenza artificiale.

Il problema non riguarda solo i video. Si fanno strada con forza (facilmente anche) le immagini satellitari false. Un esempio riguarda una fotografia che circola sui social e che pretende di mostrare gravi danni alla base della Quinta Flotta della Marina americana in Bahrain.
In realtà l’immagine è stata generata artificialmente a partire da una vera fotografia satellitare del 2025.

I falsi video fatti con l’AI hanno un impatto enorme sulla fiducia nel sistema dell’informazione

Secondo Mahsa Alimardani, ricercatrice dell’Oxford Internet Institute specializzata sull’Iran, la diffusione di questi contenuti ha conseguenze dirette sulla qualità dell’informazione: “Video falsi come questi hanno un impatto negativo sulla fiducia delle persone nelle informazioni verificate che vedono online e rendono molto più difficile documentare prove reali”.

Alimardani osserva inoltre che il fatto che alcune piattaforme stiano iniziando a intervenire dimostra quanto il problema sia diventato evidente: “È un segnale importante che si siano accorti che si tratta di un problema enorme”.

L’AI rende i falsi sempre più facili da creare e la pipeline verso i social è ormai automatizzata

La crescita dei fake è alimentata dalla disponibilità di nuovi strumenti di generazione automatica. Tra questi ci sono modelli come Sora di OpenAI, i sistemi video di Google, applicazioni cinesi come Seedance e strumenti integrati nei social network.

Secondo l’esperto di AI Henry Ajder: “Il numero di strumenti disponibili per creare manipolazioni altamente realistiche è senza precedenti. Non abbiamo mai visto tecnologie così accessibili, così facili e così economiche da utilizzare”.

Per Victoire Rio, direttrice della non profit tecnologica What To Fix, questo ha trasformato completamente il processo di produzione della disinformazione: “La diffusione di contenuti AI è esplosa perché la pipeline verso i social media può ormai essere quasi completamente automatizzata”.

Il ruolo di X e il problema della monetizzazione. L’avanzata delle imprese della disinformazione?

Un elemento chiave è il sistema di monetizzazione delle piattaforme social, che premia i contenuti virali indipendentemente dalla loro veridicità. Su X, il programma Creator Revenue Sharing paga gli utenti che generano grandi volumi di visualizzazioni, commenti e interazioni. Secondo le stime riportate da Graham, la piattaforma potrebbe pagare: “circa otto-dodici dollari per ogni milione di impression verificate”.

Per accedere al programma, i creator devono superare una soglia di milioni di visualizzazioni in pochi mesi e possedere un abbonamento premium. Una volta entrati nel sistema, però, la dinamica cambia completamente.

Una volta dentro, i contenuti virali generati con l’AI diventano praticamente una macchina per fare soldi. Hanno costruito l’impresa definitiva della disinformazione”, spiega Graham.

Secondo il responsabile dei prodotti di X, citato da BBC Verify, il 99% degli account che diffondono video AI di guerra starebbe cercando di sfruttare il sistema di monetizzazione.

La piattaforma ha annunciato che sospenderà temporaneamente dal programma di pagamento i creator che pubblicano video di conflitti generati con l’AI senza etichettarli chiaramente.

Secondo Graham: “La questione più profonda è che la monetizzazione basata sull’engagement e l’informazione accurata sono fondamentalmente in tensione tra loro, e nessuna piattaforma ha davvero risolto questo conflitto – e forse non lo farà mai”.

Il caso Grok: quando anche l’AI sbaglia. In pericolo i sistemi democratici?

La situazione è resa ancora più complessa dal ruolo degli assistenti basati sull’intelligenza artificiale. Diversi utenti hanno chiesto al chatbot Grok, integrato nella piattaforma X, di verificare l’autenticità di alcuni video. In molti casi analizzati da BBC Verify, però, Grok ha sbagliato, sostenendo che i filmati fossero reali.

Questo dimostra quanto sia difficile distinguere i contenuti autentici da quelli sintetici anche per sistemi avanzati di AI.

In ultima analisi, va ricordato sempre che ciò che genera più attenzione (shock, paura, immagini spettacolari, violenza) tende a diffondersi più velocemente delle informazioni verificate. Un grande vantaggio per chi specula e fa profitti sulle tragedie dell’umanità.

Exit mobile version