La minaccia

Elezioni Ue: audio deepfake pericolo maggiore dall’AI. In che modo l’Europa si difende dalle fake news?

di |

Cresce la preoccupazione nei confronti di possibili, per non dire quasi certe campagne di disinformazione in vista delle prossime elezioni europee di giugno. Come arginare il fenomeno?

Cresce la preoccupazione nei confronti di possibili, per non dire quasi certe campagne di disinformazione in vista delle prossime elezioni europee di giugno. E’ certo che le fake news faranno parte del discorso politico social del mese prossimo, con particolare attenzione ai contenuti generati automaticamente dall’Intelligenza Artificiale.

La Commissione Ue ha pubblicato delle misure raccomandate per contrastare il fenomeno sulle piattaforme digitali non più tardi di marzo. L’obiettivo è tutelare quanto più possibile i milioni di utenti europei mensili che rischiano di essere condizionati da contenuti fuorvianti e falsi in vista dell’appuntamento con le urne.

Inoltre, diverse piattaforme hanno sottoscritto il codice di condotta Ue in tema di disinformazione contro il dilagare del fenomeno.

La disinformazione può assumere diverse forme e secondo gli esperti i temi più citati riguardano il clima, l’immigrazione e il supporto all’Ucraina.

Secondo gli esperti, la disinformazione avrà una natura eminentemente locale e nazionale.

False informazioni saranno veicolate in tema di rifugiati ucraini e politiche sui mutamenti climatici.

L’audio deepfake è la preoccupazione principale quando si parla di disinformazione sull’intelligenza artificiale

Per quanto riguarda l’intelligenza artificiale, si tratta ovviamente di un ulteriore rischio che si aggiunge a quelli già esistenti.

I deepfake sono in circolazione ormai da tempo e stanno migliorando sempre di più. E soprattutto ora ci sono i deepfake vocali che sono davvero convincenti.

Leggi anche: Truffe ed estorsioni con l’IA, le nuove frontiere del cybercrime passano per i deepfake vocali

Mentre immagini e video generati dall’intelligenza artificiale non sono ancora abbastanza buoni da offrire risultati del tutto realistici, al contrario l’audio generato dall’intelligenza artificiale può sembrare facilmente reale a causa della mancanza di indizi visivi.

Secondo diversi rapporti, durante le elezioni slovacche del 2023, Michal Šimečka, leader del partito progressista, è stato vittima di una campagna di disinformazione con una falsa registrazione in cui discuteva di brogli elettorali con un giornalista.

Smascherare questo tipo di contenuti richiede tempo. Quindi può essere potenzialmente dannoso per le elezioni.

Codice di condotta, ma non basta

La maggior parte dei partiti politici europei ha firmato un codice di condotta elettorale impegnandosi ad “astenersi dal produrre, utilizzare o diffondere contenuti fuorvianti”.

Il Codice di condotta sulla disinformazione afferma inoltre che i firmatari si impegnano ad affrontare questioni come i “deep fake dannosi”. Tuttavia, attualmente non esiste un sistema infallibile per rilevarli.

Gli esperti hanno inoltre avvertito che gli utenti non dovrebbero fidarsi dei chatbot dotati di intelligenza artificiale, che sono soggetti ad “allucinazioni” e possono comunicare informazioni false in modo molto realistico.

Uno dei fenomeni alimentati dall’intelligenza artificiale che è causa di crescente preoccupazione è la creazione di deepfake pornografici utilizzati come armi contro le candidate donne.

Il primo ministro italiano Giorgia Meloni è stato una delle vittime e chiede 100mila euro di danni, ha riferito la BBC.

Una miriade di strumenti per combattere la disinformazione sulle piattaforme social

Di fronte a un crescente controllo dopo i precedenti scandali, diverse piattaforme di social media hanno adottato diverse misure per aumentare il monitoraggio della disinformazione.

TikTok, di proprietà della società cinese Bytedance, ha creato un centro elettorale online dell’UE, aggiungendo che sulla piattaforma era presente il 30% dei deputati.

Alcune settimane dopo l’annuncio di TikTok, anche Meta ha affermato che stava allestendo un proprio centro operativo per le elezioni “per identificare potenziali minacce e mettere in atto misure di mitigazione in tempo reale”.

In una dichiarazione separata, la società madre di Facebook ha affermato che prevede di iniziare a etichettare i contenuti generati dall’intelligenza artificiale nel maggio 2024. C’è da dire che è di oggi la notizia che la Commissione avrebbe acceso un faro su Facebook. La Commissione europea è pronta ad avviare un’indagine su Facebook e Instagram sostenendo che non avrebbero fatto abbastanza per contrastare la disinformazione proveniente dalla Russia e da altri Paesi.

Secondo Reuters, anche Google ha creato la sua task force anti-disinformazione Jigsaw e si sta preparando a lanciare una campagna in cinque paesi dell’UE. La società ha anche iniziato a introdurre restrizioni sulle domande relative alle elezioni poste al suo chatbot Gemini AI.

La piattaforma di social media X, ex Twitter, non ha fatto annunci relativi alle elezioni.

Le aziende rischiano multe fino al 6% delle loro entrate globali annuali se non rispettano il Digital Services Act (DSA), che richiede alle piattaforme di mitigare la manipolazione elettorale.

Gli esperti dicono che gli elettori dovrebbero essere cauti.

È importante verificare la fonte delle informazioni condivise, soprattutto perché è possibile creare siti Web doppelganger per imitare media affidabili.

Prima di condividere contenuti di dubbia provenienza è quindi consigliabile verificare la fonte e la veridicità delle informazioni magari confrontandole con quelle dei media tradizionali.