Truffe online

La voce di tuo nipote clonata dall’IA ti chiede i soldi. Occhio alla nuova truffa telefonica per anziani

di |

La voce clonata di un nipote o di un figlio viene usata dagli hacker per truffare soprattutto gli anziani, convincendoli a consegnare grosse somme di denaro.

Si chiama deepkake della voce ed è l’ultima ondata di truffe generate dall’Intelligenza artificiale. Ne scrivono già molto in diversi paesi, fra cui il Canada ma anche la Svezia, dove persone anziane sono state raggirate da voci telefoniche del tutto identiche a quelle di nipoti e figli. Voci che dall’altro capo del telefono chiedevano con urgenza ingenti somme di denaro, anche 3mila dollari, magari per uscire di prigione o per altre questioni urgenti. E così i nonni premurosi hanno sganciato i soldi, per poi rendersi conto che si trattava di una voce finta, prodotta dall’intelligenza artificiale per imitare in tutto e per tutto quella dei più stretti parenti.  

Nuova ondata di deep fake vocali

Ne ha scritto recentemente Il Washington Post, mettendo in guardia il pubblico da questa nuova ondata di deep fake, usata per raggiare le persone più disparate, più di tutti persone anziane.

Fingere che qualche membro della famiglia abbia un problema funziona bene con quel target di persone.

Lo rende noto la FTC (Federal Trade Commission) secondo cui nel 2022 sono state più di 36mila le segnalazioni di truffe o quanto meno tentativi di truffa avvenuti in questo modo  

Nuova generazione IA

Con la nuova generazione di motori AI, in grado di imitare qualunque tipo di voce umana con l’allenamento, le cose stanno peggiorando e Microsoft ha da poco presentato VAL-E. Di male in peggio, considerato che le voci clonate dall’IA fanno esattamente quello che fanno i truffatori veri: imitano la voce di qualcuno di cui ti fidi. Un bambino, un parente, un amico. Poi convincono la vittima designata a mandargli dei soldi ad un indirizzo prestabilito, adducendo gravi problemi inventando gravi problemi di ogni tipo.

Le voci contraffatte, tra l’altro, non devono nemmeno essere prese dall’originale in modo volontario. Basta un video caricato su Youtube, un podcast o un pezzetto di video su TikTok, Instagram o Facebook per creare una voce falsa ma identica all’originale.  

Il consiglio è di farsi venire qualche dubbio quando qualche parente ti chiede urgentemente dei soldi e nel caso chiamalo subito per verificare che sia davvero lui a domandarteli.