Key4biz

IA e Revenge Porn, il 96% dei deepfake presenti sul web è porno

riconoscimento_facciale_no_garante_privacy

In Italia recentemente ha fatto scalpore un filmato video con l’ex premier Matteo Renzi realizzato dalla trasmissione tv Striscia la Notizia, un video fake prodotto di un algoritmo artificiale in grado di imitare alla perfezione Matteo Renzi.

Secondo gli ultimi dati, i video deepfake, che usano l’intelligenza artificiale per sovrapporre il volto di una celebrità sul corpo di una pornostar o per far dire o fare a un personaggio pubblico qualcosa di scandaloso, si stanno diffondendo sul web a macchia d’olio.

Le donne le più colpite

La cosa preoccupante però – e persino un business fiorente – che il 96% dei video deepfake presenti sul web colpiscono le donne.

A dirlo è il nuovo studio di Deeptrace, società di sicurezza informatica con sede ad Amsterdam che cerca di quantificare la crescita del fenomeno.

Lo studio rivela come la quasi totalità dei deepfake, sono filmati porno con protagoniste donne famose, mentre quelli ‘politici’ sono una piccola minoranza.

Secondo la ricerca al momento sul web ci sono 14.678 video deepfake, e il 96% è costituito da porno che hanno come protagoniste involontarie soprattutto attrici famose, mentre l’utilizzo con personaggi politici, che ha reso famosi questi video anche in Italia, non è ancora molto diffuso.

Il rapporto ha comunque registrato un aumento del 75% del numero dei video rispetto al 2018. “La pornografia deepfake è un fenomeno che riguarda quasi esclusivamente le donne – avvertono gli autori -. Tutti i video coinvolgono donne, soprattutto attrici e musiciste famose. Il numero non è ancora molto alto, ma preoccupa l’ascesa del fenomeno“.

Exit mobile version