il dibattito

Siti sessisti, analisi della proposta di Noi Moderati su deepfake e identità digitale nel contesto normativo vigente

di Gianluca Regolo, Avvocato esperto di proprietà intellettuale Studio Legale Adolfo Larussa |

La proposta di legge di Noi Moderati va inquadrata alla luce delle norme già vigenti e delle difficoltà concrete di applicazione. Il tema dell’identificazione degli utenti è uno dei più sensibili.

Il dibattito, politico e giuridico, sui deepfake e sull’anonimato in rete, recentemente ha conquistato la ribalta nelle notizie di attualità e cronaca.

Da una parte la vicenda PHICA, il sito divenuto tristemente noto per la diffusione di video manipolati digitalmente a sfondo sessuale, nei quali l’immagine di donne veniva alterata con tecniche di deepfake senza alcun consenso: un esempio evidente di come la tecnologia possa trasformarsi in strumento di violenza digitale.

Dall’altro, il gruppo Facebook “Mia moglie”, dove circolavano fotografie reali di donne, scambiate e commentate dagli utenti.

Phica e Mia Moglie, fenomeni distinti

Due fenomeni distinti — manipolazione artificiale nel primo caso, sfruttamento illecito di immagini autentiche nel secondo — che hanno messo in luce un medesimo problema: l’insufficienza degli strumenti attuali nel proteggere l’identità e la dignità delle persone nello spazio digitale.

I pilastri della PdL di Noi Moderati

È in questo contesto che nasce la proposta di legge “Noi Moderati”, costruita attorno a tre pilastri: l’identificazione obbligatoria degli utenti tramite SPID o CIE, l’obbligo di contrassegnare i deepfake con un marchio identificativo e l’introduzione di una nuova fattispecie penale di “diffusione fraudolenta online”, con un ruolo rafforzato per AGCOM e Garante Privacy.

Sono misure chiaramente pensate per rafforzare la protezione delle vittime; ciononostante le suddette misure vanno valutate alla luce delle norme già vigenti e delle difficoltà concrete di applicazione.

Il tema dell’identificazione degli utenti è uno dei più sensibili.

L’idea di superare l’anonimato assoluto nasce dall’esigenza di rendere tracciabile chi effettivamente commette l’abuso, ma né l’AI Act (Reg. UE 2024/1689) né il Digital Services Act (Reg. UE 2022/2065) hanno scelto questa strada.

Il DSA vieta la sorveglianza generalizzata online

Il DSA, anzi, vieta forme di sorveglianza generalizzata e prevede strumenti mirati: ordini specifici di rimozione o di accesso ai dati, procedure trasparenti di notice-and-action, motivazioni chiare e sistemi di ricorso. Pretendere che ogni piattaforma social globale gestisca processi di identificazione obbligatoria significherebbe affrontare problemi pratici enormi — minori, utenti extra-UE, account multipli — con il rischio di contrasti con il principio di proporzionalità del GDPR (Reg. UE 2016/679).

Pseudonimia verificata più indicata dell’anonimato tout court

Più che una rinuncia all’anonimato tout court, appare più equilibrato immaginare forme di pseudonimia verificata, in cui l’identità reale dell’utente resta accertata e disponibile alle autorità competenti solo in caso di abusi, senza imporre una esposizione permanente a tutti.

Sul fronte dei deepfake, la proposta prevede l’obbligo di un marchio identificativo, una sorta di timbro digitale che ne segnali la natura artificiale.

Watermark già previsto dall’AI Act

Tuttavia, l’AI Act ha già introdotto un obbligo analogo di trasparenza, ma lo ha fatto restando “tecnologicamente neutro”: etichette visibili, metadati, watermark, purché garantiscano il risultato della riconoscibilità.

Il rischio della proposta italiana è quello di irrigidire il sistema, puntando tutto sul watermark, che da solo può rivelarsi vulnerabile e facilmente aggirabile. La vera efficacia sta nella combinazione di strumenti: watermarking, sistemi di provenienza crittografica e controlli lato piattaforme. Anche qui, l’obiettivo della proposta è condivisibile, ma occorre inserirlo in un contesto più ampio, già delineato a livello europeo, per non introdurre obblighi difficilmente applicabili o rapidamente superati dalla tecnologia.

Diffamazione, revenge porn e diritto d’immagine già esistono

Quanto al reato di “diffusione fraudolenta online”, l’intenzione è quella di colpire in maniera più mirata la diffusione di deepfake e altre manipolazioni digitali.

È bene però ricordare che il nostro ordinamento già conosce strumenti di tutela: la diffamazione (art. 595 c.p.), il revenge porn (art. 612-ter c.p.) e soprattutto il diritto all’immagine (art. 10 c.c. e artt. 96 e 97 l.d.a.), che protegge il ritratto anche senza offesa all’onore o alla reputazione.

La proposta non crea dunque una nuova tutela sostanziale, ma – apparentemente – tenta di rafforzare l’enforcement, dando maggiore incisività all’intervento repressivo.

Il nodo più delicato dei casi di confine

Il nodo più delicato resta quello dei casi di confine: un deepfake che riproduce fedelmente una persona è chiaramente illecito, ma se un contenuto ne evoca le sembianze senza riprodurla in modo diretto? La giurisprudenza italiana, in ambito pubblicitario, ha già riconosciuto tutela contro l’appropriazione evocativa — si pensi ai sosia o alle imitazioni vocali — e simili principi potrebbero estendersi anche ai deepfake. Una fattispecie penale specifica avrebbe il merito di consolidare questa protezione e di rendere più chiaro il quadro sanzionatorio.

Infine, la questione dell’enforcement sulle piattaforme.

La proposta attribuisce a AGCOM e Garante poteri rilevanti, comprese sanzioni elevate e la possibilità di disporre oscuramenti. È giusto rafforzare il ruolo delle autorità indipendenti e responsabilizzare gli intermediari, ma l’esperienza europea insegna che l’efficacia dipende dal rispetto delle procedure: ordini specifici e motivati, canali ufficiali, pubblicità delle motivazioni e possibilità effettive di ricorso, come previsto dal DSA.

Senza queste garanzie, il rischio è che la paura delle sanzioni induca le piattaforme a rimuovere contenuti in via preventiva, anche leciti, con conseguenze sulla libertà di espressione. La sfida è quindi trovare un equilibrio: garantire strumenti rapidi e incisivi contro i deepfake sessisti o non consensuali, ma sempre entro i binari europei di trasparenza e proporzionalità.

Armonizzazione nel quadro europeo

In definitiva, la proposta “Noi Moderati” coglie l’urgenza di dare risposte a fenomeni che hanno già prodotto parecchi e seri danni a persone pressoché inconsapevoli.

Tuttavia, nel caso “passasse”, affinché possa davvero rafforzare la protezione delle vittime (inconsapevoli) senza creare eccessiva rigidità o sovrapposizioni, dovrà armonizzarsi con il diritto europeo, restare tecnologicamente flessibile e mantenere un equilibrio tra repressione degli abusi e tutela delle libertà fondamentali.

Leggi le altre notizie sull’home page di Key4biz