Key4biz

Iniziative per contrastare la diffusione delle sfide di resistenza (challenge) sui social. Audizione del Garante Privacy Pasquale Stanzione

pasquale Stanzione

Audizione del Presidente del Garante per la protezione dei dati personali, Prof. Pasquale Stanzione – Esame della risoluzione 7-00055, recante iniziative per contrastare la diffusione delle sfide di resistenza (challenge) nelle reti sociali telematiche. Camera dei Deputati – VII Commissione Cultura, Scienza e Istruzione

(26 aprile 2023)

Ringrazio, anzitutto, la Commissione, per la sensibilità dimostrata nel voler affrontare, anche dal punto di vista della protezione dei dati personali un tema di tale rilievo quale quello della diffusione, sui social network, di sfide tra adolescenti talora anche letali. Questo fenomeno ha destato una significativa attenzione già nel 2017 con “Blue Whale”, una sfida con effetto manipolativo dai contenuti quasi istigativi al suicidio, che peraltro ha condotto in Italia, nel 2021, a una condanna per violenza privata ed atti persecutori. Altri casi noti hanno riguardato la morte, nel gennaio 2021, di una bimba palermitana di soli dieci anni che aveva aderito all’incitamento a pratiche di soffocamento, nell’ambito di una macabra sfida su Tik Tok. Tra le più recenti merita considerazione, in particolare, quella della “cicatrice francese”, diffusa anche in Italia ed oggetto della risoluzione in discussione. 

Social network vanno governati

Naturalmente i social network non sono solo questo e, come correttamente rileva la stessa risoluzione, il loro uso non va demonizzato né, aggiungo, subito, ma governato con consapevolezza. Le stesse sfide sui social non presentano tutte e soltanto contenuti autolesionistici o comunque pericolosi: ve ne sono anche di innocue, come quella relativa alla pubblicazione della lista dei propri libri o film preferiti o di foto degli utenti da piccoli. Ma è evidente come anche soltanto la possibilità del coinvolgimento di minori in “giochi” potenzialmente persino mortali, per effetto dell’esposizione a contenuti dalla valenza manipolatoria o, comunque, fortemente condizionante, non può lasciare inerti le istituzioni. 

Social, uso dei minori va regolamentato


Il tema delle sfide sui social va inquadrato all’interno della più ampia questione dell’uso inadeguato della rete e, in particolare, dei social network da parte dei minori. Esso va regolamentato e gestito con attenzione, per consentire ai ragazzi di fruire delle molte opportunità (di conoscenza, informazione, relazioni sociali) offerte dalla rete, in condizioni tuttavia di sicurezza. 
Va, in particolare, evitata l’esposizione dei ragazzi a contenuti e contesti inadeguati per il grado di sviluppo, anche in termini di autodeterminazione, della loro personalità che, va ricordato, anche negli adolescenti è ancora in formazione e, dunque, maggiormente suscettibile di condizionamento. Fenomeni drammatici come il grooming (l’adescamento di minori in rete attraverso tecniche di manipolazione psicologica ndr), il cyberbullismo, il revenge-porn, il coinvolgimento in “giochi” mortali hanno infatti in comune, pur nelle loro differenze, l’esposizione del minore a un mezzo, quale la rete, che se utilizzato in modo sbagliato o in assenza della necessaria consapevolezza e capacità di autodeterminazione, può avere effetti fortemente lesivi. 

Per un minore è, infatti, spesso difficile opporre un diniego a una richiesta di condivisione di immagini o, comunque, contenuti della cui lesività non sempre riesce ad avere contezza: questo spiega molto delle dinamiche del cyberbullismo, del revenge porn ma anche del grooming. Molti adescamenti nascono, infatti, con la richiesta al minore di cessione di immagini o dati privatissimi in cambio di altro, con la possibilità, pericolosissima, di incontri non più solo virtuali. Rispetto al coinvolgimento nelle sfide anche potenzialmente autolesive gioca, invece, la componente ulteriore del rito d’iniziazione, della volontà del minore, tanto più se fragile, di sentirsi accettato dal “gruppo” mostrandosi privo d’inibizioni, spregiudicato e disposto a mettere a rischio, talvolta, persino la propria stessa vita. Sono, naturalmente, dinamiche note e tipicamente adolescenziali, ma che con i social network e le infinite possibilità d’interazione da essi consentite si espandono, spesso, oltre le cautele apposte dai genitori nel mondo off-line, con la selezione della cerchia di amici di riferimento, dei contesti e delle attività consentite al minore, delle sue possibilità di scelta autonoma. 

Evitare il rischio di solitudine digitale per i più piccoli. Soglia di accesso online fra 13 e 16 anni nella Ue

Questi pericoli si amplificano, del resto, in misura esponenziale quanto più piccoli e, dunque, tendenzialmente immaturi siano gli utenti delle piattaforme: stabilire la soglia di accesso autonomo dei minori alla rete diviene, dunque, tema cruciale per impedire i rischi della “solitudine digitale”. La disciplina di protezione dati offre, sotto questo profilo, un presidio importante, nella misura in cui individua nella fascia tra i tredici e i sedici anni (secondo le scelte dei singoli Stati) la soglia per il consenso digitale del minore, assicurando che al di sotto dell’età fissata egli non possa accedere, in via autonoma, ai servizi della società dell’informazione.

Il GDPR ha inteso, così, promuovere un equilibrio ragionevole tra autodeterminazione del minore (funzionale alla sua partecipazione consapevole alla società dell’informazione) e tutela della sua personalità rispetto a condotte suscettibili, in vario modo, di lederla. Si è così bilanciata l’esigenza di riconoscimento all’adolescente (in quanto presunto capace di discernimento) di una prima possibilità di esperienza autonoma del mondo digitale, con alcune tutele specifiche riconosciutegli tanto sul piano informativo, quanto su quello remediale. 

Sotto il primo profilo, infatti, rileva la previsione di una maggior comprensibilità dell’informativa, che si richiede di calibrare sulle capacità cognitive dei minori (art.12.1). Sotto il secondo profilo, il consenso del minore al trattamento non soltanto è sempre revocabile (al pari del consenso dell’adulto), ma legittima un esercizio ampio del diritto alla cancellazione dei dati così raccolti (art. 17.f Gdpr), in chiave remediale. Il carattere realmente consapevole del consenso da un lato e il criterio della reversibilità delle scelte assunte dal minore, dall’altro, bilanciano dunque, in chiave di tutela rispettivamente preventiva e successiva, l’estensione della sfera di autonomia decisionale del minore in un ambito, quale quello della proiezione digitale della persona, sempre più rilevante per i ragazzi di oggi.

Accesso autonomo al web, soglia di 14 anni in Italia

L’Italia, dopo un ampio dibattito, ha fissato a 14 anni la soglia per la prestazione autonoma del consenso da parte del minore, in analogia con altri istituti che, a partire da quell’età, consentono al minore sue autonome determinazioni in alcuni campi.

Naturalmente, proprio le peculiarità del contesto digitale determinano criticità, nell’accertamento dell’età dell’utente, rispetto alle quali il Garante ha inteso concentrare, anche recentemente, la propria azione. I numerosi provvedimenti adottati in materia sono, infatti, complessivamente volti a garantire che l’anticipazione dell’autonomia decisionale riconosciuta al minore non si presti ad abusi o non si risolva in un pregiudizio per il ragazzo stesso. 

Task force Ue per accesso minori ai social: age verification

Le carenze riscontrate nel sistema di accertamento dell’età di Tik Tok hanno, in particolare, indotto l’Autorità dapprima a promuovere la costituzione di una task-force in sede europea e, quindi, dopo la morte della bimba palermitana, all’avvio, nel 2021, di un complesso procedimento. Esso, attraverso misure dapprima inibitorie e poi prescrittive, ha sensibilizzato quella ed altre piattaforme analoghe sull’esigenza di adottare sistemi di age verification certi, in modo da evitare l’indebito accesso dei più piccoli, in pericolosa solitudine, a ‘giochi’ troppo più grandi di loro. Si è, inoltre, prescritto di rendere l’informativa maggiormente comprensibile a un pubblico così peculiare, valorizzando in tal modo il principio di trasparenza. 

Age verification: incaricare terze parti indipendenti


Naturalmente si tratta di realtà ancora in evoluzione, rispetto alle quali vanno individuati sistemi di verifica dell’età che, pur efficaci, non si risolvano, paradossalmente, in una schedatura del minore e che, comunque, anticipino il controllo non oltre il momento della registrazione dell’utente alla piattaforma. In questa direzione si muove, ad esempio, il tavolo istituito con il recente protocollo d’intesa tra Garante ed Agcom, per la promozione di un codice di condotta relativo ai sistemi per la verifica dell’età delle piattaforme. Per minimizzare il rischio di una centralizzazione di dati di minori in capo alle piattaforme, si potrebbe anche incaricare della verifica anagrafica terze parti affidabili, in grado di asseverare il raggiungimento dell’età necessaria per l’ammissione.

Peraltro a livello europeo, con la strategia europea per un “Internet migliore per i bambini” la Commissione si è impegnata, in particolare, a proporre, a partire dal 2023, una disciplina europea per la verifica dell’età nel contesto della proposta sull’identità digitale europea e a ·sostenere, a partire dal 2024, lo sviluppo di una prova digitale dell’età basata sulla data di nascita riconosciuta in tutta l’UE nel quadro della proposta sull’identità digitale europea. Inoltre, con lo stesso atto la Commissione si è impegnata a promuovere un approccio integrato alla tutela dell’utente digitale minorenne, che ne favorisca la fruizione consapevole delle risorse telematiche in condizioni di sicurezza. A tal fine, la Commissione indica quali obiettivi la promozione di esperienze digitali sicure per proteggere i minori, l’empowerment digitale e la loro partecipazione attiva.

Sostenibilità digitale del web per i minori

Ed è proprio questa convergenza di azioni la chiave metodologica per affrontare un problema complesso quale quello dell’uso sostenibile del web da parte dei minori, del quale appunto il coinvolgimento in giochi pericolosi è uno degli aspetti tra i più drammatici. Da un lato, infatti, è preliminare garantire che sia effettivamente inibito l’accesso autonomo alle piattaforme agli infraquattordicenni. Dall’altro lato, tuttavia, anche laddove tale limite sia osservato, è comunque necessario proteggere i minori, seppur ultraquattordicenni, dall’esposizione a contenuti inappropriati di vario tipo.

Prental control, ma il limite è la natura volontaria

Una prima soluzione è quella della selezione, mediante parental control, dei contenuti a visione non libera (secondo soluzioni disciplinate, in particolare, dalle linee guida Agcom del 2023, adottate ai sensi dell’art. 7-bis d.l. 28 del 2020, conv.mod.l.70 del 2020 e conformemente all’art. 37 d.lgs. 208/21). I limiti di questa misura sono, naturalmente, la sua natura volontaristica, rimessa cioè alla sensibilità dei genitori e la sua scarsa efficacia rispetto a piattaforme dai contenuti più vari- ed immessi dagli stessi utenti – come i social network.

Andrebbero, in ogni caso, valorizzate le misure di privacy by design e by default, che consentirebbero di configurare, sin dall’origine, programmi e dispositivi in modo sicuro (ad esempio con la preimpostazione del  parental control, suscettibile di disattivazione solo attraverso azioni specifiche e consapevoli).

Più complessa è la questione della tutela generalizzata del minore rispetto a contenuti inappropriati, non rimessa alla mera scelta genitoriale o alla limitazione dell’accesso, ai soli maggiorenni, a determinati siti dal contenuto inadatto ai minori (perché, ad esempio, violento, sessualmente esplicito, ecc.).  L’obiettivo, sul punto, è realizzare un equilibrio sostenibile tra libertà di espressione, assenza di obbligo di sorveglianza preventiva del provider sui contenuti e tutela del minore. 

Filtro anti pedopornografia

Il filtro preventivo previsto, ad esempio, sul terreno della pedopornografia – ed esteso dal regolamento 2021/1232, in via temporanea, alle comunicazioni individuali (email e messaggistica) – rappresenta una deroga alle garanzie di riservatezza delle comunicazioni e all’esclusione degli obblighi di sorveglianza preventiva dei provider sui contenuti, ribadito anche dall’art. 8 del Digital Services Act (reg Ue 2022/2065). Si tratta di una deroga circoscritta alla materia della pedopornografia non solo per ragioni di gravità dell’illecito, ma anche per caratteristiche del contenuto. Il filtro presuppone, infatti, una selezione algoritmica più affidabile se riferita a parametri oggettivi (quali ad esempio la porzione di “pelle” esposta ai fini della pedopornografia), meno se riferita alla valutazione semantica dei contenuti, che implica un apprezzamento in certa misura discrezionale difficilmente delegabile alla macchina. 

Revenge porn


Anche sul terreno del revenge porn, il blocco dell’upload non consensuale di contenuti intimi è previsto, ai sensi dell’art. 144-bis del Codice, all’esito di una decisione del Garante su segnalazione di una potenziale vittima, dunque non in maniera generalizzata e in presenza di particolari evidenze. 

La protezione del minore dall’esposizione a contenuti inadatti è, al di fuori di questi casi, affidata allo strumento della rimozione su segnalazione valorizzato, peraltro, dal Digital Services Act come forma di tutela remediale idonea a coniugare contrasto dell’uso scorretto della rete e assenza di sorveglianza preventiva. Lo stesso regolamento, poi, responsabilizza le piattaforme anche rispetto all’obbligo di progettazione delle interfacce on line dei sistemi secondo il massimo livello di privacy, sicurezza e protezione per impostazione predefinita, anche con l’adesione a quei codici di condotta che, proprio sul terreno della protezione dati, hanno dato ottima prova di sé. Significativo, anche, il divieto di inserzioni pubblicitarie basate sulla profilazione rispetto ad utenti minori, che può almeno in parte proteggerli dal condizionamento del microtargeting.

Ed è proprio la rimozione dei contenuti la soluzione preferibile rispetto a piattaforme, quali appunto i social network, a contenuto aperto, derivante dall’interazione degli utenti e dunque difficilmente classificabile in via preventiva, soprattutto quando lo stesso contenuto possa risultare più o meno inappropriato in virtù di variabili apprezzabili solo in concreto. Tale soluzione è, ad esempio, prevista, per contenuti ospitati su videosharing platform, suscettibili di ledere lo sviluppo fisico, psichico o morale dei minori a norma dell’articolo 38, comma 1 del TUSMA, dallo schema di regolamento Agcom sottoposto a consultazione pubblica in questi giorni (n. 76/23).

Cyberbullismo, rimozione di contenuti illeciti

Ma in linea più generale, soprattutto per limitare la diffusione di contenuti che inducano i minori a misurarsi con sfide pericolose, si potrebbe allora considerare una proposta approvata, nella scorsa legislatura, dal Senato (come emendamento al ddl AS 2086), volta a trasporre, sul terreno dell’istigazione all’autolesionismo, la specifica tutela accordata dal Garante al minore rispetto al cyberbullismo. La norma legittimava, infatti, la richiesta (anche da parte degli stessi minori ultra 14enni) al gestore della piattaforma o, in caso di inerzia, al Garante, di rimozione dei contenuti illeciti (perché, appunto, istigativi alla violenza o all’autolesionismo).

Su questa soluzione può tornare a riflettersi, in quanto capace, meglio di altre, di bilanciare esigenze di tutela del minore dal rischio di esposizione a contenuti inappropriati e libertà di espressione. 

Ma nessuna tutela potrà mai essere pienamente efficace in assenza di una reale consapevolezza del minore, che ne promuova la capacità di discernimento e, quindi, di autodeterminazione, necessaria per vivere la dimensione digitale come una vera risorsa e non come il luogo dove si possa incontrare la morte per effetto di una sfida perversa. Le campagne promosse, negli ultimi anni, dall’Autorità e dal Telefono azzurro, per la sensibilizzazione dei genitori rispetto al loro ruolo di vigilanza e informazione dei figli circa l’uso corretto del web, miravano anche a promuovere, con il contributo delle famiglie, un’essenziale alfabetizzazione digitale dei ragazzi. 

Le politiche dell’innovazione devono fondarsi dunque e prioritariamente su di una vera e propria pedagogia digitale, che renda anzitutto i ragazzi consci delle opportunità ma anche dei rischi cui li espone la rete, sfruttandone tutte le straordinarie risorse per essere più consapevoli, mai meno liberi.

Exit mobile version