L’architettura degli algoritmi è disegnata dalle piattaforme social per creare dipendenza negli utenti e va quindi regolata. E’ questo l’obiettivo del DDL per il contrasto alla dipendenza algoritmica presentato, presso la Sala Caduti di Nassirya del Senato, primi firmatari i senatori Pd Antonio Nicita e Lorenzo Basso, che “affronta in modo organico i principali rischi dell’ecosistema digitale introducendo la dipendenza algoritmica, l’influenza algoritmica e la manipolazione algoritmica selettiva tra le pratiche vietate e colmando un vuoto normativo che oggi riguarda la tutela delle persone, la trasparenza dei sistemi e la responsabilità personale di chi progetta e governa piattaforme online e modelli di AI”. “Un tema – si legge sempre in una nota – reso ancor più attuale dalle ultime sentenze americane che hanno certificato le responsabilità per danni psicologici causati da algoritmi e funzioni progettate per creare assuefazione”.
Il design algoritmico non è un dettaglio tecnico
Premessa della norma è che “ogni volta che apriamo un social network, un algoritmo decide cosa mostrarci. Non lo fa a caso: lo fa per tenerci incollati allo schermo il più a lungo possibile – si legge nella nota di sintesi del provvedimento – perché più tempo passiamo online, più la piattaforma guadagna dalla pubblicità. Questa proposta di legge parte da qui e afferma un principio nuovo: le piattaforme sono responsabili delle architetture con cui distribuiscono i contenuti. Il design algoritmico non è un dettaglio tecnico, è una scelta aziendale con conseguenze sulla salute delle persone, sulla qualità dell’informazione e sulla formazione dell’opinione pubblica e, in ultima analisi, sulla tenuta della democrazia”. Perciò indica come vietate le tre pratiche (dipendenza algoritmica, influenza algoritmica e manipolazione algoritmica selettiva) e obbliga le piattaforme a offrire un servizio senza profilazione, gratuito e attivo per default, per cui chi vuole essere profilato, deve sceglierlo esplicitamente. Introduce protezioni rafforzate per i minori con verifica dell’età nativa a livello di sistema operativo, direttamente su iPhone e Android, e non app per app ed estende la disciplina ai sistemi di AI di conversazione, imponendo limiti alla simulazione affettiva.
Lorenzo Basso: “L’algoritmo manipola l’utente come faceva in passato la pubblicità subliminale”
L’algoritmo ha la responsabilità della sua architettura. E’ questa la premessa della proposta del Pd, secondo cui l’utente ha tutto il diritto di decidere se vuole essere profilato o no. “La genesi di questo disegno di legge non è per limitare la tecnologia, ma al contrario l’obiettivo è ripulire la tecnologia e togliere gli aspetti tossici e tecniche manipolatorie”, ha detto il Senatore Lorenzo Basso che paragona l’attività dell’algoritmo alla pubblicità subliminale che in passato veicolava in modo surrettizio messaggi pubblicitari nascosti durante la trasmissione di pellicole, un fenomeno sul quale lo Sato era intervenuto vietandone la pratica. D’altra parte, le ultime sentenze Usa parlano chiaro, le piattaforme usano tecnologie manipolatorie.
L’effetto dell’algoritmo è in molti casi analogo alle pratiche lesive della libertà delle persone in tema di azzardo compulsivo, che nel 2022 è stato catalogato come dipendenza compulsiva dall’OMS.
Allo stesso modo, lo scroll infinito, l’autoplay, i sistemi di notifica a rinforzo variabile e i sistemi di gamification sfruttano il circuito dopaminergico della ricompensa in modi che le neuroscienze cliniche hanno documentato.
Antonio Nicita: “Normazione per ambiente più sano. Algoritmo non è neutrale”
“Il nostro approccio di normazione è finalizzato ad avere un ambiente digitale più sano – ha detto il Senatore Pd Antonio Nicita – il tema della regolazione del web si è evoluta negli anni. Siamo passati da una fase di entusiasmo ad una in cui ci si è occupati più dei contenuti, mentre la questione di regolare l’algoritmo è emersa molto di recente. Sia negli Usa che nella Ue c’è un esonero di responsabilità delle piattaforme sui contenuti di terzi”. Ma “l’algoritmo non è neutrale”.

Tre fenomeni distinti
Il disegno di legge individua tre fenomeni giuridicamente distinti:
La prima è la dipendenza algoritmica, con cui gli algoritmi inducono un uso compulsivo della fruizione del servizio. E dipende dalle scelte di design che riducono l’autonomia dell’utente.
La seconda è l’influenza algoritmica, con la profilazione comportamentale dell’utente e sistemi di raccomandazione.
La terza è la manipolazione algoritmica selettiva, “è così che X, la piattaforma di Elon Musk, ha spinto i contenuti di Musk e non altri, cancellandoli”, aggiunge Nicita, che sottolinea peraltro come il disegno di legge riguardi anche l’utilizzo dell’AI e sia un contributo fattivo all’AI Act europeo, oltre che al Digital Fairness Act allo studio a Bruxelles.
Il Ddl attribuisce all’Agcom il compito di definire linee guida dettagliate e un sistema sanzionatorio, fono al 2% e al 4% del fatturato per un massimo di 30 milioni di euro, introducendo inoltre il “duty of care”, il principio di responsabilità delle piattaforme con poteri ispettivi rafforzati per l’Agcom.
Basso: “Age verification sul dispositivo”
Il Ddl prevede inoltre un sistema di age verification basata sul dispositivo. “Il controllo dell’età va fatto a livello di sistemi operativi nel relativi store e di dispositivi, non soltanto smartphone ma anche pc, tablet e visori – dice Basso – è come prevedere un ingresso selettivo al parco giochi”. Prevista quindi la “responsabilità civile oggettiva dei gestori delle piattaforme – dice Nicita – l’autoregolamentazione non basta più, e anche la Ue ci sta lavorando con il Digital Fairness Act”.
Luna: “Bisogna rendere Internet un po’ meno tossico, ma il modello di business delle piattaforme è diventato un modello politico”
Riccardo Luna, esperto di digitale, ha detto che sono più di 30 anni che cerchiamo di regolare l’accesso dei minori alle tecnologie, ma il problema è che la politica non capisce la tecnologia. Ma in questo Ddl si prende il concetto di duty of care e si riprende il divieto australiano, per cui le piattaforme devono farsi carico di ciò che fanno. “Quel che è certo è che lasciare la scelta se farsi profilare o meno ai giovani non può funzionare, perché è come la logica del fast food applicato alla dieta mediatica, se ti danno del cibo che ti fa male ma che ti attira tu lo mangi, e questo la fanno anche gli adulti con i carichi di rabbia e di paura che ciò comporta”.
C’è però un ma, gli usa non vorranno mai cambiare il modello di business delle grandi piattaforme perché funziona. “E’ una partita che deve giocare l’Europa, che ha già avviato delle istruttorie su TikTok e Instagram anche se bisognerebbe considerare anche Telegram, che pure si trova sotto soglia rispetto ai 45 milioni di iscritti previsti per rientrare nella categoria dei gatekeeper prevista dal DSA”, aggiunge Luna, precisando che Telegram – che ha 41 milioni di utenti, poco sotto la soglia – di fatto è come un dark web legalizzato dove si trova di tutto: dalle armi alla droga ed è accessibile a chiunque.
Per quanto riguarda il sistema di age verification in fase di sperimentazione in Europa in 5 paesi, si tratta di un token simile a quello usato durante il Covid per il green pass, che di fatto dice soltanto l’età dell’utente e non rivela la sua identità con grande attenzione per la privacy.
