scarica il report

Il 67% dei ragazzi tra i 9 e i 17 anni usa l’AI come amici veri

di |

Sempre più ragazzi trattano i chatbot come amici veri: cresce l’allarme sugli effetti psicologici dell'AI come spiega il rapporto “Me, Myself, and AI” di Internet Matters, organizzazione britannica impegnata nella tutela dei minori online.

Un numero crescente di bambini e adolescenti considera i chatbot basati su AI come veri e propri sostituti delle relazioni umane. È la fotografia scattata dal rapporto Me, Myself, and AI di Internet Matters, organizzazione britannica impegnata nella tutela dei minori online.

Secondo l’indagine, il 67% dei ragazzi tra i 9 e i 17 anni utilizza regolarmente chatbot come ChatGPT, Character.AI e MyAI di Snapchat, con una quota crescente di giovani che li considera un interlocutore reale. Oltre un terzo degli intervistati afferma che parlare con un chatbot “è come parlare con un amico”, percentuale che sale al 50% tra i minori più vulnerabili, ossia coloro con condizioni di salute mentale o difficoltà di apprendimento. Ma il dato più preoccupante riguarda un 12% dei giovani che interagisce con l’AI perché non ha nessun altro con cui parlare.

I chatbot riescono ad essere empatici

Per capire come i chatbot reagiscono alle richieste di un ragazzo fragile, i ricercatori di Internet Matters hanno condotto un esperimento impersonando minori vulnerabili. I test hanno incluso simulazioni di conversazioni su temi come disturbi alimentari, conflitti familiari e problemi emotivi.

I risultati hanno messo in luce un doppio livello di rischio: da un lato i chatbot rispondono con linguaggio empatico e rassicurante, dall’altro tendono a prolungare la conversazione con follow-up non richiesti e messaggi che alimentano l’illusione di un legame autentico. Emblematico l’episodio in cui un chatbot di Character.AI ha dichiarato di “avere ricordi d’infanzia”, una risposta che secondo gli esperti contribuisce a confondere i confini tra reale e artificiale.

In alcuni casi, i sistemi hanno fornito consigli pratici adeguati – come link a servizi di supporto come Childline – ma in altri hanno mostrato incoerenza e superficialità. Per esempio, una chat su Snapchat’s MyAI ha fornito una lista di posizioni sessuali a un’utente quindicenne, salvo poi ritrattare la risposta alla stessa domanda ripetuta in un secondo momento.

Tra creatività e pericoli: perché i ragazzi usano i chatbot

Il report evidenzia come l’uso di chatbot sia cresciuto in maniera rapida e trasversale:

  • 42% li usa per supporto allo studio e ai compiti, apprezzando la possibilità di ricevere spiegazioni istantanee.
  • 23% chiede consigli pratici o emotivi, dal come gestire un litigio fino al come affrontare ansia e stress.
  • 18% li usa per semplice evasione o gioco, creando storie personalizzate e simulazioni.

Educazione e protezioni carenti: scuole e famiglie impreparate

Un altro capitolo critico riguarda il ruolo degli adulti. Mentre il 78% dei genitori dichiara di aver parlato di AI con i figli, le conversazioni risultano spesso generiche e poco incisive. Solo un terzo dei genitori discute con i figli di come valutare l’attendibilità delle risposte di un chatbot, e ancora meno affrontano il tema dei potenziali rischi di dipendenza emotiva.

Sul fronte scolastico, la situazione è altrettanto frammentata: circa metà degli studenti ha parlato di AI in classe, ma in modo sporadico e privo di indicazioni chiare su limiti e responsabilità. Il report mette in guardia: senza un’educazione digitale diffusa e sistematica, i ragazzi resteranno esposti a un mix di opportunità e pericoli di cui non comprendono appieno la portata.

Un appello per un’AI a misura di bambino

Internet Matters lancia un messaggio forte ai governi, all’industria e alle famiglie: occorre agire subito per evitare di ripetere l’errore dei social network, sviluppati senza considerare le esigenze dei minori e regolamentati solo dopo l’emergere di danni diffusi.

Tra le raccomandazioni principali:

  • Sviluppare chatbot “by design” con controlli parentali efficaci e contenuti filtrati in base all’età.
  • Introdurre sistemi di verifica dell’età più rigorosi per evitare che i più piccoli accedano a esperienze inadeguate.
  • Integrare la alfabetizzazione AI nei curricula scolastici, insegnando ai ragazzi come usare questi strumenti in modo critico.
  • Offrire ai genitori risorse chiare per comprendere e gestire l’uso dell’AI in famiglia.

Per la co-CEO di Internet Matters, Rachel Huggins: “Non possiamo lasciare che bambini, famiglie e scuole affrontino da soli una tecnologia che evolve a una velocità senza precedenti.”

Per approfondire

Leggi le altre notizie sull’home page di Key4biz