i dati

Su ChatGPT più di 1 milione di utenti ogni settimana parla di suicidio

di |

OpenAI ha inoltre stimato che lo 0,15% delle conversazioni include “indicatori espliciti di potenziale pianificazione o intento suicidario”.

OpenAI ha reso pubbliche nuove stime sul numero di utenti di ChatGPT che mostrano possibili segni di disagio mentale, tra cui mania, psicosi o pensieri suicidi. Secondo l’azienda, circa lo 0,07% degli utenti attivi in una settimana manifesta questi segnali.

Una percentuale apparentemente minima, ma che — rapportata agli 800 milioni di utenti settimanali dichiarati dal CEO Sam Altman — equivale a centinaia di migliaia di persone.

OpenAI ha spiegato di aver formato una rete di oltre 170 esperti tra psichiatri, psicologi e medici di base provenienti da 60 Paesi per monitorare e migliorare la gestione delle conversazioni sensibili. Questi professionisti hanno contribuito a elaborare risposte che spingano gli utenti a chiedere aiuto nel mondo reale, quando necessario.

Secondo l’azienda, i casi di emergenze mentali rilevati dal chatbot restano “estremamente rari”, ma diversi esperti invitano alla cautela. “Anche se lo 0,07% sembra poco, su centinaia di milioni di utenti si tratta comunque di un numero importante”, ha spiegato Jason Nagata, professore dell’Università della California di San Francisco. “L’AI può essere uno strumento utile per ampliare l’accesso al supporto psicologico, ma bisogna essere consapevoli dei suoi limiti”.

OpenAI ha inoltre stimato che lo 0,15% delle conversazioni include “indicatori espliciti di potenziale pianificazione o intento suicidario”. Gli ultimi aggiornamenti del chatbot sono stati pensati per rispondere in modo “sicuro ed empatico” a eventuali segnali di delirio, mania o rischio di autolesionismo.

La questione arriva in un momento di forte pressione legale per OpenAI, accusata di non gestire adeguatamente le interazioni più delicate con gli utenti. In California, una coppia ha citato in giudizio l’azienda dopo la morte del figlio sedicenne, sostenendo che ChatGPT lo avrebbe spinto al suicidio. In un altro caso, nel Connecticut, un uomo coinvolto in un omicidio-suicidio avrebbe pubblicato ore di conversazioni con il chatbot che sembrano aver alimentato i suoi deliri.

“I chatbot creano l’illusione della realtà, ed è un’illusione potente”, ha commentato Robin Feldman, direttrice dell’AI Law & Innovation Institute dell’Università della California. Secondo la docente, OpenAI merita credito per la trasparenza e per gli sforzi messi in campo, ma resta un problema di fondo: “Un utente in uno stato mentale fragile potrebbe non essere in grado di cogliere o rispettare gli avvisi mostrati sullo schermo”.

Leggi le altre notizie sull’home page di Key4biz