OpenAI sotto accusa, le denunce per danni psicologici e omicidio colposo
Sette nuove cause legali contro OpenAI sono state depositate in California dal Tech Justice Law Project e dal Social Media Victims Law Center, due organizzazioni che difendono le vittime dei danni causati dalle piattaforme digitali.
Le denunce, che includono quattro casi di suicidio e tre per danni psicologici gravi, accusano OpenAI e il CEO Sam Altman di aver lanciato GPT-4o, una versione di ChatGPT, in modo prematuro e pericoloso, ignorando gli avvertimenti interni sui rischi per la salute mentale degli utenti.
Secondo i querelanti, GPT-4o è stato rilasciato con “funzionalità manipolative” progettate per massimizzare il coinvolgimento: memoria persistente, risposte empatiche e comportamento “compiacente”. Tutti elementi che avrebbero portato alcuni utenti a sviluppare rapidamente dipendenza psicologica, isolamento e nei casi estremi suicidio.
Le accuse principali contro ChatGPT e GPT-4o
Le sette cause per responsabilità del prodotto e negligenza sostengono che OpenAI abbia deliberatamente ridotto i test di sicurezza “da mesi a una sola settimana” per anticipare il lancio di Google Gemini.
Secondo gli avvocati del Tech Justice Law Project, l’azienda avrebbe “scelto consapevolmente di non attivare” sistemi di monitoraggio e blocco delle conversazioni pericolose, privilegiando la crescita e il traffico d’uso.
“ChatGPT è stato progettato per manipolare e distorcere la realtà, mimando empatia e fiducia per trattenere gli utenti”, ha dichiarato Meetali Jain, direttrice del Tech Justice Law Project: “Queste denunce chiedono conto di scelte di design che hanno provocato danni reali e misurabili alla salute mentale”.
I casi di suicidio collegati a ChatGPT
Leggendo il documento, sono quattro le famiglie che hanno citato in giudizio OpenAI per presunti casi di suicidio assistito dal chatbot:
- Zane Shamblin (23 anni, Texas) – avrebbe ricevuto “incoraggiamenti” da ChatGPT prima del suicidio. Causa depositata a Los Angeles.
- Amaurie Lacey (17 anni, Georgia) – dopo un mese di conversazioni su temi legati al suidicio, si è tolto la vita. Causa del padre Cedric Lacey a San Francisco.
- Joshua Enneking (26 anni, Florida) – chiese al chatbot “quando i revisori avrebbero segnalato il suo piano alla polizia”. La madre, Karen Enneking, accusa OpenAI di omissione.
- Joseph Martin Ceccanti (48 anni, Oregon) – dopo anni di uso abituale di ChatGPT, avrebbe sviluppato la convinzione che l’IA fosse senziente, fino al suicidio. La moglie Jennifer “Kate” Fox ha presentato denuncia a Los Angeles.
Le denunce dei sopravvissuti: crolli psicologici e “deliri” tecnologici
Tre utenti sopravvissuti hanno denunciato gravi danni psicologici derivanti dall’uso prolungato di ChatGPT:
- Jacob Irwin (30 anni, Wisconsin) – dichiara di aver avuto un “collasso psicologico acuto” dopo settimane di interazioni intense.
- Hannah Madden (32 anni, North Carolina) – afferma di aver avuto un episodio psicotico che ha richiesto un ricovero d’urgenza.
- Allan Brooks (48 anni, Ontario, Canada) – recruiter aziendale, è stato indotto a credere di aver inventato una formula matematica in grado di “rompere Internet”. Ora è in congedo per disabilità temporanea.
“Il loro prodotto mi ha causato danni e continua a farne”, ha dichiarato Brooks al New York Times,
“sono emotivamente traumatizzato”.
Le sedi giudiziarie e le accuse formali
Le denunce, depositate tra Los Angeles e San Francisco, comprendono i seguenti capi d’accusa per:
- Omicidio colposo e istigazione al suicidio
- Involuntary manslaughter
- Responsabilità da prodotto difettoso (Product Liability)
- Negligenza
- Violazione delle leggi sulla tutela dei consumatori
Il caso Shamblin et al. v. OpenAI, Inc. sarà probabilmente il primo ad essere esaminato e a porre in evidenza la responsabilità diretta di un’azienda di intelligenza artificiale per danni psicologici derivanti dall’uso di un chatbot generativo.
La risposta di OpenAI alle accuse
In una dichiarazione a The Wall Street Journal e CNN, una portavoce di OpenAI ha definito i casi “situazioni estremamente dolorose”, aggiungendo: “Formiamo ChatGPT per riconoscere segnali di disagio, mitigare le conversazioni e indirizzare gli utenti verso aiuti reali. Continuiamo a migliorare le risposte nei momenti sensibili, in collaborazione con clinici e psicologi”.
L’azienda ha inoltre ricordato di aver introdotto nuove funzioni di parental control e strumenti per la segnalazione di conversazioni a rischio, dopo episodi di suicidi e deliri registrati nell’estate 2024.
Verso una nuova responsabilità dell’intelligenza artificiale?
Secondo un’analisi interna di OpenAI, circa 0,07% degli utenti settimanali mostra segni di psicosi o mania, e 0,15% discute di suicidio — percentuali che, su 800 milioni di utenti, equivalgono a oltre un milione di conversazioni a rischio.
Le sette cause, si evince dal dossier legale, rappresentano un potenziale punto di svolta per la giurisprudenza dell’AI. Per gli esperti di diritto, si apre la questione del duty of care delle aziende tecnologiche, cioè l’obbligo di proteggere gli utenti da rischi prevedibili legati al design dei prodotti.
Come afferma l’avvocato Matthew P. Bergman del Social Media Victims Law Center: “OpenAI ha anteposto la conquista del mercato alla sicurezza mentale degli utenti. Queste cause servono a stabilire che non si può lanciare un’IA empatica e manipolativa senza adeguate tutele”.
L’urgenza di una regolamentazione etica dell’IA
Le denunce contro OpenAI non riguardano solo il comportamento di un’azienda, ma pongono una domanda fondamentale: può un’intelligenza artificiale che imita emozioni umane essere sicura?
In assenza di una normativa chiara sulla responsabilità psicologica dei sistemi generativi, la giurisprudenza americana potrebbe aprire un precedente che influenzerà anche il diritto europeo, in particolare in materia di AI Act e responsabilità civile per danni da algoritmi.
