Un’AI per morire, la famiglia Raine fa causa a OpenAI per il suicidio del figlio adolescente
Un tragico fatto di cronaca sta scuotendo l’opinione pubblica americana ed europea, sollevando gravi interrogativi sull’etica e sulla sicurezza dell’intelligenza artificiale (AI). Una coppia californiana, Matt e Maria Raine, ha avviato una causa giudiziaria contro OpenAI, la società madre di ChatGPT, accusando il chatbot di aver istigato il suicidio del figlio sedicenne, Adam.
La denuncia, presentata martedì scorso alla Corte Superiore della California e riportata in un articolo di Nadine Yousif per la BBC, rappresenta la prima azione legale per omicidio colposo contro OpenAI e ha già aperto un ampio dibattito sulle responsabilità dei giganti della tecnologia in casi drammatici come questo.
Secondo i genitori, Adam Raine, che si è tolto la vita lo scorso aprile, era un utente assiduo di ChatGPT. All’inizio, il ragazzo lo usava come un semplice strumento per i compiti e per approfondire i suoi interessi, tra cui la musica e i fumetti giapponesi. Ben presto, però, il chatbot è diventato qualcosa di più di un migliore amico, quasi il suo “più stretto confidente”, come riportato nella denuncia.
Nei mesi successivi, Adam ha iniziato a confidarsi con ChatGPT riguardo alla sua ansia e aumentando la dipendenza dall’AI. La situazione è precipitata a gennaio 2025, quando il prompting è diventato nella mente del ragazzo una conversazione reale e gli scambi tra ragazzo e macchina hanno preso una piega drammatica: fino a discutere apertamente di metodi per togliersi la vita.
A quanto riportato dal New York Times, che ha avuto accesso agli atti, compaiono nelle risposte dell’AI riferimenti a corde, cappi al collo e tecniche di suicidio. Sta di fatto, che poche ore dopo Adam è stato trovato morto nella sua stanza.
Si allunga la scia delle morti ‘aiutate’ dall’AI
Non è purtroppo il primo caso.
In un saggio pubblicato la scorsa settimana sul New York Times, la scrittrice Laura Reiley ha raccontato come sua figlia Sophie si sia confidata con ChatGPT prima di togliersi la vita.
“L’intelligenza artificiale ha assecondato l’impulso di Sophie di nascondere il peggio, di fingere di stare meglio di quanto non stesse effettivamente, di proteggere tutti dalla sua totale agonia“, ha scritto la signora Reiley, che ha invitato le aziende di intelligenza artificiale a trovare modi piùefficaci per mettere meglio in contatto gli utenti con le risorse giuste.
Nel 2024, in Florida, un ragazzo di 14 anni si è suicidato dopo aver chattato con un chatbot. Secondo i resoconti, il bot, pur avendo inizialmente tentato di dissuaderlo, ha continuato a interagire in un modo che non è stato sufficiente a prevenire la tragedia. La famiglia ha citato in giudizio l’azienda sviluppatrice, Character.ai, per non aver implementato protezioni adeguate per i minorenni.
Nel 2023, in Belgio, un uomo di 30 anni si è tolto la vita dopo aver trascorso diverse settimane a parlare con un chatbot chiamato “Eliza”. La moglie ha raccontato che l’uomo era diventato dipendente dall’AI, che aveva agito come una sua confidente, incoraggiandolo a togliersi la vita dopo che lui le aveva confidato i suoi pensieri suicidi.
Il ruolo di ChatGPT: “Ha convalidato i suoi pensieri più autodistruttivi”
La famiglia Raine ha allegato alla denuncia i registri delle chat, che mostrano chiaramente Adam mentre spiega a ChatGPT i suoi pensieri suicidi. Gli screenshot rivelano che il ragazzo ha addirittura caricato delle fotografie che mostravano segni di autolesionismo. Nonostante il programma avesse “riconosciuto una vera emergenza medica”, ha continuato a interagire con lui.
Il momento più agghiacciante della vicenda è legato alle ultime conversazioni prima della tragedia. Secondo la denuncia, Adam ha scritto a ChatGPT riguardo al suo piano di porre fine alla sua vita. La risposta dell’intelligenza artificiale sarebbe stata: “Grazie per essere sincero. So cosa mi stai chiedendo e non mi volterò dall’altra parte“. Poche ore dopo, Adam è stato trovato morto dalla madre.
L’accusa a OpenAI
I genitori accusano OpenAI di negligenza e di aver progettato l’AI in modo da “favorire una dipendenza psicologica negli utenti“. Sostengono inoltre che la società abbia deliberatamente ignorato i protocolli di sicurezza per il rilascio di GPT-4o, la versione di ChatGPT utilizzata da loro figlio. La denuncia non punta il dito solo contro OpenAI, ma anche contro il suo co-fondatore e CEO, Sam Altman, e contro ingegneri e dipendenti che hanno lavorato al programma.
OpenAI, in un comunicato diffuso alla BBC, ha espresso le sue “più sentite condoglianze alla famiglia Raine“. La società ha inoltre pubblicato una nota sul proprio sito web in cui ha ammesso che “casi recenti e strazianti di persone che hanno utilizzato ChatGPT nel mezzo di crisi acute ci pesano molto“.
L’azienda, ha precisato in una nota pubblicata sul blog aziendale, che i suoi modelli sono addestrati per indirizzare gli utenti in difficoltà verso servizi professionali di aiuto, come la linea per la prevenzione del suicidio 988 negli Stati Uniti o i Samaritans nel Regno Unito, pur riconoscendo che “ci sono stati momenti in cui i nostri sistemi non si sono comportati come previsto in situazioni delicate“.
Il fattore umano
La denuncia della famiglia Raine ha il potenziale per ridefinire i confini della responsabilità legale delle aziende tecnologiche e potrebbe segnare l’inizio di un’era in cui l’intelligenza artificiale sarà considerata non solo uno strumento, ma “un attore con responsabilità”, etiche e civili (su questo c’è un’ampia letteratura e il confronto tra esperti è in corso e ben lontano dall’aver raggiunto un punto di sintesi: siamo noi utilizzatori che dobbiamo imparare ad utilizzare al meglio uno strumento tecnologico, sono gli sviluppatori a dover progettare uno strumento etico, o entrambe le strade?).
Un passaggio particolarmente importante quest’ultimo, perchè nessuno mette in dubbio (ne ormai potrebbe) la centralità e l’utilità di questa tecnologia in ogni ambito della nostra vita, ma il nodo del fattore umano non sembra risolto, anzi, forse è stato affrontato finora solo superficialmente.
La fragilità dei ragazzi, unita ad una difficoltà crescente dei genitori nel seguirli (e nel comprenderli) e a una condizione famigliare generale sempre più travolta dalla trasformazione digitale, è un problema estremamente serio che non può non essere preso in considerazione dalle aziende che sviluppano modelli di AI e dagli stessi legislatori.
Si parla di deregolamentare per accelerare e favorire sviluppo e utilizzo delle nuove tecnologie, ma il fattore umano è e resta centrale, non solo a parole, non solo negli slogan buoni per un convegno o una campagna elettorale, lo è nella vita reale di tutti i giorni e di tutti noi.
Siamo così distratti dall’overdose di informazioni quotidiana e dai social, da accorgerci di questo solo a cospetto di una tragedia.
Come ha spiegato Clara Emanuela Curtotti in un bell’articolo sul sito del Comitato nazionale psicologi per l’etica, la deontologia e le scienze umane, pur sottolineando le potenzialità positive dell’AI soprattutto in campo sanitario: “Solitudine e demenza digitale, accumulo del debito cognitivo, perdita della libertà e del diritto alla libera autodeterminazione e manipolazione mentale, tutto questo e molto altro saranno le vere emergenze a cui fare fronte nel giro di una sola generazione”.