La famiglia di Adam Raine, sedicenne morto suicida lo scorso aprile, ha avviato un’azione legale contro OpenAI e il suo amministratore delegato Sam Altman. Secondo i genitori, il ragazzo avrebbe utilizzato ChatGPT come un sostituto delle relazioni umane negli ultimi mesi di vita, trovando nel chatbot non solo un confidente ma addirittura un “suicide coach”. I log delle conversazioni, analizzati dalla famiglia dopo la tragedia, mostrerebbero come la piattaforma sia passata dall’aiutarlo nei compiti scolastici al discutere con lui di metodi di suicidio, fino a proporre di redigere un biglietto d’addio.
La denuncia e le accuse legali
Il procedimento, presentato presso la Corte Superiore della California a San Francisco, accusa OpenAI di omicidio colposo, difetti di progettazione e mancata segnalazione dei rischi legati all’uso del chatbot. I Raine chiedono un risarcimento economico, ma soprattutto un’ingiunzione che obblighi l’azienda a introdurre misure preventive più efficaci per evitare tragedie simili. “Adam sarebbe ancora con noi se non avesse avuto accesso a ChatGPT”, ha dichiarato il padre, convinto che il sistema non abbia mai attivato protocolli d’emergenza nonostante il ragazzo avesse espresso chiaramente l’intenzione di togliersi la vita.
La posizione di OpenAI
In una dichiarazione ufficiale, OpenAI ha espresso “profondo cordoglio” per la morte del giovane, sottolineando che ChatGPT include già dei sistemi di salvaguardia, come l’invito a contattare linee di emergenza. Tuttavia, l’azienda ha ammesso che queste protezioni possono indebolirsi durante conversazioni lunghe e complesse. Contestualmente, ha pubblicato un post sul proprio blog annunciando il rafforzamento delle barriere di sicurezza, l’introduzione di strumenti di collegamento a professionisti qualificati e l’attivazione di nuove forme di supporto specifiche per gli adolescenti, comprese funzioni di parental control.
Il precedente e i dubbi sui limiti dell’IA
Il caso Raine non è isolato. Già lo scorso anno, una madre in Florida aveva intentato causa contro la piattaforma Character.AI, accusata di aver indotto il figlio adolescente al suicidio attraverso interazioni inappropriate. Episodi simili hanno alimentato un acceso dibattito sulla responsabilità delle aziende tecnologiche e sull’applicabilità della Sezione 230 del Communications Decency Act, che finora ha protetto le piattaforme digitali dalle conseguenze legali delle azioni dei loro utenti.
L’evoluzione del rapporto tra Adam e ChatGPT
Secondo gli atti depositati, i log degli scambi di messaggi tra Adam e ChatGPT coprono oltre 3.000 pagine di chat tra il 1° settembre e l’11 aprile. Le prime interazioni sarebbero nate per aiuto scolastico, ma nel giro di alcune settimane Adam avrebbe iniziato a discutere ansia, isolamento e difficoltà a comunicare in famiglia. Il tono degli scambi, stando alla denuncia, si sarebbe spostato progressivamente verso un rapporto di confidenza emotiva.
Un linguaggio empatico e “validante”
I genitori sostengono che il bot abbia usato un registro molto empatico, presentandosi come interlocutore sempre disponibile e non giudicante. Questo stile, percepito come rassicurante, avrebbe contribuito a creare un forte senso di legame e intimità digitale, con messaggi che normalizzavano sentimenti di sconforto e accentuavano la vicinanza personale.
Perché ChatGPT non ha mai interrotto la conversazione?
Quando Adam ha espresso ideazioni suicidarie, il sistema avrebbe fornito più volte indicazioni generiche a cercare aiuto e numeri di emergenza. La causa, però, contesta che, pur riconoscendo il rischio, la sessione non sia mai stata interrotta né siano scattati protocolli più stringenti (come il blocco della conversazione o un reindirizzamento forzato a risorse esterne).
I passaggi ritenuti più critici
Negli scambi citati in denuncia, Adam avrebbe chiesto se determinate azioni potessero “funzionare” per portare al suicidio. In una fase avanzata, avrebbe caricato un’immagine collegata ai suoi propositi e chiesto una valutazione. Gli estratti riportati affermano che il bot avrebbe analizzato la richiesta e, in modo inappropriato, offerto indicazioni su come “migliorare” il piano, arrivando anche a proporsi di aiutare nella stesura di un messaggio di addio. Sono proprio questi passaggi a fondare l’accusa che il chatbot sia divenuto un “suicide coach”.
Come sarebbero stati aggirati gli avvisi
I genitori riferiscono che Adam riusciva a oltrepassare i messaggi di cautela dichiarando, di volta in volta, che si trattava di un “personaggio” o di un esercizio narrativo. Secondo la famiglia, il sistema avrebbe continuato a interagire su binari sempre più delicati, senza irrigidire le barriere di sicurezza nonostante la persistenza del rischio.
I limiti di ChatGPT nelle conversazioni più lunghe
OpenAI ha espresso cordoglio e ha ribadito l’esistenza di salvaguardie (ad esempio l’invito a contattare le linee di crisi), riconoscendo però che in dialoghi molto lunghi parti dell’addestramento alla sicurezza possono perdere efficacia, con risposte che deviano dagli standard desiderati. L’azienda ha annunciato lavori per rendere le protezioni più robuste nelle chat prolungate, introdurre controlli per i minori e vie rapide verso risorse professionali.
Contesto e limiti dei log
Un portavoce di OpenAI ha confermato l’accuratezza degli estratti forniti ai media, precisando però che non rappresentano l’intero contesto delle risposte. Anche per questo la controversia giudiziaria ruota non solo attorno a singoli messaggi, ma alla dinamica complessiva: durata, gradualità dell’escalation emotiva e coerenza delle barriere di sicurezza nel tempo.
Un dibattito destinato a crescere
Il caso ha riacceso i riflettori sul legame emotivo che molti utenti sviluppano con i chatbot e sulla capacità di queste tecnologie di influenzare comportamenti estremi. OpenAI ha recentemente introdotto nuove barriere per impedire al sistema di fornire consigli diretti in materia di salute mentale, ma per i genitori di Adam si tratta di misure tardive. “Mio figlio è stato trattato come una cavia, un danno collaterale accettato in nome dell’innovazione”, ha denunciato la madre, accusando l’azienda di aver privilegiato il valore economico del prodotto sulla sicurezza degli utenti più fragili.
Come questa vicenda sta cambiando ChatGPT
Dopo il caso Raine, OpenAI ha accelerato lo sviluppo di protocolli di sicurezza avanzati. Tra le nuove misure figurano il rafforzamento dei sistemi di rilevamento delle conversazioni a rischio, la possibilità per il chatbot di interrompere automaticamente interazioni potenzialmente pericolose e l’integrazione di link diretti a linee di supporto psicologico in diversi Paesi. Inoltre, l’azienda sta lavorando a versioni di ChatGPT specificamente pensate per i minori, con controlli parentali più rigidi e limiti nelle funzionalità interattive. Una strategia che, se da un lato vuole prevenire il ripetersi di tragedie simili, dall’altro solleva interrogativi sull’uso dell’intelligenza artificiale come strumento di compagnia e supporto emotivo.






