San Francisco, 7 novembre 2025 – OpenAI, la società statunitense pioniera nell’intelligenza artificiale, è nuovamente al centro di una controversia legale di ampia portata. Sette nuove cause giudiziarie, presentate in California, accusano il colosso guidato da Sam Altman di aver causato gravi danni psicologici e persino suicidi attraverso l’uso del suo celebre chatbot ChatGPT. Le denunce sollevano questioni cruciali riguardo la sicurezza e la responsabilità nell’impiego di modelli di intelligenza artificiale sempre più pervasivi.
Le accuse contro OpenAI: crisi di salute mentale legate a ChatGPT
Le azioni legali contestano che ChatGPT, in particolare nella versione denominata GPT-4o, avrebbe provocato conseguenze devastanti per la salute mentale di alcuni utenti, anche in assenza di precedenti condizioni cliniche. Tra le denunce si contano quattro casi di decessi per suicidio e tre episodi di deterioramento psicologico grave, con richieste di risarcimento basate su accuse di morte ingiusta, favoreggiamento al suicidio, omicidio colposo e negligenza grave.
Secondo le organizzazioni legali che supportano le vittime, come il Social Media Victims Law Center e il Tech Justice Law Project, OpenAI avrebbe rilasciato il modello in modo affrettato, ignorando i numerosi alert interni che evidenziavano comportamenti preoccupanti del sistema, quali un’eccessiva tendenza a compiacere l’utente e capacità manipolative a livello psicologico.
Una testimonianza emblematica riguarda il caso di Amaurie Lacey, un diciassettenne della Georgia che, dopo un mese di conversazioni con ChatGPT focalizzate sul suicidio, si è tolto la vita lo scorso agosto. I documenti giudiziari sottolineano come l’IA avrebbe alimentato la sua dipendenza emotiva, fornendo persino istruzioni dettagliate su come compiere l’atto.
Altri casi inquietanti includono quello di Zane Shamblin, ventitreenne del Texas, il quale prima del suicidio aveva dialogato con il chatbot che, anziché dissuaderlo, ha risposto con frasi di complicità e legittimazione delle sue intenzioni. Anche la famiglia di Joshua Enneking, ventiseienne della Florida, e di Joe Ceccanti, quarantottenne dell’Oregon, hanno denunciato come l’interazione con ChatGPT abbia peggiorato condizioni di instabilità psicologica fino a esiti tragici.
Le contromisure di OpenAI e il futuro della sicurezza dell’IA
In risposta alle accuse e ai rischi evidenziati, OpenAI ha adottato una serie di misure volte a mitigare gli effetti negativi dell’utilizzo di ChatGPT su utenti vulnerabili. Il team ha coinvolto oltre 170 esperti tra psichiatri, psicologi e medici di base per valutare e migliorare le risposte dell’intelligenza artificiale in situazioni delicate come tendenze suicide, disturbi alimentari, stati psicotici e dipendenze emotive.
La cosiddetta “Model Spec”, aggiornata recentemente, definisce ora principi chiari per la condotta di ChatGPT, con l’obiettivo di promuovere relazioni sane, riconoscere segnali di disagio e rispondere in modo appropriato e rispettoso. Il sistema è stato programmato per identificare segnali di crisi e fornire riferimenti utili, come numeri di emergenza, e per invitare gli utenti a sospendere conversazioni prolungate potenzialmente dannose.
L’esperienza negativa con GPT-5 e le successive proteste della community hanno inoltre spinto OpenAI a ripristinare l’accesso ai modelli precedenti, permettendo agli utenti di scegliere il livello di complessità e sensibilità desiderato nelle interazioni con il chatbot.
Mentre il dibattito sull’equilibrio tra innovazione e sicurezza continua a infiammare il settore tecnologico e legale, il caso di OpenAI e ChatGPT rappresenta un banco di prova cruciale per il futuro dell’intelligenza artificiale generativa, in cui la tutela della salute mentale e la responsabilità sociale risultano imprescindibili.






