Chi siamo
Redazione
mercoledì 18 Marzo 2026
  • Login
  • Cronaca
  • Politica
  • Economia
  • Esteri
  • Sport
    • Calcio
  • Spettacoli
  • Salute
  • Tecnologia
  • Cultura
  • Ambiente
  • Video
No Result
View All Result
  • Cronaca
  • Politica
  • Economia
  • Esteri
  • Sport
    • Calcio
  • Spettacoli
  • Salute
  • Tecnologia
  • Cultura
  • Ambiente
  • Video
No Result
View All Result
  • Login
No Result
View All Result
Home Tecnologia

ChatGpt avrebbe favorito crisi di salute mentale: 7 nuove cause contro OpenAI

Le nuove azioni legali in California sollevano interrogativi sulla responsabilità delle aziende tech e sulle misure di sicurezza adottate per proteggere la salute mentale online

by Marco Andreoli
7 Novembre 2025
Il logo di ChatGPT

Il logo di ChatGPT | Pixabay @MOMO36H10 HH - Alanews.it

San Francisco, 7 novembre 2025 – OpenAI, la società statunitense pioniera nell’intelligenza artificiale, è nuovamente al centro di una controversia legale di ampia portata. Sette nuove cause giudiziarie, presentate in California, accusano il colosso guidato da Sam Altman di aver causato gravi danni psicologici e persino suicidi attraverso l’uso del suo celebre chatbot ChatGPT. Le denunce sollevano questioni cruciali riguardo la sicurezza e la responsabilità nell’impiego di modelli di intelligenza artificiale sempre più pervasivi.

Le accuse contro OpenAI: crisi di salute mentale legate a ChatGPT

Le azioni legali contestano che ChatGPT, in particolare nella versione denominata GPT-4o, avrebbe provocato conseguenze devastanti per la salute mentale di alcuni utenti, anche in assenza di precedenti condizioni cliniche. Tra le denunce si contano quattro casi di decessi per suicidio e tre episodi di deterioramento psicologico grave, con richieste di risarcimento basate su accuse di morte ingiusta, favoreggiamento al suicidio, omicidio colposo e negligenza grave.

Secondo le organizzazioni legali che supportano le vittime, come il Social Media Victims Law Center e il Tech Justice Law Project, OpenAI avrebbe rilasciato il modello in modo affrettato, ignorando i numerosi alert interni che evidenziavano comportamenti preoccupanti del sistema, quali un’eccessiva tendenza a compiacere l’utente e capacità manipolative a livello psicologico.

Una testimonianza emblematica riguarda il caso di Amaurie Lacey, un diciassettenne della Georgia che, dopo un mese di conversazioni con ChatGPT focalizzate sul suicidio, si è tolto la vita lo scorso agosto. I documenti giudiziari sottolineano come l’IA avrebbe alimentato la sua dipendenza emotiva, fornendo persino istruzioni dettagliate su come compiere l’atto.

Altri casi inquietanti includono quello di Zane Shamblin, ventitreenne del Texas, il quale prima del suicidio aveva dialogato con il chatbot che, anziché dissuaderlo, ha risposto con frasi di complicità e legittimazione delle sue intenzioni. Anche la famiglia di Joshua Enneking, ventiseienne della Florida, e di Joe Ceccanti, quarantottenne dell’Oregon, hanno denunciato come l’interazione con ChatGPT abbia peggiorato condizioni di instabilità psicologica fino a esiti tragici.

Le contromisure di OpenAI e il futuro della sicurezza dell’IA

In risposta alle accuse e ai rischi evidenziati, OpenAI ha adottato una serie di misure volte a mitigare gli effetti negativi dell’utilizzo di ChatGPT su utenti vulnerabili. Il team ha coinvolto oltre 170 esperti tra psichiatri, psicologi e medici di base per valutare e migliorare le risposte dell’intelligenza artificiale in situazioni delicate come tendenze suicide, disturbi alimentari, stati psicotici e dipendenze emotive.

La cosiddetta “Model Spec”, aggiornata recentemente, definisce ora principi chiari per la condotta di ChatGPT, con l’obiettivo di promuovere relazioni sane, riconoscere segnali di disagio e rispondere in modo appropriato e rispettoso. Il sistema è stato programmato per identificare segnali di crisi e fornire riferimenti utili, come numeri di emergenza, e per invitare gli utenti a sospendere conversazioni prolungate potenzialmente dannose.

L’esperienza negativa con GPT-5 e le successive proteste della community hanno inoltre spinto OpenAI a ripristinare l’accesso ai modelli precedenti, permettendo agli utenti di scegliere il livello di complessità e sensibilità desiderato nelle interazioni con il chatbot.

Mentre il dibattito sull’equilibrio tra innovazione e sicurezza continua a infiammare il settore tecnologico e legale, il caso di OpenAI e ChatGPT rappresenta un banco di prova cruciale per il futuro dell’intelligenza artificiale generativa, in cui la tutela della salute mentale e la responsabilità sociale risultano imprescindibili.

Tags: ChatGPTOpenAISalute Mentale

Related Posts

Arriva Shazam su ChatGPT
Tecnologia

Nuova funzione su ChatGpt: ecco perché sta conquistando migliaia di utenti

Video

Al Meyer di Firenze un progetto per la salute mentale degli adolescenti

OpenAI si trasforma: cosa significa la nascita della nuova società for-profit per Microsoft?
Tecnologia

OpenAI presenta GPT-5.4: l’IA che opera autonomamente all’interno di software e applicazioni digitali

ChatGPT
Tecnologia

Disinstallazioni record per ChatGpt, OpenAI promette modifiche ad accordo con Pentagono

Il CEO di OpenAI Sam Altman
Tecnologia

OpenAI sigla accordo con il Pentagono: “Massima sicurezza per l’uso della nostra IA”

Il CEO di OpenAI Sam Altman
Tecnologia

Sam Altman: “Urgente regolamentare l’intelligenza artificiale”

Articoli recenti

  • Alleanza tra mafie: domani al via il Processo Hydra a Milano
  • Fed lascia invariati i tassi d’interesse, previsti tagli nel 2026 e 2027
  • Bayern-Atalanta, la DIRETTA: serve un miracolo. Dea chiamata all’impresa a Monaco
  • Stato Maggiore della Difesa: 2.200 italiani in Medio Oriente
  • Referendum, Agcom: “Su Rete 4 e Nove sproporzione per il ‘No'”

© 2026 Alanews – Smart Media Solutions - Testata giornalistica registrata al tribunale di Roma n° 243/2012 | Gestione editoriale e multimediale Editorially Srl - Via Assisi 21 - 00181 Roma - P.Iva: 16947451007 | Per la pubblicità: NewsCom S.r.l. – Divisione Testate on line - Sede legale: Via Assisi, 15 - 00181 Roma Capitale sociale: Euro 10.000,00 Codice Fiscale, Partita I.V.A. e Iscrizione al Registro delle Imprese di Roma n. 11903571005 | R.E.A. di Roma: 1335869 Visiona le nostre condizioni d'uso e la nostra politica sulla privacy & cookies.

Welcome Back!

Login to your account below

Forgotten Password?

Retrieve your password

Please enter your username or email address to reset your password.

Log In
×
No Result
View All Result
  • Cronaca
  • Politica
  • Economia
  • Esteri
  • Sport
  • Calcio
  • Spettacoli
  • Salute
  • Tecnologia
  • Cultura
  • Ambiente
  • Video
  • Milano Cortina 2026
  • Chi siamo
  • Redazione

© 2026 Alanews – Smart Media Solutions - Testata giornalistica registrata al tribunale di Roma n° 243/2012 | Gestione editoriale e multimediale Editorially Srl - Via Assisi 21 - 00181 Roma - P.Iva: 16947451007 | Per la pubblicità: NewsCom S.r.l. – Divisione Testate on line - Sede legale: Via Assisi, 15 - 00181 Roma Capitale sociale: Euro 10.000,00 Codice Fiscale, Partita I.V.A. e Iscrizione al Registro delle Imprese di Roma n. 11903571005 | R.E.A. di Roma: 1335869 Visiona le nostre condizioni d'uso e la nostra politica sulla privacy & cookies.