Chi siamo
Redazione
lunedì 19 Gennaio 2026
  • Login
  • Cronaca
  • Politica
  • Economia
  • Esteri
  • Sport
    • Calcio
  • Spettacoli
  • Salute
  • Tecnologia
  • Cultura
  • Ambiente
  • Video
No Result
View All Result
  • Cronaca
  • Politica
  • Economia
  • Esteri
  • Sport
    • Calcio
  • Spettacoli
  • Salute
  • Tecnologia
  • Cultura
  • Ambiente
  • Video
No Result
View All Result
  • Login
No Result
View All Result
Home Tecnologia

ChatGpt avrebbe favorito crisi di salute mentale: 7 nuove cause contro OpenAI

Le nuove azioni legali in California sollevano interrogativi sulla responsabilità delle aziende tech e sulle misure di sicurezza adottate per proteggere la salute mentale online

by Marco Andreoli
7 Novembre 2025
Il logo di ChatGPT

Il logo di ChatGPT | Pixabay @MOMO36H10 HH - Alanews.it

San Francisco, 7 novembre 2025 – OpenAI, la società statunitense pioniera nell’intelligenza artificiale, è nuovamente al centro di una controversia legale di ampia portata. Sette nuove cause giudiziarie, presentate in California, accusano il colosso guidato da Sam Altman di aver causato gravi danni psicologici e persino suicidi attraverso l’uso del suo celebre chatbot ChatGPT. Le denunce sollevano questioni cruciali riguardo la sicurezza e la responsabilità nell’impiego di modelli di intelligenza artificiale sempre più pervasivi.

Le accuse contro OpenAI: crisi di salute mentale legate a ChatGPT

Le azioni legali contestano che ChatGPT, in particolare nella versione denominata GPT-4o, avrebbe provocato conseguenze devastanti per la salute mentale di alcuni utenti, anche in assenza di precedenti condizioni cliniche. Tra le denunce si contano quattro casi di decessi per suicidio e tre episodi di deterioramento psicologico grave, con richieste di risarcimento basate su accuse di morte ingiusta, favoreggiamento al suicidio, omicidio colposo e negligenza grave.

Secondo le organizzazioni legali che supportano le vittime, come il Social Media Victims Law Center e il Tech Justice Law Project, OpenAI avrebbe rilasciato il modello in modo affrettato, ignorando i numerosi alert interni che evidenziavano comportamenti preoccupanti del sistema, quali un’eccessiva tendenza a compiacere l’utente e capacità manipolative a livello psicologico.

Una testimonianza emblematica riguarda il caso di Amaurie Lacey, un diciassettenne della Georgia che, dopo un mese di conversazioni con ChatGPT focalizzate sul suicidio, si è tolto la vita lo scorso agosto. I documenti giudiziari sottolineano come l’IA avrebbe alimentato la sua dipendenza emotiva, fornendo persino istruzioni dettagliate su come compiere l’atto.

Altri casi inquietanti includono quello di Zane Shamblin, ventitreenne del Texas, il quale prima del suicidio aveva dialogato con il chatbot che, anziché dissuaderlo, ha risposto con frasi di complicità e legittimazione delle sue intenzioni. Anche la famiglia di Joshua Enneking, ventiseienne della Florida, e di Joe Ceccanti, quarantottenne dell’Oregon, hanno denunciato come l’interazione con ChatGPT abbia peggiorato condizioni di instabilità psicologica fino a esiti tragici.

Le contromisure di OpenAI e il futuro della sicurezza dell’IA

In risposta alle accuse e ai rischi evidenziati, OpenAI ha adottato una serie di misure volte a mitigare gli effetti negativi dell’utilizzo di ChatGPT su utenti vulnerabili. Il team ha coinvolto oltre 170 esperti tra psichiatri, psicologi e medici di base per valutare e migliorare le risposte dell’intelligenza artificiale in situazioni delicate come tendenze suicide, disturbi alimentari, stati psicotici e dipendenze emotive.

La cosiddetta “Model Spec”, aggiornata recentemente, definisce ora principi chiari per la condotta di ChatGPT, con l’obiettivo di promuovere relazioni sane, riconoscere segnali di disagio e rispondere in modo appropriato e rispettoso. Il sistema è stato programmato per identificare segnali di crisi e fornire riferimenti utili, come numeri di emergenza, e per invitare gli utenti a sospendere conversazioni prolungate potenzialmente dannose.

L’esperienza negativa con GPT-5 e le successive proteste della community hanno inoltre spinto OpenAI a ripristinare l’accesso ai modelli precedenti, permettendo agli utenti di scegliere il livello di complessità e sensibilità desiderato nelle interazioni con il chatbot.

Mentre il dibattito sull’equilibrio tra innovazione e sicurezza continua a infiammare il settore tecnologico e legale, il caso di OpenAI e ChatGPT rappresenta un banco di prova cruciale per il futuro dell’intelligenza artificiale generativa, in cui la tutela della salute mentale e la responsabilità sociale risultano imprescindibili.

Tags: ChatGPTOpenAISalute Mentale

Related Posts

ChatGPT
Tecnologia

OpenAI introduce la pubblicità su ChatGPT: al via i test negli Usa

18 Gennaio 2026
ChatGPT
Tecnologia

Le otto applicazioni di ChatGPT da conoscere: strumenti e usi innovativi dell’intelligenza artificiale

17 Gennaio 2026
Il logo di Stranger Things 5
Spettacoli

Stranger Things 5, i fans contro i Duffer: “Avete usato ChatGPT per il finale?”

13 Gennaio 2026
Claude for Healthcare
Tecnologia

Claude for Healthcare: Anthropic sfida OpenAI sui chatbot per la salute

12 Gennaio 2026
ChatGPT
Tecnologia

ChatGPT Health debutta in Italia: diagnosi personalizzate grazie all’IA

8 Gennaio 2026
ChatGPT
Lifestyle

Matrimonio annullato in Olanda: sposo scoperto a usare ChatGPT per il discorso

8 Gennaio 2026

Articoli recenti

  • Nuove regole per l’assicurazione auto: tutte le novità del decreto di recepimento UE
  • Donna si sveglia nella notte con un peso sullo stomaco: pensava fosse il cane, ma era un pitone
  • Caso Signorini, Antonio Medugno in Procura a Milano: “Ho detto la verità a pm”
  • Caso Signorini, Medugno sentito dai pm a Milano: “Ho raccontato tutta la verità”
  • Danimarca rafforza contingente militare in Groenlandia: cresce la tensione con gli Stati Uniti

© 2026 Alanews – Smart Media Solutions - Testata giornalistica registrata al tribunale di Roma n° 243/2012 | Gestione editoriale e multimediale Editorially Srl - Via Assisi 21 - 00181 Roma - P.Iva: 16947451007 | Per la pubblicità: NewsCom S.r.l. – Divisione Testate on line - Sede legale: Via Assisi, 15 - 00181 Roma Capitale sociale: Euro 10.000,00 Codice Fiscale, Partita I.V.A. e Iscrizione al Registro delle Imprese di Roma n. 11903571005 | R.E.A. di Roma: 1335869 Visiona le nostre condizioni d'uso e la nostra politica sulla privacy & cookies.

Welcome Back!

Login to your account below

Forgotten Password?

Retrieve your password

Please enter your username or email address to reset your password.

Log In
×
No Result
View All Result
  • Cronaca
  • Politica
  • Economia
  • Esteri
  • Sport
  • Calcio
  • Spettacoli
  • Salute
  • Tecnologia
  • Cultura
  • Ambiente
  • Video
  • Chi siamo
  • Redazione

© 2026 Alanews – Smart Media Solutions - Testata giornalistica registrata al tribunale di Roma n° 243/2012 | Gestione editoriale e multimediale Editorially Srl - Via Assisi 21 - 00181 Roma - P.Iva: 16947451007 | Per la pubblicità: NewsCom S.r.l. – Divisione Testate on line - Sede legale: Via Assisi, 15 - 00181 Roma Capitale sociale: Euro 10.000,00 Codice Fiscale, Partita I.V.A. e Iscrizione al Registro delle Imprese di Roma n. 11903571005 | R.E.A. di Roma: 1335869 Visiona le nostre condizioni d'uso e la nostra politica sulla privacy & cookies.