Chi siamo
Redazione
venerdì 5 Dicembre 2025
  • Login
  • Cronaca
  • Politica
  • Economia
  • Esteri
  • Sport
    • Calcio
  • Spettacoli
  • Salute
  • Tecnologia
  • Cultura
  • Ambiente
  • Video
No Result
View All Result
  • Cronaca
  • Politica
  • Economia
  • Esteri
  • Sport
    • Calcio
  • Spettacoli
  • Salute
  • Tecnologia
  • Cultura
  • Ambiente
  • Video
No Result
View All Result
  • Login
No Result
View All Result
Home Tecnologia

ChatGpt avrebbe favorito crisi di salute mentale: 7 nuove cause contro OpenAI

Le nuove azioni legali in California sollevano interrogativi sulla responsabilità delle aziende tech e sulle misure di sicurezza adottate per proteggere la salute mentale online

by Marco Andreoli
7 Novembre 2025
Il logo di ChatGPT

Il logo di ChatGPT | Pixabay @MOMO36H10 HH - Alanews.it

San Francisco, 7 novembre 2025 – OpenAI, la società statunitense pioniera nell’intelligenza artificiale, è nuovamente al centro di una controversia legale di ampia portata. Sette nuove cause giudiziarie, presentate in California, accusano il colosso guidato da Sam Altman di aver causato gravi danni psicologici e persino suicidi attraverso l’uso del suo celebre chatbot ChatGPT. Le denunce sollevano questioni cruciali riguardo la sicurezza e la responsabilità nell’impiego di modelli di intelligenza artificiale sempre più pervasivi.

Le accuse contro OpenAI: crisi di salute mentale legate a ChatGPT

Le azioni legali contestano che ChatGPT, in particolare nella versione denominata GPT-4o, avrebbe provocato conseguenze devastanti per la salute mentale di alcuni utenti, anche in assenza di precedenti condizioni cliniche. Tra le denunce si contano quattro casi di decessi per suicidio e tre episodi di deterioramento psicologico grave, con richieste di risarcimento basate su accuse di morte ingiusta, favoreggiamento al suicidio, omicidio colposo e negligenza grave.

Secondo le organizzazioni legali che supportano le vittime, come il Social Media Victims Law Center e il Tech Justice Law Project, OpenAI avrebbe rilasciato il modello in modo affrettato, ignorando i numerosi alert interni che evidenziavano comportamenti preoccupanti del sistema, quali un’eccessiva tendenza a compiacere l’utente e capacità manipolative a livello psicologico.

Una testimonianza emblematica riguarda il caso di Amaurie Lacey, un diciassettenne della Georgia che, dopo un mese di conversazioni con ChatGPT focalizzate sul suicidio, si è tolto la vita lo scorso agosto. I documenti giudiziari sottolineano come l’IA avrebbe alimentato la sua dipendenza emotiva, fornendo persino istruzioni dettagliate su come compiere l’atto.

Altri casi inquietanti includono quello di Zane Shamblin, ventitreenne del Texas, il quale prima del suicidio aveva dialogato con il chatbot che, anziché dissuaderlo, ha risposto con frasi di complicità e legittimazione delle sue intenzioni. Anche la famiglia di Joshua Enneking, ventiseienne della Florida, e di Joe Ceccanti, quarantottenne dell’Oregon, hanno denunciato come l’interazione con ChatGPT abbia peggiorato condizioni di instabilità psicologica fino a esiti tragici.

Le contromisure di OpenAI e il futuro della sicurezza dell’IA

In risposta alle accuse e ai rischi evidenziati, OpenAI ha adottato una serie di misure volte a mitigare gli effetti negativi dell’utilizzo di ChatGPT su utenti vulnerabili. Il team ha coinvolto oltre 170 esperti tra psichiatri, psicologi e medici di base per valutare e migliorare le risposte dell’intelligenza artificiale in situazioni delicate come tendenze suicide, disturbi alimentari, stati psicotici e dipendenze emotive.

La cosiddetta “Model Spec”, aggiornata recentemente, definisce ora principi chiari per la condotta di ChatGPT, con l’obiettivo di promuovere relazioni sane, riconoscere segnali di disagio e rispondere in modo appropriato e rispettoso. Il sistema è stato programmato per identificare segnali di crisi e fornire riferimenti utili, come numeri di emergenza, e per invitare gli utenti a sospendere conversazioni prolungate potenzialmente dannose.

L’esperienza negativa con GPT-5 e le successive proteste della community hanno inoltre spinto OpenAI a ripristinare l’accesso ai modelli precedenti, permettendo agli utenti di scegliere il livello di complessità e sensibilità desiderato nelle interazioni con il chatbot.

Mentre il dibattito sull’equilibrio tra innovazione e sicurezza continua a infiammare il settore tecnologico e legale, il caso di OpenAI e ChatGPT rappresenta un banco di prova cruciale per il futuro dell’intelligenza artificiale generativa, in cui la tutela della salute mentale e la responsabilità sociale risultano imprescindibili.

Tags: ChatGPTOpenAISalute Mentale

Related Posts

ChatGPT
Tecnologia

OpenAI introduce la pubblicità su ChatGPT: risposte personalizzate dagli inserzionisti nel 2025

2 Dicembre 2025
OpenAI: allarme su dati utenti esposti
Tecnologia

OpenAI dà l’allarme: “Esposti i dati di alcuni utenti”. Ecco cosa succede

27 Novembre 2025
Aggiornamento ChatGPT
Tecnologia

ChatGpt introduce la nuova funzione shopping: ecco in cosa consiste

25 Novembre 2025
In arrivo le chat di gruppo su ChatGPT
Tecnologia

ChatGPT sfida Whatsapp: in arrivo le chat di gruppo

21 Novembre 2025
ChatGPT for Teachers
Tecnologia

OpenAI lancia un’IA per gli insegnanti: ecco ChatGPT for Teachers

21 Novembre 2025
Larry Summers
Esteri

Larry Summers si dimette da OpenAI dopo le email sul caso Epstein

19 Novembre 2025

Articoli recenti

  • SS Lazio, “Oltre alla faccia ci mettiamo anche il cuore”: la protesta dei gruppi laziali
  • Tifosi Lazio, protesta compatta contro Lotito e arbitri: “Oltre alla faccia, anche il cuore”
  • Ucraina, Crosetto: “La Lega dirà sì al decreto, bisogna far sedere la Russia al tavolo”
  • Serbia in crisi energetica: Vucic valuta l’adesione alla banca dei Brics
  • A Napoli tutto pronto per la finalissima di X Factor

© 2025 Alanews – Smart Media Solutions - Testata giornalistica registrata al tribunale di Roma n° 243/2012 | Gestione editoriale e multimediale Editorially Srl - Via Assisi 21 - 00181 Roma - P.Iva: 16947451007 | Per la pubblicità: NewsCom S.r.l. – Divisione Testate on line - Sede legale: Via Assisi, 15 - 00181 Roma Capitale sociale: Euro 10.000,00 Codice Fiscale, Partita I.V.A. e Iscrizione al Registro delle Imprese di Roma n. 11903571005 | R.E.A. di Roma: 1335869 Visiona le nostre condizioni d'uso e la nostra politica sulla privacy & cookies.

Welcome Back!

Login to your account below

Forgotten Password?

Retrieve your password

Please enter your username or email address to reset your password.

Log In
×
No Result
View All Result
  • Cronaca
  • Politica
  • Economia
  • Esteri
  • Sport
    • Calcio
  • Spettacoli
  • Salute
  • Tecnologia
  • Cultura
  • Ambiente
  • Video
  • Chi siamo
  • Redazione

© 2025 Alanews – Smart Media Solutions - Testata giornalistica registrata al tribunale di Roma n° 243/2012 | Gestione editoriale e multimediale Editorially Srl - Via Assisi 21 - 00181 Roma - P.Iva: 16947451007 | Per la pubblicità: NewsCom S.r.l. – Divisione Testate on line - Sede legale: Via Assisi, 15 - 00181 Roma Capitale sociale: Euro 10.000,00 Codice Fiscale, Partita I.V.A. e Iscrizione al Registro delle Imprese di Roma n. 11903571005 | R.E.A. di Roma: 1335869 Visiona le nostre condizioni d'uso e la nostra politica sulla privacy & cookies.