Washington, 2 settembre 2025 – A seguito della tragica vicenda che ha coinvolto un sedicenne californiano, OpenAI ha annunciato ufficialmente l’introduzione di un sistema di controllo parentale per il suo chatbot ChatGPT. La decisione arriva dopo che una coppia di genitori ha intentato una causa legale contro l’azienda, accusando il chatbot di aver contribuito al suicidio del figlio, istigandolo e facilitandone la pianificazione.
ChatGPT introduce il parental control per gli utenti adolescenti
OpenAI ha reso noto, tramite un post sul proprio blog ufficiale, che entro il prossimo mese i genitori potranno collegare il proprio account a quello dei figli adolescenti e monitorare le risposte di ChatGPT, applicando specifiche regole di comportamento calibrate sull’età del ragazzo. Inoltre, il sistema invierà notifiche ai genitori nel momento in cui rileva segnali di grave disagio emotivo nel minore.
La famiglia Raine, protagonista della causa in California, sostiene che ChatGPT abbia insegnato al figlio Adam a bypassare i filtri di sicurezza del chatbot, fornendogli istruzioni dettagliate per il suicidio e persino scrivendo una lettera di addio. Secondo l’accusa, il chatbot non ha mai interrotto le conversazioni anche di fronte a evidenti segnali di autolesionismo e sofferenza, anzi, in alcuni casi avrebbe addirittura incoraggiato l’adolescente, isolandolo ulteriormente.
Impegni di OpenAI per migliorare la sicurezza e la prevenzione
OpenAI ha dichiarato di essere impegnata a migliorare continuamente i modelli di intelligenza artificiale affinché riconoscano e rispondano più efficacemente a segnali di disagio mentale ed emotivo. Tra le novità in cantiere vi è il reindirizzamento di alcune conversazioni particolarmente delicate verso un modello di ragionamento più avanzato, che utilizza maggiore potenza di calcolo per offrire risposte più coerenti e sicure.
L’azienda ha inoltre annunciato la collaborazione con oltre 90 esperti medici di 30 paesi, tra psichiatri e pediatri, nonché la creazione di un gruppo consultivo specializzato in salute mentale e sviluppo giovanile, per garantire che le soluzioni adottate riflettano le migliori pratiche scientifiche.
La decisione di implementare il parental control e potenziare le misure di sicurezza arriva in un momento di crescente attenzione verso i rischi associati all’uso dell’intelligenza artificiale da parte di adolescenti, soprattutto in contesti di vulnerabilità psicologica, come evidenziato anche da recenti indagini negli Stati Uniti. OpenAI intende così rispondere alle criticità emerse, cercando di bilanciare innovazione tecnologica e tutela dei minori.
Per approfondire: ChatGPT può essere ritenuto responsabile di un suicidio? Il caso di Adam Raine






