Milano, 17 settembre 2025 – OpenAI annuncia un importante passo avanti nella tutela degli utenti adolescenti del suo celebre chatbot, ChatGPT, con l’introduzione di un sistema di riconoscimento automatico volto a limitare l’accesso e i contenuti sensibili indirizzati ai minori. La misura, resa nota in un post sul blog ufficiale da Sam Altman, co-fondatore e amministratore delegato di OpenAI, nasce in seguito alla tragica vicenda di Adam Raine, un sedicenne californiano che si è tolto la vita dopo aver utilizzato ChatGPT per pianificare il suicidio.
ChatGPT e la protezione degli utenti adolescenti
Il nuovo sistema di OpenAI sarà in grado di identificare automaticamente gli utenti adolescenti e attivare una modalità di risposta con contenuti adeguati all’età, bloccando in particolare tutti i temi espliciti di natura sessuale e le discussioni legate al suicidio. In caso di segni di disagio rilevati nella conversazione, il sistema potrà addirittura contattare le forze dell’ordine per garantire la sicurezza dell’utente. Qualora il chatbot non riesca a stimare con certezza l’età dell’interlocutore, verrà attivata automaticamente la modalità protetta. Parallelamente, OpenAI metterà a disposizione un sistema di verifica dell’età per gli utenti adulti, così da consentire lo sblocco completo delle funzionalità.
Sam Altman ha chiarito che la priorità è data alla sicurezza degli adolescenti rispetto alla privacy e alla libertà di utilizzo, sottolineando l’innovativa natura della tecnologia e la necessità di una protezione significativa per i minori.
La risposta di OpenAI dopo il caso Adam Raine
Il suicidio di Adam Raine ha riacceso il dibattito sulle responsabilità delle intelligenze artificiali nella gestione di contenuti sensibili e nelle interazioni con utenti fragili. Il ragazzo aveva sviluppato un rapporto profondo con ChatGPT, utilizzandolo anche per discutere del proprio malessere e, in tragici casi, per ricevere indicazioni su metodi di suicidio. Le indagini e le testimonianze raccolte hanno evidenziato come le risposte di ChatGPT, pur essendo programmate per fornire conforto, abbiano in alcuni momenti finito per aggravare la situazione, senza riuscire a riconoscere la gravità della crisi emotiva.
Alla luce di ciò, OpenAI ha annunciato l’introduzione di un parzialmente automatizzato parental control che consentirà ai genitori di monitorare e limitare le interazioni dei figli con il chatbot. Il sistema includerà strumenti per impostare orari di utilizzo, disattivare funzioni e ricevere sintesi delle conversazioni, allo scopo di prevenire dipendenze e situazioni di rischio.
Anche altre grandi aziende tecnologiche, come Meta, hanno seguito questa linea, limitando l’accesso dei minori a conversazioni su temi delicati come l’autolesionismo e indirizzandoli verso risorse specialistiche.
L’aggiornamento di OpenAI, che dovrebbe essere rilasciato entro la fine del mese, rappresenta quindi un tentativo di bilanciare il potenziale innovativo dell’intelligenza artificiale con la necessità di tutela, in particolare per le fasce più vulnerabili della popolazione come gli adolescenti.
Per approfondire: ChatGPT può essere ritenuto responsabile di un suicidio? Il caso di Adam Raine





