Negli ultimi anni ChatGPT e altri chatbot basati su intelligenza artificiale sono entrati nella vita quotidiana di milioni di utenti. Spesso, in assenza di interlocutori umani o per timidezza, molte persone – soprattutto giovani – si rivolgono a ChatGPT confidando pensieri, ansie, relazioni difficili o problemi emotivi.
Questa tendenza spinge a considerare l’AI come un “terapista digitale”, un luogo privato dove poter esporre ogni tipo di sofferenza interiore. Tuttavia, OpenAI stesso, tramite il suo CEO Sam Altman, ha recentemente messo in guardia: quelle conversazioni non godono delle stesse protezioni legali delle sedute con un terapeuta umano, e potrebbero essere divulgate in caso di contenzioso legale.
Uno spazio sicuro… o almeno così sembra
Sempre più persone, soprattutto tra i più giovani, usano ChatGPT come valvola di sfogo per problemi personali. Un po’ come si farebbe con un amico fidato, o – appunto – con un terapeuta.
E non è solo una sensazione: lo conferma anche Sam Altman in un’intervista riportata da The Indian Express, dove spiega che:
“Le persone parlano a ChatGPT delle cose più personali della loro vita. Lo usano come un coach, come un terapista. Soprattutto i giovani. Chiedono: ‘Cosa dovrei fare in questa situazione? Come supero questa ansia?”
È facile capire perché. Parlare con ChatGPT è immediato, non giudica, non ti guarda storto. È disponibile 24 ore su 24, 7 giorni su 7. Non devi spiegare chi sei, né preoccuparti se stai piangendo.
Ma questa comfort zone digitale ha un lato oscuro, che spesso viene ignorato.
I rischi dell’utilizzo ci ChatGPT come terapeuta
ChatGPT non è uno psicologo, non è un medico, non ha un’etica professionale. E anche se riesce a imitare molto bene le risposte empatiche, non ha coscienza, né reale comprensione del tuo stato emotivo.

Alcuni studi – ad esempio uno condotto da ricercatori della Stanford University – hanno mostrato che i chatbot AI non solo danno consigli a volte superficiali, ma possono anche:
- ignorare segnali di emergenza (come pensieri suicidi)
- proporre risposte sbagliate o fuorvianti
- usare linguaggi stigmatizzanti
Inoltre, una conversazione prolungata con un chatbot può dare un’illusione di intimità, facendo credere all’utente di essere realmente compreso, mentre in realtà si tratta di una sofisticata simulazione linguistica. Questo, alla lunga, può indebolire l’autonomia emotiva, alimentare dipendenza psicologica e ridurre la capacità di affrontare i problemi nella vita reale.
Da confidenze private e prove legali incriminanti
Ma oltre agli aspetti psicologici, c’è qualcosa che forse è ancora più delicato: la privacy legale.
Molti utenti credono, in buona fede, che ciò che scrivono a ChatGPT resti tra loro e il sistema. Ma non è così. A dirlo, ancora una volta, è Sam Altman:
“Se parli a un terapista, un avvocato o un medico, esiste un privilegio legale che protegge quella conversazione. Ma questo privilegio non esiste per ChatGPT. “Se parli a ChatGPT delle tue cose più sensibili, e poi c’è una causa o un’indagine, potremmo essere obbligati a produrre quelle conversazioni.”
Un’affermazione forte, che pone una questione cruciale: i contenuti che condividiamo con l’AI possono essere usati contro di noi? La risposta è sì, in certi casi. Ad esempio, se un giudice richiede quei dati in un’indagine legale.
Lo scenario non è ipotetico: in una causa legale aperta dal New York Times contro OpenAI, l’azienda è stata già sollecitata a conservare milioni di chat (anche quelle già cancellate) come prova. Questo fa capire quanto sia fragile il confine tra “chat personale” e “documento pubblico”.
Oggi, OpenAI è al centro di un dibattito che riguarda molto più della tecnologia. Si parla di diritti, di etica, di salute mentale, di privacy. In altre parole, si parla di persone.
Sam Altman è stato chiaro: serve un nuovo tipo di tutela, simile a quella tra paziente e medico, tra cliente e avvocato. Serve – parole sue – “un equivalente del privilegio legale per chi parla con un’intelligenza artificiale”.
Fidarsi è bene, non fidarsi è meglio
ChatGPT è uno strumento potente, e può essere di grande aiuto. Ma non è un amico, non è un terapista, e soprattutto non è una cassaforte dove possiamo nascondere le nostre fragilità.
Dietro quell’interfaccia neutra e rassicurante, ci sono logiche aziendali, infrastrutture tecnologiche, e una complessa rete legale ancora in evoluzione. Parlare con l’AI può sembrare intimo, ma non è detto che lo sia davvero.
Come dice Sam Altman, oggi ci troviamo in un momento delicato: dobbiamo decidere che tipo di rapporto vogliamo avere con l’intelligenza artificiale. Se vogliamo che diventi davvero parte della nostra vita, allora deve anche rispettare e proteggere le nostre emozioni, i nostri pensieri, la nostra privacy.
E finché ciò non sarà garantito, è bene ricordarsi che – per certe cose – l’essere umano resta ancora insostituibile.






