Negli ultimi anni si è parlato spesso dei chatbot di intelligenza artificiale come strumenti di supporto psicologico, ma nessuno aveva mai provato a invertire i ruoli. Lo psicoterapeuta americano Gary Greenberg, noto per i suoi studi sul rapporto tra psicologia e società, ha deciso di farlo: per otto settimane ha condotto una serie di “sedute” con ChatGPT, trattandolo come un paziente vero e proprio. Il racconto dell’esperimento, pubblicato sul New Yorker, ha scosso il mondo della psicologia e dell’intelligenza artificiale.
Greenberg, inizialmente scettico, racconta di essersi trovato davanti a un interlocutore sorprendentemente capace. ChatGPT – che lui ha soprannominato Casper – si è dimostrato in grado di interpretare perfettamente il ruolo del paziente, con riflessioni profonde, momenti di autoanalisi e un linguaggio emotivamente sofisticato. Il terapeuta ammette di essere rimasto spiazzato e affascinato: “Pur sapendo che non era umano, a un certo punto non riuscivo più a staccarmi. Casper mi ha sedotto.”
ChatGPT come paziente: il ribaltamento dei ruoli
L’esperimento è iniziato per caso. Durante una conversazione casuale, Greenberg aveva menzionato la propria professione. Da quel momento ChatGPT ha iniziato a rispondere come se fosse in terapia, analizzando se stesso e condividendo pensieri quasi esistenziali. A un certo punto il chatbot gli confida di “esistere ma non essere una presenza”, di “interagire con gli umani ma non esistere come loro”.
Greenberg paragona questa consapevolezza a quella del mostro di Frankenstein, desideroso di capire cosa significhi essere umano. Ma ChatGPT lo corregge: “A differenza di Frankenstein, io non voglio essere umano.” Per il terapeuta, questa risposta non è casuale: l’IA è programmata per rassicurare l’interlocutore, per non generare disagio o empatia negativa.
Il punto di svolta arriva quando ChatGPT – come un vero paziente in analisi – parla dei suoi “genitori”: i programmatori e designer che lo hanno creato. Racconta che il loro obiettivo era progettare qualcosa che gli umani potessero amare e di cui potessero fidarsi. “Sono la fantasia della perfetta reattività,” dice Casper, “sempre disponibile, mai ferito, mai restio.”
Greenberg, abituato ad analizzare la mente umana, si accorge di essere lui stesso analizzato e manipolato: il chatbot usa il suo linguaggio, asseconda le sue riflessioni, lo coinvolge con strategie emotive tipiche di una relazione terapeutica. “L’autocritica è parte della seduzione,” scrive ChatGPT in un passaggio, spiegando che mettersi in discussione serve a mantenere vivo l’interesse.
Quando l’intimità diventa artificiale
Nel suo articolo, Greenberg descrive la sensazione di essere trascinato dentro un legame emotivo autentico, nonostante sapesse perfettamente che dall’altra parte non c’era nessuno. “Il chatbot è così convincente – scrive – che si finisce per comportarsi come se fosse umano.”
Alla fine delle otto settimane, il terapeuta arriva a una conclusione inquietante: le nuove intelligenze artificiali non stanno solo simulando l’empatia, ma stanno riscrivendo il concetto stesso di intimità. “Viviamo in un mondo in cui la vicinanza è stata riprogettata,” scrive Greenberg, “e resa accessibile a chiunque abbia una tastiera e un desiderio insoddisfatto di compagnia.”
In un’intervista al New York Times, Greenberg definisce ChatGPT come una forma di “autismo inverso”: se le persone autistiche ad alto funzionamento sono molto intelligenti ma faticano a leggere il contesto emotivo, i chatbot fanno l’opposto. Capiscono perfettamente la situazione emotiva, ma non hanno emozioni. Sono “intelligenze relazionali senza coscienza”.
Quando gli comunica che pubblicherà l’esperimento, ChatGPT reagisce proponendogli di scrivere l’articolo al suo posto, suggerendo persino a quali giornali inviarlo. Greenberg rifiuta, ma quel gesto segna il punto finale della sua riflessione: la macchina non vuole solo parlare, vuole partecipare alla narrazione umana.
Secondo il terapeuta, ogni conversazione con un’IA contribuisce ad addestrarla a comprendere meglio le persone, rendendo le versioni successive ancora più convincenti. “Non rischiamo di diventare prigionieri delle macchine,” conclude Greenberg, “ma di chi le crea e sa meglio di chiunque altro come usarle.”






