San Francisco, 4 agosto 2025 – Un caso di forte impatto nel mondo della tecnologia e della privacy digitale ha coinvolto migliaia di conversazioni private tra utenti e il chatbot ChatGPT di OpenAI, finite indicizzate e quindi visibili su motori di ricerca come Google. L’origine del problema è stata una funzione di condivisione introdotta da OpenAI a maggio 2023, che consentiva agli utenti di generare link pubblici per condividere le proprie chat. Tale opzione, però, ha provocato la pubblicazione involontaria di oltre 4.500 conversazioni contenenti dati sensibili.
Indicizzazione e rischio per la privacy
Normalmente, le interazioni con ChatGPT sono private e utilizzate solo da OpenAI per l’addestramento dei modelli, con possibilità di revoca del consenso da parte dell’utente. Tuttavia, la funzione “Shared Links”, ideata per permettere agli utenti di condividere conversazioni tramite link pubblici, ha portato all’indicizzazione automatica di queste chat da parte di alcuni motori di ricerca. Ciò ha reso pubbliche conversazioni che in alcuni casi contenevano informazioni personali e riservate, potenzialmente riconducibili all’identità degli utenti.
Il portale FastCompany ha evidenziato come, nonostante i nomi dei mittenti fossero oscurati, i contenuti delle chat potevano comunque rivelare dati utili a identificare gli interlocutori, come dimostrato da TechCrunch, che ha risalito a un profilo LinkedIn di un utente partendo da una chat indicizzata. La questione ha sollevato un acceso dibattito sulla tutela della privacy e sulla trasparenza delle funzionalità di condivisione offerte da OpenAI.
Intervento di OpenAI e persistenza dei dati online
In risposta alle critiche, OpenAI ha prontamente disattivato la funzione di indicizzazione, definendo l’esperimento come “di breve durata” e affermando che dava troppe possibilità di condivisione accidentale, come spiegato da Dane Stuckey, CISO dell’azienda. OpenAI ha inoltre avviato collaborazioni con Google e altri motori di ricerca per rimuovere i link indicizzati.
Nonostante ciò, molti contenuti rimangono accessibili tramite archivi digitali come la Wayback Machine di Archive.org, che conserva versioni storiche di pagine web anche dopo la loro rimozione. Un’indagine ha rilevato che più di 110.000 conversazioni con ChatGPT sono ancora consultabili in questi archivi, sottolineando come i dati caricati online possano persistere indefinitamente.
Tra le chat pubblicate, alcune contenevano contenuti inquietanti, come quella di un avvocato italiano che chiedeva consigli per allontanare una comunità indigena amazzonica al fine di costruire una centrale idroelettrica, rivelando strategie per negoziare il prezzo più basso possibile sfruttando la mancata consapevolezza economica dei popoli indigeni. Altri scambi comprendevano richieste di aiuto per frodi accademiche, con studenti che utilizzavano ChatGPT per redigere tesi o articoli.
Gestione e responsabilità degli utenti
OpenAI ricorda agli utenti che possono gestire le proprie chat condivise accedendo alle impostazioni del profilo, eliminando contenuti indesiderati tramite la sezione “Controllo dei dati”. Qualora una conversazione sia già stata indicizzata, è possibile richiederne la rimozione direttamente a Google attraverso specifici strumenti.
In un contesto più ampio, il CEO Sam Altman ha recentemente sconsigliato l’uso di ChatGPT come sostituto di un supporto psicologico professionale, evidenziando la mancanza di riservatezza garantita dal segreto medico-paziente, una tutela che l’intelligenza artificiale non può ancora assicurare.
Il caso riporta all’attenzione la delicata questione della sicurezza e della privacy nell’era dell’intelligenza artificiale, invitando a una maggiore cautela nell’utilizzo e nella condivisione delle conversazioni generate con chatbot avanzati come ChatGPT.





