Chi siamo
Redazione
mercoledì 4 Febbraio 2026
  • Login
  • Cronaca
  • Politica
  • Economia
  • Esteri
  • Sport
    • Calcio
  • Spettacoli
  • Salute
  • Tecnologia
  • Cultura
  • Ambiente
  • Video
No Result
View All Result
  • Cronaca
  • Politica
  • Economia
  • Esteri
  • Sport
    • Calcio
  • Spettacoli
  • Salute
  • Tecnologia
  • Cultura
  • Ambiente
  • Video
No Result
View All Result
  • Login
No Result
View All Result
Home Tecnologia

ChatGPT: migliaia di conversazioni tra utenti e IA sono finite nei motori di ricerca

Allarme privacy per migliaia di utenti su ChatGPT: diverse conversazioni private tra persone e IA sono finite sui motori di ricerca

by Federico Liberi
4 Agosto 2025
Migliaia di conversazioni private su ChatGPT finite sui motori di ricerca

Migliaia di conversazioni private su ChatGPT finite sui motori di ricerca | Shutterstock - alanews

San Francisco, 4 agosto 2025 – Un caso di forte impatto nel mondo della tecnologia e della privacy digitale ha coinvolto migliaia di conversazioni private tra utenti e il chatbot ChatGPT di OpenAI, finite indicizzate e quindi visibili su motori di ricerca come Google. L’origine del problema è stata una funzione di condivisione introdotta da OpenAI a maggio 2023, che consentiva agli utenti di generare link pubblici per condividere le proprie chat. Tale opzione, però, ha provocato la pubblicazione involontaria di oltre 4.500 conversazioni contenenti dati sensibili.

Indicizzazione e rischio per la privacy

Normalmente, le interazioni con ChatGPT sono private e utilizzate solo da OpenAI per l’addestramento dei modelli, con possibilità di revoca del consenso da parte dell’utente. Tuttavia, la funzione “Shared Links”, ideata per permettere agli utenti di condividere conversazioni tramite link pubblici, ha portato all’indicizzazione automatica di queste chat da parte di alcuni motori di ricerca. Ciò ha reso pubbliche conversazioni che in alcuni casi contenevano informazioni personali e riservate, potenzialmente riconducibili all’identità degli utenti.

Il portale FastCompany ha evidenziato come, nonostante i nomi dei mittenti fossero oscurati, i contenuti delle chat potevano comunque rivelare dati utili a identificare gli interlocutori, come dimostrato da TechCrunch, che ha risalito a un profilo LinkedIn di un utente partendo da una chat indicizzata. La questione ha sollevato un acceso dibattito sulla tutela della privacy e sulla trasparenza delle funzionalità di condivisione offerte da OpenAI.

Intervento di OpenAI e persistenza dei dati online

In risposta alle critiche, OpenAI ha prontamente disattivato la funzione di indicizzazione, definendo l’esperimento come “di breve durata” e affermando che dava troppe possibilità di condivisione accidentale, come spiegato da Dane Stuckey, CISO dell’azienda. OpenAI ha inoltre avviato collaborazioni con Google e altri motori di ricerca per rimuovere i link indicizzati.

Nonostante ciò, molti contenuti rimangono accessibili tramite archivi digitali come la Wayback Machine di Archive.org, che conserva versioni storiche di pagine web anche dopo la loro rimozione. Un’indagine ha rilevato che più di 110.000 conversazioni con ChatGPT sono ancora consultabili in questi archivi, sottolineando come i dati caricati online possano persistere indefinitamente.

Tra le chat pubblicate, alcune contenevano contenuti inquietanti, come quella di un avvocato italiano che chiedeva consigli per allontanare una comunità indigena amazzonica al fine di costruire una centrale idroelettrica, rivelando strategie per negoziare il prezzo più basso possibile sfruttando la mancata consapevolezza economica dei popoli indigeni. Altri scambi comprendevano richieste di aiuto per frodi accademiche, con studenti che utilizzavano ChatGPT per redigere tesi o articoli.

Gestione e responsabilità degli utenti

OpenAI ricorda agli utenti che possono gestire le proprie chat condivise accedendo alle impostazioni del profilo, eliminando contenuti indesiderati tramite la sezione “Controllo dei dati”. Qualora una conversazione sia già stata indicizzata, è possibile richiederne la rimozione direttamente a Google attraverso specifici strumenti.

In un contesto più ampio, il CEO Sam Altman ha recentemente sconsigliato l’uso di ChatGPT come sostituto di un supporto psicologico professionale, evidenziando la mancanza di riservatezza garantita dal segreto medico-paziente, una tutela che l’intelligenza artificiale non può ancora assicurare.

Il caso riporta all’attenzione la delicata questione della sicurezza e della privacy nell’era dell’intelligenza artificiale, invitando a una maggiore cautela nell’utilizzo e nella condivisione delle conversazioni generate con chatbot avanzati come ChatGPT.

Tags: ChatGPTIntelligenza artificiale

Related Posts

INPS
Cronaca

Identità digitali generate con IA per frodare l’Inps, sequestro beni per 1,4 milioni

3 Febbraio 2026
Video

Turismo, Santanchè: “L’IA spazzerà via la mediocrità. Serve balzo in avanti su qualità dell’offerta”

2 Febbraio 2026
Arriva Grokipedia su ChatGPT
Tecnologia

ChatGPT, arriva l’integrazione di Grokipedia: allarme disinformazione

1 Febbraio 2026
Intelligenza artificiale (IA) femminista
Tecnologia

Deepfake nudi e pregiudizi, si fa strada l’IA femminista

31 Gennaio 2026
ChatGPT ha più personalità
Cronaca

Giornalisti e IA: prima segnalazione dell’Ordine per uso improprio

29 Gennaio 2026
Intelligenza artificiale (IA)
Tecnologia

Fastweb, Vodafone e AI4I insieme per accelerare l’intelligenza artificiale nell’industria italiana

27 Gennaio 2026

Articoli recenti

  • Giornata mondiale contro il cancro: attese 390mila nuove diagnosi in Italia
  • Colloqui sull’Ucraina: la delegazione di Kiev e Witkoff sono arrivati ad Abu Dhabi
  • Dal 2027 la Cina vieta le maniglie a scomparsa: il motivo
  • Relazioni Cina-Russia: oggi colloquio tra Xi Jinping e Putin
  • Bimba di due anni ricoverata in gravi condizioni per meningite tubercolare a Forlì

© 2026 Alanews – Smart Media Solutions - Testata giornalistica registrata al tribunale di Roma n° 243/2012 | Gestione editoriale e multimediale Editorially Srl - Via Assisi 21 - 00181 Roma - P.Iva: 16947451007 | Per la pubblicità: NewsCom S.r.l. – Divisione Testate on line - Sede legale: Via Assisi, 15 - 00181 Roma Capitale sociale: Euro 10.000,00 Codice Fiscale, Partita I.V.A. e Iscrizione al Registro delle Imprese di Roma n. 11903571005 | R.E.A. di Roma: 1335869 Visiona le nostre condizioni d'uso e la nostra politica sulla privacy & cookies.

Welcome Back!

Login to your account below

Forgotten Password?

Retrieve your password

Please enter your username or email address to reset your password.

Log In
×
No Result
View All Result
  • Cronaca
  • Politica
  • Economia
  • Esteri
  • Sport
  • Calcio
  • Spettacoli
  • Salute
  • Tecnologia
  • Cultura
  • Ambiente
  • Video
  • Chi siamo
  • Redazione

© 2026 Alanews – Smart Media Solutions - Testata giornalistica registrata al tribunale di Roma n° 243/2012 | Gestione editoriale e multimediale Editorially Srl - Via Assisi 21 - 00181 Roma - P.Iva: 16947451007 | Per la pubblicità: NewsCom S.r.l. – Divisione Testate on line - Sede legale: Via Assisi, 15 - 00181 Roma Capitale sociale: Euro 10.000,00 Codice Fiscale, Partita I.V.A. e Iscrizione al Registro delle Imprese di Roma n. 11903571005 | R.E.A. di Roma: 1335869 Visiona le nostre condizioni d'uso e la nostra politica sulla privacy & cookies.