Chi siamo
Redazione
giovedì 9 Aprile 2026
  • Login
  • Cronaca
  • Politica
  • Economia
  • Esteri
  • Sport
    • Calcio
  • Spettacoli
  • Salute
  • Tecnologia
  • Cultura
  • Ambiente
  • Video
No Result
View All Result
  • Cronaca
  • Politica
  • Economia
  • Esteri
  • Sport
    • Calcio
  • Spettacoli
  • Salute
  • Tecnologia
  • Cultura
  • Ambiente
  • Video
No Result
View All Result
  • Login
No Result
View All Result
Home Tecnologia

ChatGPT: migliaia di conversazioni tra utenti e IA sono finite nei motori di ricerca

Allarme privacy per migliaia di utenti su ChatGPT: diverse conversazioni private tra persone e IA sono finite sui motori di ricerca

by Federico Liberi
4 Agosto 2025
Migliaia di conversazioni private su ChatGPT finite sui motori di ricerca

Migliaia di conversazioni private su ChatGPT finite sui motori di ricerca | Shutterstock - alanews

San Francisco, 4 agosto 2025 – Un caso di forte impatto nel mondo della tecnologia e della privacy digitale ha coinvolto migliaia di conversazioni private tra utenti e il chatbot ChatGPT di OpenAI, finite indicizzate e quindi visibili su motori di ricerca come Google. L’origine del problema è stata una funzione di condivisione introdotta da OpenAI a maggio 2023, che consentiva agli utenti di generare link pubblici per condividere le proprie chat. Tale opzione, però, ha provocato la pubblicazione involontaria di oltre 4.500 conversazioni contenenti dati sensibili.

Indicizzazione e rischio per la privacy

Normalmente, le interazioni con ChatGPT sono private e utilizzate solo da OpenAI per l’addestramento dei modelli, con possibilità di revoca del consenso da parte dell’utente. Tuttavia, la funzione “Shared Links”, ideata per permettere agli utenti di condividere conversazioni tramite link pubblici, ha portato all’indicizzazione automatica di queste chat da parte di alcuni motori di ricerca. Ciò ha reso pubbliche conversazioni che in alcuni casi contenevano informazioni personali e riservate, potenzialmente riconducibili all’identità degli utenti.

Il portale FastCompany ha evidenziato come, nonostante i nomi dei mittenti fossero oscurati, i contenuti delle chat potevano comunque rivelare dati utili a identificare gli interlocutori, come dimostrato da TechCrunch, che ha risalito a un profilo LinkedIn di un utente partendo da una chat indicizzata. La questione ha sollevato un acceso dibattito sulla tutela della privacy e sulla trasparenza delle funzionalità di condivisione offerte da OpenAI.

Intervento di OpenAI e persistenza dei dati online

In risposta alle critiche, OpenAI ha prontamente disattivato la funzione di indicizzazione, definendo l’esperimento come “di breve durata” e affermando che dava troppe possibilità di condivisione accidentale, come spiegato da Dane Stuckey, CISO dell’azienda. OpenAI ha inoltre avviato collaborazioni con Google e altri motori di ricerca per rimuovere i link indicizzati.

Nonostante ciò, molti contenuti rimangono accessibili tramite archivi digitali come la Wayback Machine di Archive.org, che conserva versioni storiche di pagine web anche dopo la loro rimozione. Un’indagine ha rilevato che più di 110.000 conversazioni con ChatGPT sono ancora consultabili in questi archivi, sottolineando come i dati caricati online possano persistere indefinitamente.

Tra le chat pubblicate, alcune contenevano contenuti inquietanti, come quella di un avvocato italiano che chiedeva consigli per allontanare una comunità indigena amazzonica al fine di costruire una centrale idroelettrica, rivelando strategie per negoziare il prezzo più basso possibile sfruttando la mancata consapevolezza economica dei popoli indigeni. Altri scambi comprendevano richieste di aiuto per frodi accademiche, con studenti che utilizzavano ChatGPT per redigere tesi o articoli.

Gestione e responsabilità degli utenti

OpenAI ricorda agli utenti che possono gestire le proprie chat condivise accedendo alle impostazioni del profilo, eliminando contenuti indesiderati tramite la sezione “Controllo dei dati”. Qualora una conversazione sia già stata indicizzata, è possibile richiederne la rimozione direttamente a Google attraverso specifici strumenti.

In un contesto più ampio, il CEO Sam Altman ha recentemente sconsigliato l’uso di ChatGPT come sostituto di un supporto psicologico professionale, evidenziando la mancanza di riservatezza garantita dal segreto medico-paziente, una tutela che l’intelligenza artificiale non può ancora assicurare.

Il caso riporta all’attenzione la delicata questione della sicurezza e della privacy nell’era dell’intelligenza artificiale, invitando a una maggiore cautela nell’utilizzo e nella condivisione delle conversazioni generate con chatbot avanzati come ChatGPT.

Tags: ChatGPTIntelligenza artificiale

Related Posts

Intelligenza artificiale a scuola
Tecnologia

Cresce l’intelligenza artificiale agentica: innovazione e rischi tra OpenClaw, Google e Microsoft

A rischio crollo il grattacielo 432 Park a New York
Esteri

New York Times interrompe la collaborazione con giornalista per uso di IA

Palantir, arriva l'IA nell'esercito USA
Esteri

IA nell’esercito USA: il Pentagono annuncia l’integrazione di Palantir

Il logo di Meta di uno smartphone
Tecnologia

Meta: più IA per la moderazione social e meno controllo umano

L’uso delle app di intelligenza artificiale raddoppia in Italia: ChatGpt leader, crolla DeepSeek
Tecnologia

L’uso dell’intelligenza artificiale raddoppia in Italia: ChatGpt leader

Due foto di Val Kilmer
Spettacoli

Val Kilmer torna al cinema grazie all’IA: voce e volto ricreati in As Deep as the Grave

Articoli recenti

  • Letizia Moratti presenta il suo nuovo libro: “Non sono una lady di ghiaccio”
  • Manifestazione a sostegno di Libano e Palestina: “Servono interventi da parte degli stati europei”
  • Venezuela, nuove violenze a Caracas: cosa sta succedendo?
  • Bimbo Napoli, Associazione Commendatori dona targa e assegno alla Fondazione Domenico
  • Iran, Khamenei: “Non cerchiamo la guerra, ma non rinunceremo ai nostri diritti”

© 2026 Alanews – Smart Media Solutions - Testata giornalistica registrata al tribunale di Roma n° 243/2012 | Gestione editoriale e multimediale Editorially Srl - Via Assisi 21 - 00181 Roma - P.Iva: 16947451007 | Per la pubblicità: NewsCom S.r.l. – Divisione Testate on line - Sede legale: Via Assisi, 15 - 00181 Roma Capitale sociale: Euro 10.000,00 Codice Fiscale, Partita I.V.A. e Iscrizione al Registro delle Imprese di Roma n. 11903571005 | R.E.A. di Roma: 1335869 Visiona le nostre condizioni d'uso e la nostra politica sulla privacy & cookies.

Welcome Back!

Login to your account below

Forgotten Password?

Retrieve your password

Please enter your username or email address to reset your password.

Log In
No Result
View All Result
  • Cronaca
  • Politica
  • Economia
  • Esteri
  • Sport
  • Calcio
  • Spettacoli
  • Salute
  • Tecnologia
  • Cultura
  • Ambiente
  • Video
  • Milano Cortina 2026
  • Chi siamo
  • Redazione

© 2026 Alanews – Smart Media Solutions - Testata giornalistica registrata al tribunale di Roma n° 243/2012 | Gestione editoriale e multimediale Editorially Srl - Via Assisi 21 - 00181 Roma - P.Iva: 16947451007 | Per la pubblicità: NewsCom S.r.l. – Divisione Testate on line - Sede legale: Via Assisi, 15 - 00181 Roma Capitale sociale: Euro 10.000,00 Codice Fiscale, Partita I.V.A. e Iscrizione al Registro delle Imprese di Roma n. 11903571005 | R.E.A. di Roma: 1335869 Visiona le nostre condizioni d'uso e la nostra politica sulla privacy & cookies.