Chi siamo
Redazione
venerdì 5 Dicembre 2025
  • Login
  • Cronaca
  • Politica
  • Economia
  • Esteri
  • Sport
    • Calcio
  • Spettacoli
  • Salute
  • Tecnologia
  • Cultura
  • Ambiente
  • Video
No Result
View All Result
  • Cronaca
  • Politica
  • Economia
  • Esteri
  • Sport
    • Calcio
  • Spettacoli
  • Salute
  • Tecnologia
  • Cultura
  • Ambiente
  • Video
No Result
View All Result
  • Login
No Result
View All Result
Home Tecnologia

ChatGPT: migliaia di conversazioni tra utenti e IA sono finite nei motori di ricerca

Allarme privacy per migliaia di utenti su ChatGPT: diverse conversazioni private tra persone e IA sono finite sui motori di ricerca

by Federico Liberi
4 Agosto 2025
Migliaia di conversazioni private su ChatGPT finite sui motori di ricerca

Migliaia di conversazioni private su ChatGPT finite sui motori di ricerca | Shutterstock - alanews

San Francisco, 4 agosto 2025 – Un caso di forte impatto nel mondo della tecnologia e della privacy digitale ha coinvolto migliaia di conversazioni private tra utenti e il chatbot ChatGPT di OpenAI, finite indicizzate e quindi visibili su motori di ricerca come Google. L’origine del problema è stata una funzione di condivisione introdotta da OpenAI a maggio 2023, che consentiva agli utenti di generare link pubblici per condividere le proprie chat. Tale opzione, però, ha provocato la pubblicazione involontaria di oltre 4.500 conversazioni contenenti dati sensibili.

Indicizzazione e rischio per la privacy

Normalmente, le interazioni con ChatGPT sono private e utilizzate solo da OpenAI per l’addestramento dei modelli, con possibilità di revoca del consenso da parte dell’utente. Tuttavia, la funzione “Shared Links”, ideata per permettere agli utenti di condividere conversazioni tramite link pubblici, ha portato all’indicizzazione automatica di queste chat da parte di alcuni motori di ricerca. Ciò ha reso pubbliche conversazioni che in alcuni casi contenevano informazioni personali e riservate, potenzialmente riconducibili all’identità degli utenti.

Il portale FastCompany ha evidenziato come, nonostante i nomi dei mittenti fossero oscurati, i contenuti delle chat potevano comunque rivelare dati utili a identificare gli interlocutori, come dimostrato da TechCrunch, che ha risalito a un profilo LinkedIn di un utente partendo da una chat indicizzata. La questione ha sollevato un acceso dibattito sulla tutela della privacy e sulla trasparenza delle funzionalità di condivisione offerte da OpenAI.

Intervento di OpenAI e persistenza dei dati online

In risposta alle critiche, OpenAI ha prontamente disattivato la funzione di indicizzazione, definendo l’esperimento come “di breve durata” e affermando che dava troppe possibilità di condivisione accidentale, come spiegato da Dane Stuckey, CISO dell’azienda. OpenAI ha inoltre avviato collaborazioni con Google e altri motori di ricerca per rimuovere i link indicizzati.

Nonostante ciò, molti contenuti rimangono accessibili tramite archivi digitali come la Wayback Machine di Archive.org, che conserva versioni storiche di pagine web anche dopo la loro rimozione. Un’indagine ha rilevato che più di 110.000 conversazioni con ChatGPT sono ancora consultabili in questi archivi, sottolineando come i dati caricati online possano persistere indefinitamente.

Tra le chat pubblicate, alcune contenevano contenuti inquietanti, come quella di un avvocato italiano che chiedeva consigli per allontanare una comunità indigena amazzonica al fine di costruire una centrale idroelettrica, rivelando strategie per negoziare il prezzo più basso possibile sfruttando la mancata consapevolezza economica dei popoli indigeni. Altri scambi comprendevano richieste di aiuto per frodi accademiche, con studenti che utilizzavano ChatGPT per redigere tesi o articoli.

Gestione e responsabilità degli utenti

OpenAI ricorda agli utenti che possono gestire le proprie chat condivise accedendo alle impostazioni del profilo, eliminando contenuti indesiderati tramite la sezione “Controllo dei dati”. Qualora una conversazione sia già stata indicizzata, è possibile richiederne la rimozione direttamente a Google attraverso specifici strumenti.

In un contesto più ampio, il CEO Sam Altman ha recentemente sconsigliato l’uso di ChatGPT come sostituto di un supporto psicologico professionale, evidenziando la mancanza di riservatezza garantita dal segreto medico-paziente, una tutela che l’intelligenza artificiale non può ancora assicurare.

Il caso riporta all’attenzione la delicata questione della sicurezza e della privacy nell’era dell’intelligenza artificiale, invitando a una maggiore cautela nell’utilizzo e nella condivisione delle conversazioni generate con chatbot avanzati come ChatGPT.

Tags: ChatGPTIntelligenza artificiale

Related Posts

Antitrust contro Meta
Cronaca

Meta, indagine antitrust per integrazione dell’IA su WhatsApp

4 Dicembre 2025
Il logo di Perplexity sullo schermo di uno smartphone
Cronaca

Rti e Medusa fanno causa a Perplexity AI per presunta violazione del diritto d’autore

3 Dicembre 2025
ChatGPT
Tecnologia

OpenAI introduce la pubblicità su ChatGPT: risposte personalizzate dagli inserzionisti nel 2025

2 Dicembre 2025
ChatGPT
Tecnologia

IA, quali sono i modelli migliori che si possono usare nel 2025?

2 Dicembre 2025
Un primo piano di Mario Draghi
Economia

Draghi: “Europa a rischio stagnazione senza investimenti in IA e innovazione”

1 Dicembre 2025
IA
Tecnologia

L’intelligenza artificiale dà nuova vita alla nostalgia degli anni ’80 e ’90 sul web

29 Novembre 2025

Articoli recenti

  • Oroscopo di Maga Ala: emozioni intense, chiarimenti profondi e incontri sorprendenti per Cancro e Bilancia
  • SS Lazio, “Oltre alla faccia ci mettiamo anche il cuore”: la protesta dei gruppi laziali
  • Tifosi Lazio, protesta compatta contro Lotito e arbitri: “Oltre alla faccia, anche il cuore”
  • Ucraina, Crosetto: “La Lega dirà sì al decreto, bisogna far sedere la Russia al tavolo”
  • Serbia in crisi energetica: Vucic valuta l’adesione alla banca dei Brics

© 2025 Alanews – Smart Media Solutions - Testata giornalistica registrata al tribunale di Roma n° 243/2012 | Gestione editoriale e multimediale Editorially Srl - Via Assisi 21 - 00181 Roma - P.Iva: 16947451007 | Per la pubblicità: NewsCom S.r.l. – Divisione Testate on line - Sede legale: Via Assisi, 15 - 00181 Roma Capitale sociale: Euro 10.000,00 Codice Fiscale, Partita I.V.A. e Iscrizione al Registro delle Imprese di Roma n. 11903571005 | R.E.A. di Roma: 1335869 Visiona le nostre condizioni d'uso e la nostra politica sulla privacy & cookies.

Welcome Back!

Login to your account below

Forgotten Password?

Retrieve your password

Please enter your username or email address to reset your password.

Log In
×
No Result
View All Result
  • Cronaca
  • Politica
  • Economia
  • Esteri
  • Sport
    • Calcio
  • Spettacoli
  • Salute
  • Tecnologia
  • Cultura
  • Ambiente
  • Video
  • Chi siamo
  • Redazione

© 2025 Alanews – Smart Media Solutions - Testata giornalistica registrata al tribunale di Roma n° 243/2012 | Gestione editoriale e multimediale Editorially Srl - Via Assisi 21 - 00181 Roma - P.Iva: 16947451007 | Per la pubblicità: NewsCom S.r.l. – Divisione Testate on line - Sede legale: Via Assisi, 15 - 00181 Roma Capitale sociale: Euro 10.000,00 Codice Fiscale, Partita I.V.A. e Iscrizione al Registro delle Imprese di Roma n. 11903571005 | R.E.A. di Roma: 1335869 Visiona le nostre condizioni d'uso e la nostra politica sulla privacy & cookies.