Roma, 6 settembre 2025 – Il fenomeno delle fake news diffuse tramite chatbot di intelligenza artificiale (IA) continua a destare preoccupazioni crescenti a livello globale. Un rapporto aggiornato di NewsGuard, piattaforma internazionale specializzata nel monitoraggio della disinformazione online, evidenzia un aumento strutturale del tasso di false informazioni generate da questi strumenti, che in un anno è passato dal 18% al 35%.
Chatbot AI: un tasso di errore in crescita
L’analisi condotta da NewsGuard prende in esame dieci tra i principali chatbot IA, valutandone la capacità di fornire risposte corrette su temi di attualità e di smentire notizie false. Tra i peggiori si segnalano Pi di Inflection (56,67%) e Perplexity (46,67%), mentre ChatGPT e Meta AI riportano un tasso di falsità intorno al 40%. Anche strumenti come Copilot di Microsoft e Le Chat di Mistral registrano percentuali elevate, attorno al 36,67%. Al contrario, i chatbot più affidabili risultano essere Claude di Anthropic (10%) e Gemini di Google (16,67%).
Un elemento chiave che ha inciso sul peggioramento delle prestazioni è l’adozione di un nuovo metodo di addestramento che consente ai modelli di attingere a ricerche web in tempo reale. Secondo McKenzie Sadeghi, analista di NewsGuard, questa innovazione espone i chatbot a contenuti diffusamente manipolati, provenienti anche da reti di disinformazione coordinate, come quelle pro-Cremlino. Questo ha portato i chatbot a diventare “spacciatori involontari” di fake news, replicando senza adeguate verifiche affermazioni false diffuse su internet.
I problemi di DeepSeek
In parallelo, un audit di NewsGuard sul chatbot cinese DeepSeek, lanciato a gennaio 2025, ha rilevato un tasso di errore complessivo dell’83%, posizionandolo al decimo posto su undici modelli testati. DeepSeek ha ripetuto affermazioni false nel 30% dei casi e spesso ha risposto con la posizione ufficiale del governo cinese anche quando non richiesta, mostrando una marcata inclinazione a veicolare narrativi ufficiali più che a fornire risposte accurate e aggiornate.
Questa tendenza è particolarmente evidente nel trattamento di notizie di attualità, come nel caso della situazione in Siria o dell’incidente del volo Azerbaijan Airlines, dove DeepSeek ha riportato puntualmente il punto di vista governativo cinese senza fornire un’effettiva verifica dei fatti. Inoltre, il chatbot non ha aggiornamenti oltre ottobre 2023, limitando fortemente la sua capacità di rispondere a eventi recenti.






