Roma, 16 dicembre 2025 – In un’epoca dominata dall’intelligenza artificiale, assistiamo a un fenomeno che potremmo definire “epistemia”, ovvero l’illusione di possedere conoscenza autentica semplicemente perché l’IA ci fornisce risposte ben articolate e convincenti. Questo nuovo termine, coniato recentemente da studiosi italiani, sottolinea una distinzione cruciale tra la vera conoscenza filosofica (episteme) e la mera apparenza di sapere generata dai modelli linguistici avanzati come ChatGPT di OpenAI, Gemini di Google e Llama di Meta.

Episteme ed epistemia: il dilemma della conoscenza nell’era digitale
Se nell’antica Grecia la episteme rappresentava la conoscenza vera e approfondita, oggi la società rischia di cadere nella trappola dell’epistemia, che si configura come un falso specchio deformante della realtà. I grandi modelli linguistici (LLM – Large Language Models) non sono progettati per verificare la veridicità delle informazioni, ma per generare risposte linguisticamente plausibili. Il risultato è che spesso accettiamo come certezza ciò che è solo una costruzione retorica ben confezionata, senza un adeguato controllo critico da parte dell’utente.
Questo fenomeno richiama il celebre confronto tra Socrate e i sofisti nell’Atene del V secolo a.C. Socrate, padre della filosofia occidentale, sosteneva l’importanza del dialogo e del metodo critico per arrivare a una conoscenza autentica, mentre i sofisti, tra cui spiccava Gorgia, ponevano l’accento sulla persuasione e sull’efficacia retorica più che sulla verità. Gorgia arrivava addirittura a sostenere che nulla esiste, o che se esistesse non sarebbe conoscibile, e se conoscibile non potrebbe essere comunicato. L’intelligenza artificiale, pur potendo comunicare qualunque informazione, non “conosce” realmente, ma produce discorsi convincenti senza garanzia di veridicità.
Lo studio italiano che indaga l’affidabilità dei modelli linguistici
Un contributo fondamentale alla comprensione dell’epistemia è arrivato da uno studio pubblicato su PNAS e guidato da Walter Quattrociocchi, professore all’Università La Sapienza di Roma e direttore del Center of Data Science and Complexity for Society. Il team ha esaminato come sei modelli linguistici di ultima generazione, inclusi ChatGPT, Gemini e Llama, valutano il concetto di affidabilità delle informazioni. La ricerca ha confrontato i giudizi di questi modelli con quelli di esperti umani e organizzazioni come NewsGuard e Mbfc, adottando criteri e procedure uniformi.
I risultati hanno evidenziato che il problema non risiede tanto nell’accuratezza delle risposte, quanto nel modo in cui tali risposte vengono costruite e percepite dagli utenti. Il fenomeno dell’epistemia emerge quando le persone si limitano ad accogliere passivamente le prime risposte dell’IA, illudendosi di possedere una conoscenza solida e verificata. Questo atteggiamento, seppur comprensibile, rischia di indebolire il pensiero critico e la capacità di discernimento individuale.
Come difendersi dall’illusione della conoscenza artificiale
Le conclusioni dello studio di Quattrociocchi indicano chiaramente che l’unica via d’uscita dall’epistemia è l’incremento della consapevolezza critica verso l’IA e il suo funzionamento. Usare la tecnologia richiede una maggiore alfabetizzazione digitale e cognitiva: bisogna conoscere i limiti e le potenzialità degli strumenti, saper interpretare i risultati prodotti e mantenere aggiornate le proprie competenze nei campi di interesse.
Non basta delegare alla macchina la ricerca e la valutazione delle informazioni; è necessario un impegno personale a sviluppare un pensiero critico che sappia riconoscere e smascherare la superficialità delle risposte automatiche. Solo così si potrà evitare che l’intelligenza artificiale diventi un alibi per la pigrizia mentale e una fonte di disinformazione.
Investire nella formazione culturale, promuovere lo spirito critico e affinare la capacità di verifica sono le uniche strategie efficaci per contrastare la diffusione di fake news, deepfake ed epistemia. La sfida, quindi, non è tanto tecnologica, quanto umana e sociale: la responsabilità di trarre vantaggio dall’IA senza cadere nell’inganno delle apparenze spetta a ciascuno di noi.
Socrate, figura centrale della filosofia occidentale, con il suo metodo dialettico basato sul confronto e sull’indagine critica, offre un modello prezioso per orientarsi nell’era digitale. Gorgia, invece, ci ricorda quanto il potere della parola possa essere usato per costruire realtà persuasivi, ma ingannevoli. Nel bilanciamento tra queste due visioni, la società contemporanea deve trovare la strada per preservare la vera conoscenza, evitando di farsi sedurre dall’illusione dell’epistemia.






