OpenAI ha diffuso i risultati di una nuova ricerca volta a chiarire una delle principali criticità dei modelli di intelligenza artificiale generativa: le cosiddette “allucinazioni”. Nonostante i progressi continui nella potenza e nella capacità di questi sistemi, rimane ancora frequente il rischio che forniscano risposte sbagliate o del tutto inventate. L’azienda californiana ha anche suggerito una possibile strada per limitare il fenomeno.
Cosa sono le allucinazioni nei modelli IA
Gli esperti definiscono le allucinazioni come affermazioni false ma plausibili che i chatbot IA presentano come se fossero vere, anche in risposta a domande apparentemente banali. Un esempio citato nello studio riguarda il titolo della tesi di dottorato di Adam Tauman Kalai, uno degli autori della ricerca: un chatbot ha fornito tre titoli diversi, tutti sbagliati. Lo stesso è accaduto quando è stata chiesta la data del compleanno del ricercatore.
Gli incentivi sbagliati
Alla base del problema, spiegano i ricercatori, ci sono gli incentivi che guidano il comportamento dei modelli. I sistemi di valutazione attuali incoraggiano i chatbot a tentare comunque una risposta, piuttosto che ammettere di non sapere. La mancanza di “umiltà” diventa quindi una delle cause principali delle allucinazioni.
Differenze tra i modelli di IA
Il fenomeno non risparmia neppure gli stessi modelli di OpenAI. Lo studio mette a confronto due versioni: il precedente o4-mini e il più recente gpt-5-thinking-mini. Il primo fornisce un numero maggiore di risposte corrette, ma commette tre volte più errori. Il secondo, invece, pur essendo meno accurato in alcune circostanze, si mostra più prudente e incline a dichiarare di non avere la risposta.
Le origini nel pre-addestramento
Un’altra spiegazione riguarda il processo di pre-addestramento. I modelli vengono istruiti su enormi quantità di testi senza che venga associata un’etichetta che indichi se un’informazione sia vera o falsa. Questa modalità porta le IA a riprodurre forme linguistiche corrette – come evitare errori di ortografia o di punteggiatura – ma senza sviluppare un reale meccanismo di distinzione tra dati veri e inventati. Di conseguenza, quando non hanno certezze, tendono a “indovinare”.
Una possibile soluzione
OpenAI suggerisce che per ridurre le allucinazioni occorra intervenire sia sul pre-addestramento sia sui criteri di valutazione. In particolare, introdurre punteggi negativi per le risposte errate, e non solo premi per quelle corrette, spingerebbe i modelli a essere più cauti. Pur non potendo garantire un’accuratezza assoluta, si potrebbe così limitare fortemente il problema. La chiave, concludono i ricercatori, è insegnare ai sistemi di intelligenza artificiale a riconoscere i propri limiti e a rispondere con un semplice “non lo so” quando necessario.
Potrebbe interessarti anche questa notizia: Intelligenza artificiale e previsioni meteo stagionali: rivoluzione significativa ma resta il nodo eventi estremi





