L’aumento delle capacità delle AI ha portato a un incremento delle allucinazioni, sollevando preoccupazioni
Negli ultimi anni, il dibattito sull’affidabilità delle intelligenze artificiali (AI) ha ripreso vigore, specialmente in seguito a un’indagine del New York Times che mette in luce un paradosso preoccupante: più i modelli di AI diventano sofisticati e capaci di elaborare enormi quantità di dati, maggiore sembra essere la loro propensione a generare “allucinazioni”, ovvero affermazioni errate o fuorvianti. Questa problematica non è nuova, ma le recenti scoperte hanno riacceso l’attenzione su un tema cruciale per il futuro dell’AI.
I modelli all’avanguardia e il tasso di allucinazioni
I modelli all’avanguardia sviluppati da colossi come OpenAI, Google e DeepMind vantano capacità matematiche superiori e un’abilità di analisi senza precedenti. Tuttavia, questi avanzamenti hanno portato a un incremento degli errori nei risultati prodotti. Ad esempio, OpenAI ha recentemente riportato che il suo sistema o3 ha generato allucinazioni nel 33% dei casi durante il test “PersonQA”, in cui venivano poste domande su personaggi pubblici. Questo dato è particolarmente allarmante se si considera che il tasso di allucinazione del modello precedente, o1, era significativamente più basso.
La situazione attuale dei modelli di AI
Inoltre, il modello o4-mini sembra addirittura peggiorare la situazione, con un impressionante tasso di allucinazione che arriva fino al 48%. Tali percentuali pongono seri interrogativi sulla praticabilità e l’affidabilità di questi sistemi, suggerendo che in certe applicazioni potrebbero risultare non solo inutilizzabili, ma addirittura dannosi.
La comunità scientifica e le possibili soluzioni
La comunità scientifica non ha ancora trovato una spiegazione definitiva a questo fenomeno. Alcuni esperti, come Emily Bender e Yann LeCun, sostengono da tempo che le allucinazioni siano inevitabili, intrinsecamente legate alla struttura degli attuali grandi modelli di linguaggio (LLM). Anche Sam Altman, CEO di OpenAI, aveva descritto in passato le allucinazioni come “caratteristiche” piuttosto che inconvenienti da eliminare.
In risposta a questa problematica, un team di ricercatori dell’Università di Oxford ha sviluppato un nuovo approccio mirato a prevenire le allucinazioni nelle AI. Questo studio rappresenta un passo significativo nella ricerca di soluzioni per migliorare l’affidabilità dei modelli, sottolineando l’importanza di un continuo dialogo e ricerca nel campo dell’intelligenza artificiale.






