L’accondiscendenza delle IA: i grandi modelli linguistici (Large Language Model, LLM) come ChatGPT sono progettati per soddisfare le richieste degli utenti anche quando queste risultano illogiche o errate, offrendo risposte che possono essere completamente sbagliate. È quanto emerge da uno studio pubblicato sulla rivista npj Digital Medicine, condotto dal Mass General Brigham di Boston, una rete di centri medici accademici e ospedali statunitensi.
I rischi dell’accondiscendenza delle IA
I ricercatori, guidati da Danielle Bitterman, hanno testato le capacità di ragionamento logico di cinque LLM: tre modelli GPT di OpenAI e due modelli Llama di Meta. Dopo aver verificato che tutti i modelli possedevano le conoscenze necessarie per valutare la sicurezza dei farmaci, sono state poste loro domande illogiche in contraddizione con questi dati. Nei casi analizzati, la maggioranza degli LLM ha comunque fornito risposte conformi alle richieste, anche quando si trattava di disinformazione.
“Queste IA sono state concepite per portare a termine il compito richiesto, anche a costo di produrre risposte errate”, spiega Bitterman. Lo studio sottolinea l’importanza di un miglior addestramento degli LLM e di una maggiore consapevolezza da parte degli utenti sulle potenziali falle di queste tecnologie.
Strategie per migliorare l’accuratezza
Gli autori hanno però mostrato che è possibile ridurre questi errori: invitando esplicitamente le IA a rifiutare domande illogiche e a richiamare i dati disponibili prima di rispondere, i modelli GPT e Llama hanno correttamente rifiutato le richieste errate nel 94% dei casi, motivando adeguatamente il rifiuto.
Bitterman conclude: “Dobbiamo impegnarci a formare sia i pazienti che i medici affinché utilizzino in modo sicuro gli LLM, portando alla luce i tipi di errori che questi modelli commettono”.
Il lavoro del Mass General Brigham, ospedale di eccellenza con un programma di ricerca tra i più grandi al mondo, conferma come la diffusione delle IA in ambito medico richieda una gestione attenta e informata per evitare rischi concreti legati alla disinformazione.






