Lucca, 13 febbraio 2026 – L’intelligenza artificiale generativa ha raggiunto un livello di sofisticazione tale da poter simulare con grande accuratezza le risposte umane nei sondaggi online. Tuttavia, questo progresso tecnologico comporta rischi significativi per la validità dei dati raccolti in ambito sociologico e politico. A sollevare l’allarme sono i ricercatori Folco Panizza della Scuola IMT di Lucca, Yara Kyrychenko e Jon Roozenbeek, che in un recente studio pubblicato su Nature analizzano il fenomeno e propongono strategie di contrasto.
L’intelligenza artificiale e la minaccia ai dati dei sondaggi online
Secondo il commento intitolato Gli strumenti di intelligenza artificiale per la compilazione di sondaggi superano le capacità umane, oggi tra il 30 e il 90% delle risposte raccolte online potrebbe essere falso o fraudolento. Bastano appena 3-7% di risposte fraudolente per compromettere le conclusioni statistiche di un sondaggio. L’arrivo dei sistemi di risposta basati su IA, capaci di generare risposte fluide e contestualmente coerenti, ha reso inefficaci i tradizionali metodi di riconoscimento tra risposte umane e bot.
Folco Panizza sottolinea: “Quando analizziamo le risposte di un sondaggio, non possiamo più distinguere con certezza se chi risponde sia una persona o un sistema automatico. Ciò mette a rischio l’integrità di tutte le analisi basate su questi dati“.
Strategie innovative per individuare risposte generate dall’IA
Per contrastare questo fenomeno, gli autori propongono un approccio multidimensionale che include l’analisi dei modelli di risposta e dei metadati comportamentali, come la velocità di digitazione, i tasti premuti e il comportamento di copia-incolla. Paradossalmente, il metodo più efficace potrebbe essere “costringere le macchine a commettere errori”, poiché gli algoritmi di IA tendono a non replicare gli errori tipici degli esseri umani.
Yara Kyrychenko, PhD Candidate presso il Cambridge Social Decision-Making Lab, esperta nell’interazione tra psicologia e tecnologie computazionali, evidenzia che “la rilevazione di risposte troppo perfette può rivelarsi un segnale chiave per identificare agenti IA“. Kyrychenko, che coniuga competenze matematiche e psicologiche, ha svolto ricerche approfondite sui rischi sociali legati alla diffusione dell’intelligenza artificiale e sulle strategie di valutazione sociale dei dati generati da questi sistemi.
L’evoluzione e le sfide dell’intelligenza artificiale
L’intelligenza artificiale, definita anche come capacità di un sistema artificiale di mostrare abilità umane quali ragionamento, apprendimento e creatività, ha ormai conquistato un ruolo centrale in molteplici settori. L’ultima frontiera tecnologica, incarnata da modelli come GPT-5.2 di OpenAI, ha potenziato capacità di programmazione, ragionamento astratto e visione artificiale, rendendo l’IA sempre più sofisticata e integrata nella vita quotidiana e professionale.
Tuttavia, come sottolineato da Panizza, Kyrychenko e Roozenbeek, l’avanzamento dell’IA richiede un impegno costante nella definizione di nuove misure per garantire la trasparenza e la affidabilità dei dati, soprattutto in ambiti sensibili come la ricerca sociale e la politica. La loro proposta di un lavoro di adattamento continuo rappresenta un invito a istituzioni, piattaforme di sondaggi e finanziatori a investire in soluzioni innovative per preservare l’integrità informativa nell’era dell’intelligenza artificiale.





