Roma, 28 novembre 2025 – Negli ultimi mesi è emerso un caso che ha suscitato un acceso dibattito sull’uso delle tecnologie di riconoscimento facciale da parte delle forze dell’ordine italiane. Secondo Fanpage, i Carabinieri avrebbero impiegato un software di riconoscimento addestrato con dati provenienti da civili palestinesi a Gaza, suscitando preoccupazioni riguardo a questioni etiche, legali e di privacy. Al centro della vicenda si trova la tecnologia sviluppata da Corsight AI, azienda specializzata in soluzioni di intelligenza artificiale per il riconoscimento facciale.
L’impiego del software Corsight dai Carabinieri e le implicazioni etiche
Il software in questione è stato progettato utilizzando dataset contenenti immagini di civili palestinesi residenti nella Striscia di Gaza, una regione da anni teatro di conflitti e tensioni geopolitiche. Il fatto che un sistema di sorveglianza e identificazione facciale adottato dalle forze dell’ordine italiane sia stato addestrato su popolazioni vulnerabili ha sollevato interrogativi sulle modalità di raccolta e utilizzo dei dati biometrici.

L’utilizzo di un software addestrato su dati sensibili, raccolti in contesti di conflitto, rischia di compromettere i principi fondamentali di tutela dei diritti umani e della privacy, specialmente quando impiegato in contesti civili in Italia. Diverse associazioni per la difesa dei diritti digitali hanno denunciato la mancanza di trasparenza nell’adozione di tali tecnologie da parte delle istituzioni italiane, chiedendo chiarimenti sulle garanzie offerte ai cittadini.
Corsight AI: la tecnologia dietro il software controverso
Fondata nel 2019, Corsight AI si è rapidamente affermata nel settore del riconoscimento facciale grazie a un approccio basato su algoritmi di deep learning e intelligenza artificiale avanzata. L’azienda ha sviluppato sistemi capaci di identificare volti anche in condizioni di scarsa illuminazione o angolazioni non ottimali, caratteristiche che ne hanno favorito l’adozione da parte di varie agenzie di sicurezza nel mondo.
Tuttavia, la scelta di addestrare i propri modelli su database contenenti immagini di civili palestinesi, spesso raccolti in situazioni di instabilità e tensione, ha creato un precedente controverso. Gli esperti di etica tecnologica sottolineano come l’uso di dati biometrici provenienti da popolazioni a rischio, senza un adeguato consenso informato, possa rappresentare una violazione dei diritti fondamentali e alimentare discriminazioni.
In questo contesto, la collaborazione con le forze dell’ordine italiane, in particolare l’Arma dei Carabinieri, ha acceso un dibattito sulla regolamentazione dell’intelligenza artificiale applicata alla sicurezza pubblica, evidenziando la necessità di un quadro normativo più stringente e trasparente.
La posizione delle istituzioni italiane e le richieste di trasparenza
Di fronte alle critiche, il Ministero dell’Interno e lo stesso comando dei Carabinieri hanno fornito dichiarazioni ufficiali per chiarire l’uso del software Corsight. Secondo quanto riportato, il sistema viene impiegato esclusivamente in ambito investigativo e di prevenzione, con rigide procedure per la gestione dei dati e nel rispetto delle normative europee sulla protezione dei dati personali (GDPR).
Le autorità hanno ribadito che nessun dato sensibile è stato utilizzato impropriamente e che l’addestramento del software su immagini di popolazioni estere non influisce sulle modalità di utilizzo in Italia. Tuttavia, rimane aperto il dibattito sull’opportunità di impiegare tecnologie sviluppate in contesti geopolitici complessi senza una chiara regolamentazione internazionale.
Il Parlamento europeo ha recentemente intensificato le discussioni sul tema, proponendo nuove direttive per limitare l’uso indiscriminato di sistemi di riconoscimento facciale, soprattutto in ambiti civili, e per garantire una maggiore trasparenza nella raccolta e nel trattamento dei dati biometrici.
Il caso Corsight evidenzia come l’intersezione tra tecnologia, sicurezza e diritti civili sia diventata un terreno delicato e complesso, dove l’innovazione deve essere bilanciata con la tutela dei principi democratici e delle libertà individuali.






