Bruxelles, 29 aprile 2026 – La verifica dell’età degli utenti su piattaforme social come Instagram e Facebook rappresenta una sfida cruciale per l’intero settore tecnologico. Questo tema è al centro di un acceso confronto tra Meta, la società proprietaria dei due social network, e la Commissione Europea, che ha recentemente espresso forti riserve sulle misure adottate per proteggere i minori.
La posizione della Commissione Europea: sistemi di controllo insufficienti
La Commissione Europea ha annunciato in via preliminare di aver accertato che Instagram e Facebook hanno violato la normativa sui servizi digitali (Digital Services Act, DSA), per non aver adeguatamente identificato, valutato e mitigato i rischi legati all’accesso di minori di età inferiore ai 13 anni. Le condizioni generali di Meta indicano che i servizi non sono destinati a utenti sotto i 13 anni, ma i controlli per impedire l’accesso ai bambini risultano inefficaci, ha sottolineato la vicepresidente della Commissione Ue per la sovranità tecnologica Henna Virkkunen.
L’indagine ha evidenziato che i minori possono facilmente eludere i blocchi inserendo date di nascita false, senza che vi siano controlli efficaci per verificarne la correttezza. Inoltre, gli strumenti di segnalazione risultano difficili da usare e poco efficaci nel follow-up, permettendo così ai minori segnalati di continuare a utilizzare i servizi. La Commissione contesta anche la valutazione del rischio di Meta, ritenuta incompleta e arbitraria, ignorando dati secondo cui tra il 10 e il 12% dei minori di 13 anni nell’Unione Europea accede a Instagram o Facebook.
In base alle norme del DSA, se queste violazioni verranno confermate, Meta rischia sanzioni fino al 6% del fatturato annuo. L’indagine, avviata il 16 maggio 2024, prosegue anche su altri aspetti, compresi i rischi di dipendenza e gli effetti cosiddetti “rabbit hole” generati dal design delle piattaforme.
La risposta di Meta: investimenti e innovazioni per la protezione degli adolescenti
Meta non concorda con i risultati preliminari della Commissione Europea. Un portavoce dell’azienda ha ribadito che Instagram e Facebook sono destinati a utenti di almeno 13 anni e che sono state adottate misure per rilevare e rimuovere gli account di minori che non rispettano questo requisito. Meta ha annunciato di continuare a investire in tecnologie di intelligenza artificiale volte a migliorare la verifica dell’età e l’identificazione degli utenti under 13, con l’intenzione di presentare a breve nuovi strumenti in fase di implementazione.
Negli ultimi mesi, infatti, Meta ha lanciato una campagna europea per la verifica dell’età e il consenso dei genitori, introducendo un sistema avanzato di rilevamento basato su intelligenza artificiale. Questo sistema tiene conto di vari fattori, quali le interazioni dell’utente, i follower, i contenuti fruiti e persino i messaggi di auguri ricevuti, per stimare con maggiore precisione l’età reale degli iscritti.
Inoltre, Meta ha esteso la modalità di sicurezza avanzata per gli adolescenti in Canada, applicandola di default agli under 16, replicando così l’esperienza già attiva negli Stati Uniti. Questa modalità di protezione può essere disattivata soltanto con il consenso genitoriale, a tutela di una fascia di utenti particolarmente vulnerabile.
Una sfida globale e la necessità di standard condivisi
L’assenza di uno standard universale per la verifica dell’età rappresenta una criticità diffusa a livello globale. Paesi come l’Australia stanno sperimentando numerosi metodi di controllo, dai sistemi basati su intelligenza artificiale alla verifica tramite selfie, che tuttavia sollevano preoccupazioni sul fronte della privacy.
Le autorità regolatorie europee e internazionali stanno lavorando per definire criteri e metodologie efficaci e rispettose della privacy, ma il bilanciamento tra sicurezza e accuratezza resta complesso. In questo contesto, le innovazioni tecnologiche introdotte da Meta potrebbero contribuire a stabilire nuovi standard per il settore, a patto che siano accompagnate da un’effettiva responsabilizzazione e trasparenza.
La Commissione Europea continuerà a monitorare da vicino l’evoluzione delle pratiche di Meta e di altre piattaforme, sottolineando la necessità che i termini e le condizioni d’uso siano supportati da azioni concrete per la protezione degli utenti più giovani, in particolare dei minori di 13 anni.






