Roma, 23 luglio 2025 – Meta annuncia un ulteriore rafforzamento delle misure di sicurezza dedicate agli adolescenti su Instagram, in particolare per quanto riguarda i messaggi diretti e la gestione degli account che coinvolgono minori. Le novità mirano a garantire una maggiore protezione contro abusi e truffe, migliorando la trasparenza e il controllo degli utenti più giovani.
Nuove funzionalità per proteggere i teenager su Instagram
Tra le principali innovazioni, Meta introduce nuove opzioni per gli adolescenti che utilizzano i messaggi diretti (DM) su Instagram. I teenager potranno ora visualizzare informazioni aggiuntive sull’account con cui stanno chattando, come il mese e l’anno di creazione del profilo, direttamente nella parte superiore della chat. Questo strumento serve a fornire un contesto più chiaro e aiutare i giovani a riconoscere potenziali account sospetti o nuovi.
Inoltre, Meta ha implementato una nuova funzione che consente di bloccare e segnalare un account direttamente all’interno dei messaggi, permettendo agli utenti di compiere entrambe le azioni in modo immediato e contemporaneo. Questa misura si inserisce in un più ampio contesto di strumenti di sicurezza volti a prevenire molestie o richieste di contenuti inappropriati.
Meta ha anche annunciato una funzione, non ancora attiva in Europa, che avvisa gli utenti se stanno chattando con persone che si trovano in un paese diverso da quello dichiarato nel profilo. L’obiettivo è contrastare le truffe legate alla sextortion, fenomeno in cui sfruttatori mentono sulla loro ubicazione per ottenere immagini o informazioni personali.
Maggiore tutela per account gestiti da adulti che coinvolgono bambini
Un altro fronte di intervento riguarda gli account Instagram che hanno come protagonisti i bambini, ma sono gestiti da adulti, come genitori o talent manager. Meta ha chiarito che è consentito rappresentare minori sotto i 13 anni solo se nella biografia dell’account viene specificato che l’account è gestito da un adulto. In caso contrario, se si riscontra che il minore gestisce personalmente il profilo, l’account viene rimosso.
Per prevenire abusi, come commenti o messaggi a sfondo sessuale rivolti a questi account, Meta sta estendendo alcune protezioni tipiche degli account per teenager anche a queste pagine. Tra le misure adottate vi è l’inserimento automatico in impostazioni di messaggistica più restrittive, così da limitare i messaggi indesiderati, e l’attivazione del filtro per parole nascoste, che blocca commenti offensivi o inappropriati.
Gli account in questione riceveranno inoltre una notifica nella parte superiore del feed Instagram che li informerà dell’aggiornamento delle impostazioni di sicurezza e li inviterà a rivedere le proprie preferenze sulla privacy. Queste funzionalità saranno progressivamente introdotte nei prossimi mesi.
Risultati e interventi contro abusi e contenuti inappropriati
Secondo i dati comunicati da Meta, da quando è stata introdotta la funzione globale di protezione dalle immagini di nudo, il 99% degli utenti, inclusi gli adolescenti, ha mantenuto attiva questa opzione. A giugno 2025, oltre il 40% delle immagini sfocate ricevute nei messaggi diretti è rimasto sfocato. Questo ha contribuito a ridurre significativamente l’esposizione a contenuti indesiderati di natura sessuale.
Questa protezione, attiva di default per i teenager, incoraggia gli utenti a riflettere prima di inoltrare immagini che potrebbero contenere nudità. Nel solo mese di maggio, circa il 45% delle persone ha scelto di non inoltrare immagini dopo aver visualizzato l’avviso di sicurezza.
Dal punto di vista della lotta agli abusi, Meta ha rimosso dall’inizio del 2025 quasi 135.000 account Instagram per aver lasciato commenti a sfondo sessuale o richiesto immagini con contenuti sessuali ad account gestiti da adulti che mostrano bambini sotto i 13 anni. Sono stati inoltre cancellati altri 500.000 account Facebook e Instagram collegati a queste reti abusive.






