Milano, 12 febbraio 2026 – Adam Mosseri, responsabile di Instagram, ha testimoniato in un processo chiave a Los Angeles, negando che i social media possano causare una vera e propria dipendenza clinica. Questa dichiarazione arriva nel contesto di un controverso processo civile che coinvolge Meta, la società madre di Instagram e Facebook, e YouTube, accusate di aver progettato le loro piattaforme per creare dipendenza nei bambini.
Mosseri: «Distinguere tra dipendenza clinica e uso problematico»
Durante l’udienza, Mosseri ha sottolineato che è fondamentale fare una chiara distinzione tra dipendenza clinica e uso problematico dei social media. Il dirigente ha difeso le piattaforme, affermando che non condividono la responsabilità per i danni psicologici lamentati da alcuni utenti. Il processo ruota attorno alla testimonianza di una giovane donna, Kaley G.M., 20 anni, che sostiene di aver subito gravi danni mentali dopo un uso intensivo e precoce di Instagram, YouTube, Snapchat e TikTok.
Secondo l’avvocato della difesa, Paul Schmidt, i problemi di salute mentale della ragazza deriverebbero da difficoltà personali e familiari pregresse, inclusi abusi e bullismo, più che dall’uso dei social. Mosseri è il primo alto esponente della Silicon Valley chiamato a rispondere direttamente in aula alle accuse di aver progettato piattaforme con lo scopo di creare dipendenza nei più giovani.
Instagram e il futuro dell’autenticità nell’era dell’intelligenza artificiale
Parallelamente, Mosseri ha recentemente dichiarato che “Instagram come lo conosciamo è morto”, spiegando che la piattaforma deve evolversi per affrontare la sfida rappresentata dai contenuti generati dall’intelligenza artificiale (AI). In un post pubblicato a inizio 2026, il manager ha evidenziato come l’autenticità si stia trasformando in una risorsa preziosa, poiché i contenuti perfetti e levigati prodotti dall’AI sono sempre più diffusi.
Mosseri ha proposto un cambiamento di paradigma: il focus non sarà più solo sui contenuti, ma su chi li produce, attraverso la creazione di una “catena di autenticità” che aiuti gli utenti a distinguere tra contenuti reali e sintetici. Questo nuovo approccio risponde sia alle sfide legate alla disinformazione sia al bisogno crescente di trasparenza e sicurezza, soprattutto per gli utenti più giovani.
Nel frattempo, Meta ha implementato alcune funzionalità per la tutela degli adolescenti su Instagram, ma le critiche di numerosi esperti e associazioni evidenziano come questi interventi siano ancora insufficienti. Il processo in corso a Los Angeles rappresenta un banco di prova importante per il futuro della regolamentazione dei social media e il loro impatto sulla salute mentale dei più giovani.





