Maxi processo ai social nework

Newsletter e rubriche

Esteri Trump Israele Guerra in Ucraina Cina Cristiani perseguitati Terrorismo islamico

Cristiani perseguitati

Politica Governo Milano Giorgia Meloni Elly Schlein Giustizia

Economia Lavoro Auto elettriche Pnrr Inflazione

Ambiente Cambiamenti climatici Green Deal Transizione ecologica Transizione energetica

Cambiamenti climatici

Transizione ecologica

Transizione energetica

Scuola Educazione Parità scolastica

Salute e bioetica Fine vita Utero in affitto Aborto

Chiesa Cristianesimo Leone XIV Papa Francesco Benedetto XVI Luigi Giussani Comunione e Liberazione

Comunione e Liberazione

Società Intelligenza artificiale Pensiero woke

Intelligenza artificiale

Newsletter e rubriche La preghiera del mattino Lettere al direttore La borsa e la vita Squalo chi legge Casca il mondo Cinema Fortunato Il Deserto dei Tartari Memoria popolare Esserci Tentar (un giudizio) non nuoce Il Paese dei Normali Libri in povere parole

La preghiera del mattino

Il Deserto dei Tartari

Tentar (un giudizio) non nuoce

Libri in povere parole

Sfoglia Tempi Sfoglia Tempi digitale Febbraio 2026 Gennaio 2026 Dicembre 2025 Novembre 2025 Ottobre 2025 Settembre 2025 Agosto 2025

Sfoglia Tempi digitale

Home » Società » Maxi processo ai social nework

Maxi processo ai social nework

Mercoledì scorso, in un’aula stipata della Corte superiore della California, contea di Los Angeles, un avvocato ha preso un pennarello e ha tracciato un omino stilizzato, accigliato. Poi lo ha proiettato sullo schermo, davanti al banco dei testimoni. Era un bambino vulnerabile L’avvocato si è quindi rivolto al teste chiedendogli: un’azienda deve aiutare, ignorare o approfittarsi di quel bambino? «Penso che un’azienda ragionevole dovrebbe cercare di aiutare le persone che utilizzano i suoi servizi», ha risposto Mark Zuckerberg.

È la prima volta che l’amministratore delegato di Meta siede davanti a una giuria nel primo processo destinato a stabilire se le piattaforme del gruppo siano state progettate per creare dipendenza e se abbiano contribuito a danneggiare i minori. Non è, beninteso, la sua prima convocazione sul tema della sicurezza dei bambini. Più volte il Congresso lo ha chiamato a riferire. Tutti ricordano l’udienza del 2024, quando si alzò, voltò le spalle ai senatori e si rivolse ai genitori che tenevano in mano le fotografie dei figli vittime di abusi online, alcuni dei quali suicidi: «Mi dispiace per tutto quello che avete dovuto passare. Nessuno dovrebbe attraversare quello che voi avete attraversato. È per questo che abbiamo investito così tanto per assicurare che altri non debbano vivere quello che avete vissuto voi». E tutti ricordano la sua testimonianza sullo scandalo Cambridge Analytica, quando fu torchiato per due giorni su privacy e interferenze elettorali.

Il primo processo della storia sulla dipendenza dai social

Ma questa volta è diverso. Quello iniziato a Los Angeles è il primo di una serie di procedimenti intentati da migliaia di ragazzi, distretti scolastici e procuratori generali di ogni stato. L’accusa è frontale: le piattaforme social, in particolare Instagram con i suoi oltre 3,5 miliardi di utenti, avrebbero spinto i giovani a un uso compulsivo delle app, contribuendo a problemi di salute mentale sfociati in ansia, depressione, disturbi alimentari e autolesionismo.

I casi coinvolgono circa 1.600 querelanti, più di 350 famiglie e 250 distretti scolastici: in totale oltre 2.200 cause simili. È una delle minacce legali più significative per Meta, Snap, TikTok e YouTube. L’iter ricalca quello seguito negli anni Novanta contro Big Tobacco, quando le società del tabacco furono accusate di aver nascosto le conseguenze negative del fumo e la dipendenza che generava. Nel New Mexico, questo mese, è iniziato un altro processo per una causa intentata dal procuratore generale Raúl Torrez, che accusa Meta di aver consentito ai predatori di raggiungere i minori e di aver utilizzato chatbot dannosi.

Per Meta 16 ore al giorno sui social non sono «dipendenza», ma «uso problematico»

Il caso pilota che ha portato Zuckerberg in tribunale in particolare riguarda una ventenne californiana, Kaley G.M., che nel 2023 ha citato in giudizio YouTube, TikTok, Snapchat e Meta, sostenendo che le app siano state progettate per indurre un uso compulsivo. Kaley si è iscritta a YouTube a otto anni; a nove ha creato un account su Instagram; a dieci ha scoperto Musical.ly (oggi TikTok); a undici era già su Snapchat. Un’escalation precoce che, secondo l’accusa, l’ha condotta a soffrire di dismorfismo corporeo, ansia e depressione.

Se Snapchat e TikTok hanno scelto di patteggiare, Zuckerberg ha dovuto rispondere per ore alle domande sull’uso di Instagram, difendendo la filosofia delle sue piattaforme: «Se qualcosa è prezioso, le persone lo useranno di più perché è utile per loro». Per Meta, cartelle cliniche alla mano, i problemi di salute mentale della ragazza non sarebbero imputabili ai social, bensì alla sua difficile situazione familiare. Adam Mosseri, amministratore delegato di Instagram, già interrogato la scorsa settimana, ha sostenuto che se un ragazzo trascorre sedici ore al giorno sulla piattaforma non si può parlare di «dipendenza», ma di «uso problematico».

Zuckerberg ammette che il filtro under 13 non ha funzionato

Mark Lanier, avvocato di Kaley, ha incalzato più volte il ceo di Meta sui documenti interni che contraddirebbero la tesi dell’azienda “sicura”. «Se vogliamo avere successo con gli adolescenti, dobbiamo coinvolgerli fin da quando sono preadolescenti», si legge in una presentazione interna di Instagram del 2018. «Abbiamo limiti di età che non vengono applicati (o sono inapplicabili?)», scriveva in una mail Nick Clegg, vicepresidente degli affari globali di Meta, sottolineando quanto fosse «difficile affermare che stiamo facendo tutto il possibile» per tutelare i ragazzi.

Lanier ha mostrato ai giurati anche email in cui Zuckerberg illustrava gli obiettivi per aumentare progressivamente l’uso quotidiano di Instagram: dai 40 minuti del 2023 ai 46 minuti previsti per il 2026.

Zuckerberg ha replicato accusando l’avvocato di travisare e decontestualizzare le sue parole. Ha ricordato quanto sia difficile, per gli sviluppatori, verificare l’età degli utenti e ha sostenuto che la responsabilità dovrebbe ricadere sui produttori di dispositivi mobili. Ha inoltre affermato che gli adolescenti su Instagram rappresentano meno dell’1 per cento del fatturato e ha messo in dubbio la pertinenza di documenti risalenti a dieci anni fa. Tra questi, quello esibito da Lanier secondo cui nel 2015 — quando agli under 13 non era consentito creare account — circa un terzo dei bambini americani tra i 10 e i 12 anni, ossia quattro milioni di minori, utilizzava Instagram.

Ha tuttavia ammesso che i sistemi per impedire l’accesso ai minori di 13 anni non hanno funzionato come previsto e che l’azienda ha impiegato anni per rafforzarli: «Avrei voluto che ci fossimo riusciti prima».

Zuckerberg ignorò il responde degli esperti sui filtri di bellezza

Non ha invece risposto quando, al termine dell’interrogatorio, Lanier e altre sei persone hanno srotolato un collage lungo quindici metri con i selfie pubblicati da Kaley, molti dei quali ritoccati con filtri di bellezza, chiedendogli se Meta avesse mai indagato su quell’account per comportamenti scorretti. Eppure documenti interni del 2019 attestavano consulti con diversi esperti per valutare l’impatto di tali filtri, con un responso inequivocabile sulla loro pericolosità per gli adolescenti vulnerabili. Scrive il Financial Times che Zuckerberg ignorò quegli avvertimenti e decise di non eliminarli, sostenendo che farlo sarebbe stato «paternalistico».

Fuori dal tribunale si sono accalcati decine di genitori. Tra loro Joann, madre di un quindicenne morto nel 2019 dopo una sfida di “soffocamento” sui social media. Tempi ha raccontato più volte storie di ragazzi travolti dalla «dipendenza» e «l’avvelenamento delle menti» causato dall’algoritmo – come l’hanno definito senza mezzi termini i querelanti delle scuole pubbliche di Seattle che all’inizio del 2023 hanno sfidato le Big Tech con accuse precise: «Gli imputati hanno sfruttato con successo i cervelli vulnerabili dei giovani, agganciando decine di milioni di studenti in tutto il Paese attraverso un circuito vizioso di risposte positive sui social media che porta all’uso eccessivo e all’abuso delle piattaforme. Peggio ancora, il contenuto che gli imputati propongono e indirizzano ai giovani è troppo spesso dannoso e teso allo sfruttamento per interessi economici».

La rivolta delle scuole: «Le Big Tech sapevano»

Non era mai accaduto che le istituzioni educative di un’intera città (cento scuole, frequentate da cinquantamila studenti) si coalizzassero contro i giganti dei social media. Ricordate lo scandalo che investì il social network dopo le inchieste del Wall Street Journal e le rivelazioni andate in onda su 60 Minutes della CBS? A parlare fu l’ex dipendente di Mark Zuckerberg, Frances Haugen, che consegnò all’opinione pubblica i cosiddetti “Facebook Files”: documenti interni nei quali erano dettagliati gli studi condotti dall’azienda sui gravi danni psicologici che Instagram provocava alle ragazze più giovani.

Da quei materiali emergeva con chiarezza che la piattaforma, fondata sulla condivisione di immagini, alimentava nei giovanissimi un senso di inadeguatezza fisica, spingendoli in una spirale di confronto permanente con gli altri utenti. In altre parole, la big tech sapeva perfettamente quali effetti producesse il proprio prodotto. E tuttavia si limitò a introdurre qualche controllo parentale, trincerandosi dietro il Communications Decency Act, la norma che negli Stati Uniti solleva le aziende online dalla responsabilità per i contenuti pubblicati da terzi sulle loro piattaforme. Una legge che le scuole di Seattle avevano deciso di prendere per le corna ritenendo gli imputati responsabili della loro stessa condotta: «Raccomandano e promuovono affermativamente contenuti dannosi per i giovani, come contenuti pro-anoressia e disturbi alimentari». Da qui l’aumento esponenziale in età scolastica di ansia, depressione, problemi psicologici acuiti dalla dipendenza da social, problemi con il cibo, cyberbullismo: in dieci anni, tra 2009 e 2019 era aumentato del 30 per cento il numero di ragazzi che si dichiara «tristissimo», «senza speranza» per lunghi periodi.

Alexis, anoressica per colpa di Meta

Ragazzi come Alexis. Tra le famiglie che hanno citato in giudizio Meta ci sono i suoi genitori Kathleen e Jeff Spence. Sostengono che Instagram abbia contribuito a far precipitare la figlia, allora dodicenne, in una depressione con gravi disturbi alimentari. Le avevano dato uno smartphone a 11 anni per tenerla sotto controllo al rientro da scuola, imponendo regole rigide e controlli parentali. Non bastò: in poco tempo la ragazza imparò ad aggirare i filtri, iscriversi a Instagram dichiarando semplicemente di avere più di tredici anni – senza alcuna verifica – e a usare app che nascondevano l’icona del social.

Tutto rimase invisibile per mesi. Poi l’algoritmo, partito da innocue ricerche sul fitness, iniziò a suggerirle contenuti su diete estreme e profili ossessionati dal peso: immagini di corpi scheletrici, conteggi ossessivi di calorie, consigli su pillole dimagranti e su come perdere peso in pubertà. «Avevo bisogno di aiuto. E invece ricevevo consigli su come continuare», ha raccontato. Incapace di raggiungere quei modelli irrealistici, Alexis sviluppò una dipendenza da quelle immagini e una profonda depressione, fino a pubblicare messaggi suicidari che portarono un compagno ad avvertire la scuola.

La morte di Englyn, impiccata nella sua stanza

Dopo lo scandalo dei “Facebook Files”, l’avvocato della famiglia, Matt Bergman, ha fondato il Social Media Victims Law Center. Nell’agosto 2020 i genitori della quattordicenne Englyn trovarono la figlia impiccata nella sua stanza. Non sapevano che fosse depressa. Sul cellulare della ragazza compariva un video ricevuto da un amico: su Instagram una donna inscenava un’impiccagione, con modalità simili a quelle poi scelte da Englyn. A un anno e mezzo di distanza, quel filmato circolava ancora sulla piattaforma, accumulando migliaia di visualizzazioni; nonostante le segnalazioni, venne rimosso soltanto nel dicembre 2021.

Meta continua a dichiarare di aver rafforzato la «tecnologia di verifica dell’età» e di non consentire la diffusione di contenuti che promuovono autolesionismo o disturbi alimentari. Il resto, ribadisce l’azienda, spetterebbe alla vigilanza dei genitori.

Eppure, poche settimane prima che il servizio andasse in onda su 60 Minutes, la giornalista fece un test: si iscrisse a Instagram fingendosi tredicenne, mentì sull’età, cercò contenuti dannosi. Dopo un messaggio automatico che le chiedeva se avesse bisogno di aiuto – subito chiuso – bastò cliccare su “vedi post” per essere catapultata in una sequenza di immagini e messaggi che promuovevano eutanasia e autolesionismo.

La lezione dell’inverno (demografico)

La fortezza di una madre nella disgrazia di Crans-Montana

«Conservo il fuoco del ricordo per non dimenticare le foibe»

Via alle Giornate di raccolta del farmaco: «Chiediamo a chiunque può di partec

Non ci sono ancora commenti.

I commenti sono aperti solo per gli utenti registrati. Abbonati subito per commentare!

Iscriviti alla newsletter

Dichiarazione di accessibilità

Sfoglia Tempi digitale

Abbonati con carta di credito

Abbonati con bonifico/bollettino

Regala un abbonamento full

Regala un abbonamento digitale


© Tempi