TikTok e Snapchat hanno già deciso di patteggiare in casi analoghi, segno di un sistema giudiziario sempre più deciso a far pagare un prezzo politico e legale alle Big Tech.
Oltre il tribunale: l’allarme europeo
Parallelo a questo filone statunitense – ea quello ancora affiancato dei numerosi divieti in approvazione in mezzo mondo per l’accesso a queste piattaforme (sorpresa: esistono da anniper esempio nelle leggi di recepimento del GDPR europeo o nell’allora Coppa statunitense, semplicemente non sono mai stati fatti rispettare) – c’è il fronte regolatorio europeo. Pochi giorni fa la Commissione Europea sì conclusa un’indagine preliminare sul design di TikTok. Secondo Bruxelles, caratteristiche chiave dell’app – Venire lo scorrimento infinito, l’autoplay costante, le notifiche push e l’algoritmo di raccomandazione iper-personalizzato – imprigionano i più giovani senza offrire loro vie d’uscita e spingono gli utenti in comportamenti compulsivi, mettendo a rischio in particolare minori e adulti vulnerabili.
Le istituzioni dell’Unione affermano che tali meccanismi possono «mettere il cervello in modalità pilota automatico», creando un circolo di riaperture continue dell’app e tempo di utilizzo prolungato. Non si tratta solo di una questione teorica: i dati preliminari mostrano come molti utenti adolescenti – anche se non mancano per fortuna tendenze più recenti in chiave di allontanamento da quei mondi – trascorrano ore consecutive sulla piattaforma, soprattutto di notte. Rapporti, studi, sondaggi e indagini di ogni tipo si accumulano ormai da anni: i social fanno mediamente male.
Bruxelles ora chiede a TikTok di cambiare il design dell’applicazione: ridurre o eliminare le caratteristiche che danno più dipendenza, potenziare strumenti di controllo reale del tempo di utilizzo e rendere inefficaci le dinamiche che scelgono e propongono i contenuti. In caso di mancato adeguamento, rischiando multe fino al 6% del fatturato globale dell’azienda.
Una questione di costume (e di generazioni)
Che questa partita sia esplosa proprio oggi non è casuale. Il tema dei social come spietate macchine di gratificazione era già noto da anni: giornalisti, psicologi, pedagogisti e tecnologi avevano messo in guardia contro algoritmi progettati per sfruttare i meccanismi di ricompensa dopaminica del cervello umano. Hai mai pensato che il sistema di aggiornamento del feed, da trascinare verso il basso, ricorda da vicino quello delle slot machine? Francesca Haugenla informatore di Facebookgià nel 2021 aveva rivelato che i sistemi di raccomandazione delle piattaforme potevano amplificare comportamenti problematici, inclusi dipendenzaansia sociale e distorsioni emotive. E soprattutto aveva provato che Marco Zuckerberg e compagnia lo sapevano.
Chi si occupa di questi temi da tempo sa quindi che non è un fatto casuale: non si tratta di un rischio latente o di conseguenze episodiche ma di una dinamica strutturale inserito nella logica di crescita degli utenti e dati fin dalle prime versioni di questi servizi. Che d’altronde non erano stati progettati per i bambini. Anche in Italia non è un fenomeno nuovo: ormai quasi dieci anni fa io stesso ho pubblicato un libro, Nasci, crescita e posta, il cui con sottotitolo recitava esattamente I social network sono pieni di bambini: chi li protegge? – proprio perché già allora era evidente che i sistemi di verifica dell’età erano facilmente aggirabili, che le piattaforme non fossero progettati per proteggere i più giovani ma anzi per allevare internamente una nuova generazione di utenti e che i meccanismi psicologici di stimolo agissero su fasce decisionali cruciali per anni a venire.
