Home » Le idee » Sorveglianza digitale – Vietato ai minori, consentito a tutti

Sorveglianza digitale – Vietato ai minori, consentito a tutti

Sorveglianza digitale – Vietato ai minori, consentito a tutti

C’è una regola. Esiste. È scritta. È chiara. Sotto i 14 anni, nei social, non si entra. Poi c’è la realtà. E la realtà, di questo, se ne infischia. Milioni di bambini sono già nei social. Non per errore. Non per furbizia. Perché è semplice. Troppo semplice. Basta cambiare una data. Una cifra. Un anno in più su una carta e si entra in un mondo che a loro dovrebbe essere precluso. C’è una distanza sempre più evidente tra le regole che esistono e il mondo reale che le ignora. In teoria, in Europa e in Italia, i minori di 14 anni non possono iscriversi ai social. In pratica, i giovanissimi abitano i social senza alcun limite. Per questo motivo il Moige-Movimento Italiano Genitori con lo studio legale Ambrosio & Commodo di Torino e un gruppo di famiglie, ha avviato una class action contro Meta e TikTok. Così il tema diventa visibile. Non si tratta solo di una violazione formale. Si tratta di un modello che tollera – quando non incentiva – l’ingresso precoce dei minori, esibendo fintamente controlli che esistono solo sulla carta.

La finzione delle regole

Il dato è semplice e, proprio per questo, difficile da ignorare: milioni di minori tra i 7 e i 14 anni utilizzano piattaforme che non potrebbero legalmente essere aperte alla loro fruizione. Loro non hanno trovato un modo intelligente e sofisticato per aggirare i controlli. Ci hanno già pensato i gestori delle piattaforme social. Basta inserire una data di nascita falsa. Nessuna verifica reale. Nessuna barriera effettiva. Nessun sistema che trasformi una norma giuridica in un limite concreto. La responsabilità viene scaricata sugli utenti, sui genitori, sulle famiglie. Ma l’infrastruttura resta aperta. E qui si produce il primo corto circuito: la legge vieta, la piattaforma consente. E tra questi due poli, il minore ci sguazza. Non va forzata nessuna serratura, perché non esiste.

Il vero nodo: l’attenzione

Il tema alla nostra attenzione non è solo quello degli ingressi, ma cosa succede dopo aver varcato la soglia. Le piattaforme non sono ambienti neutri. Sono progettate per trattenere, coccolare, adulare. Algoritmi, notifiche, scroll infinito, dinamiche di ricompensa intermittente: tutto è costruito per massimizzare il tempo di permanenza. Anche – e forse soprattutto – quando l’utente è più debole e disponibile. La class action chiede non solo sistemi reali di verifica dell’età, ma anche la revisione di questi meccanismi. È qui che la questione diventa più scomoda. Perché significa mettere in discussione il cuore del modello di business: l’economia dell’attenzione e la sua permanenza nel mercato, nel nostro mercato. E allora la domanda cambia: il problema è che i minori non dovrebbero esserci, o che il sistema è costruito in modo tale da funzionare meglio proprio con utenti che non hanno ancora strumenti per difendersi?

Responsabilità che manca

Le piattaforme rispondono rivendicando gli strumenti introdotti: account protetti, limiti, controlli parentali. Ma il punto non è l’esistenza di misure. È la loro efficacia reale. E soprattutto, è il contesto in cui vengono inserite. Non basta aggiungere livelli di protezione dentro un ambiente progettato per catturare attenzione. Non basta spostare la responsabilità sulle famiglie quando l’architettura resta invariata. Non basta dichiarare sicurezza quando l’accesso continua a essere, nei fatti, libero. La class action apre una crepa importante: sposta il discorso dalla responsabilità individuale a quella sistemica. Non chiede ai genitori di vigilare di più. Chiede alle piattaforme di cambiare. È un passaggio decisivo. È un appuntamento con una verità che, fino ad oggi, tutti hanno provato ad eludere. Il problema dei minori online non è un incidente dei giorni nostri. È invece una conseguenza prodotta e consentita. E finché resterà conveniente, continuerà a ripetersi.