minorenni-social-smartphone

Perché il divieto di accesso ai social dei minori di 14 anni non viene rispettato?

Tutela dei minori e benessere digitale: le leggi da conoscere, i rischi che corriamo, il ruolo di istituzioni, piattaforme, ricerca e cittadini: intervista agli esperti e alle esperte dell’Officina informatica su Diritto, Etica e Tecnologia del CRID, Università di Modena e Reggio Emilia

di Redazione Benessere Digitale

Perché i social sono vietati ai minori? Quali sono le norme da conoscere? Esiste una nuova normativa che tutela la presenza dei teenager in rete, ma perché nessuno rispetta il divieto di accesso ai social dei minori di 14 anni? Cosa possono fare istituzioni, ricerca, e cittadini per promuovere e mettere in pratica un utilizzo corretto dei mezzi digitali? E cosa possiamo chiedere alle piattaforme per tutelare i minori?

Quello della media education è un tema di grande attualità, che investe la sfera pubblica e privata delle nostre vite. Un argomento complesso e in continua evoluzione, con conseguenze dirette sul comportamento, il benessere digitale e anche la definizione di una nuova etica.

Ne parliamo con alcuni componenti dell’Officina Informatica DET (Diritto Etica Tecnologie) istituita presso il CRID – Centro di Ricerca Interdipartimentale su Discriminazioni e vulnerabilità dell’Università di Modena e Reggio Emilia: il Professor Thomas Casadei, il Dott. Casimiro Coniglione, la Dott.ssa Benedetta Rossi, la Dott.ssa Claudia Severi.

Si parla sempre più spesso dei limiti di età per l’accesso ai social. Potete chiarirci qual è la situazione normativa in Italia sull’accesso dei minori alle piattaforme digitali?

Il GDPR 2016/679 (General Data Protection Regulation) all’art. 8, comma 1, stabilisce che il minore può validamente prestare il consenso al trattamento dei dati personali solo al compimento dei sedici anni, mentre nel caso di un minore infra-sedicenne il consenso per il trattamento è prestato o autorizzato da chi abbia la titolarità genitoriale.
Questo limite d’età, seguendo il secondo capoverso dell’art. 8, può essere abbassato dagli Stati membri, purché non sia inferiore ai tredici anni. Sfruttando questa possibilità, in Italia, il D. Lgs 101/2018 (Disposizioni per l’adeguamento della normativa nazionale alle disposizioni del Regolamento [UE] 2016/679) all’art. 2-quinquies (Consenso del minore in relazione ai servizi della Società dell’informazione) dispone che il minore che ha compiuto i quattordici anni può prestare il consenso al trattamento dei dati; tale consenso deve, invece, essere prestato da chi esercita la responsabilità genitoriale nel caso di infra-quattordicenne. Ciò significa quindi che ai minori di 14 anni è vietato l’accesso a piattaforme dove occorre dare un consenso al trattamento dei propri dati, e i social media sono tra queste. Fino a 14 anni il loro utilizzo può avvenire soltanto con il consenso dei propri genitori, anche se le piattaforme non offrono un modo chiaro per fare questo.

Perché è importante la nuova normativa sulla protezione dei minori online?

Dal 21 novembre 2023 tale sistema, basato in sostanza sulla fiducia e sulla mancanza di controlli – è stato mitigato con la delibera 9/23/CONS dell’AGCOM (Autorità per le Garanzie nelle Comunicazioni) – Linee Guida per l’attuazione dell’art. 7-bis del Decreto Legge 30 aprile 2020, n. 28 (convertito in legge a giugno dello stesso anno) – che dettaglia il sistema cosiddetto di Parental Control System (PCS) introdotto dal Decreto.
Questa misura è importante perché il PCS può essere sia un software sia un servizio gratuito in grado di filtrare contenuti inappropriati per i bambini e le bambine e di bloccare contenuti riservati ad un pubblico di età superiore agli anni diciotto:: saranno dunque attivi accorgimenti tecnico-informatici per garantire l’effettivo controllo parentale della navigazione in rete. Rispetto al punto precedente, quindi, l’accesso ai social dovrebbe essere automaticamente inibito all’interno di questi filtri.

protezione-minori-a-cosa-stare-attenti

Perché si fa fatica a far rispettare queste norme sulle età di accesso?

Perché il limite d’età imposto sia dal GDPR sia dal D. Lgs 101/2018 al trattamento dei dati è facilmente aggirabile: i minori infra-quattordicenni – molto semplicemente – possono limitarsi a mentire sull’anno di nascita durante il procedimento d’iscrizione alle piattaforme dal momento che non esistono, in concreto, dei sistemi di controllo dell’identità per verificare (e validare) l’attendibilità delle dichiarazioni sull’anno di nascita.
In sostanza, l’intero impianto poggia su uno schema “fiduciario” che interessa la procedura di iscrizione del minore ai social o ai siti con contenuti inappropriati e/o violenti. Opportunamente, la delibera 9/2023 evidenzia che la verifica dell’età “potrebbe essere agevolata prevedendo almeno tre possibilità di autenticazione in grado di contribuire ad una sempre maggiore tutela dei minori in tale ambito, tra cui anche l’uso dello SPID fatta salva la necessaria preliminare valutazione di impatto sulla protezione dei dati”.

Cosa possono fare i cittadini perché queste limitazioni siano rispettate?

I cittadini e le cittadine possono senz’altro attivarsi “dal basso”, costruendo una rete che implementi buone pratiche e chiedendo alle istituzioni di farsi carico dei nuovi problemi che insorgono con l’avanzamento della digitalizzazione e con la sempre più frequente attività di bambini e bambine negli ambienti digitali (si veda sul punto, a titolo esemplificativo, A. Rossetti, La vita dei bambini negli ambienti digitali, Torino, Gruppo Abele, 2023).

Quale può essere in tal senso il ruolo dei “Patti Digitali”?

In questo specifico senso, i Patti Digitali costituiscono sicuramente l’esemplificazione di queste pratiche, poiché, se intesi come un processo basato su accordi, fiducia, promesse e assunzioni di obblighi reciproci, rappresentano un insieme di regole comuni a genitori, figli e mondo della scuola.
Del resto, “patto” è un’espressione che nella storia – politica, giuridica e sociale – ha assunto un significato rilevantissimo che si è tradotto anche in una buona pratica secondo il senso comune. Nel mondo della rete affidarsi a buone pratiche può fare davvero la differenza, come evidenziato già qualche anno fa anche da Save the children (https://www.savethechildren.it/blog-notizie/patti-di-comunita-in-risposta-a-sfide-tecnologie).

Su quali principi si deve basare un patto educativo sulla tutela del benessere in ambito digitale?

In modo particolare, i patti educativi digitali (www.pattidigitali.it) si caratterizzano, come è emerso grazie all’importantissimo lavoro del Centro ”Benessere digitale” dell’Università di Milano Bicocca, per quattro aspetti fondamentali: una dimensione di corresponsabilità delle famiglie e di altri soggetti, coinvolti nell’educazione digitale del minore; la dotazione di regole chiare, vincolanti e comuni a tutti (si decide insieme quando e come mettere a disposizione di bambini e bambine lo smartphone o device); la condivisione di esperienze educative; e da ultimo, un insieme di regole che si stabiliscono, ma che al contempo possono conoscere forme di modifica, in ragione delle diverse esigenze delle parti contraenti.
Certamente, i Patti Educativi Digitali possono costituire, in questa chiave, uno strumento efficace di prevenzione e contrasto a fenomeni negativi sempre più dilaganti nella rete, quali cyberbullismo, pornografia non consensuale (ciò che comunemente viene, con espressione fuorviante, denominato come “revenge porn”), reclusione sociale mediante gli ambienti digitali (il fenomeno dei cosiddetti “hikikomori”). Infine, accordi come questi offrono un rinforzo culturale al rispetto della normativa di cui si parlava.

Come contribuisce il vostro lavoro sul tema?

Come CRID – Centro di Ricerca Interdipartimentale su Discriminazioni e vulnerabilità, e in particolare grazie all’Officina Informatica costituita presso il Centro, lavoriamo molto su questi aspetti mediante un costante dialogo con il mondo della scuola e riteniamo che i Patti Educativi Digitali possano costituire un validissimo approccio nell’opera di prevenzione di questi fenomeni.
Come è emerso dalla XIV edizione dell’Atlante dell’infanzia a rischio in Italia, dal titolo “Tempi digitali”, pubblicato in prossimità dello scorso 20 novembre, Giornata mondiale dell’Infanzia e dell’Adolescenza, la scuola svolge un ruolo fondamentale nell’insegnare a utilizzare i linguaggi e gli strumenti in modo adeguato e sicuro, e questo implica anche investire a partire dalla formazione degli insegnanti.

Cosa possono fare le istituzioni per sostenere i cittadini?

Le istituzioni, in tal senso, possono e devono avere un ruolo fondamentale, fornendo sostegno al percorso che può portare alla sottoscrizione dei Patti Educativi Digitali e mettendo in campo azioni finalizzate non solo alla tutela dei diritti delle persone di minore età ma anche di promozione di un’educazione al digitale che coinvolga la società tutta, a partire dalle giovani generazioni.
Il sostegno all’educazione e al corretto uso dei social può essere uno strumento decisivo per prevenire fenomeni d’odio e di violenza dentro e fuori dalla rete ma anche il veicolo di promozione di una cittadinanza digitale attiva e responsabile.
La previsione del Parental Control pare muoversi in questa direzione: si mira infatti ad assicurare una tutela e a incrementare il benessere degli utenti minorenni. Tuttavia le istituzioni devono complementare le norme promuovendo una cultura della piena consapevolezza nell’uso dei dispositivi e delle tecnologie.

Cosa dobbiamo chiedere invece alle piattaforme?

Le piattaforme, oltre a fornire policy chiare e comprensibili da utenti minorenni volte a impegnarsi a trattare nei termini e nelle misure previste dal legislatore i dati di bambini e bambine, potrebbero prevedere l’accesso a social e/o siti con contenuti poco adatti alle persone di minore età solamente, appunto, a seguito di un’efficace verifica dell’età anagrafica, da attuarsi tramite il controllo dell’identità o con altri strumenti a disposizione dei genitori o di adulti legalmente responsabili (si pensi, per esempio, a un token con il lancio di una One Time Password – OTP).

impatto-intelligenza-artificiale

Oltre agli aspetti tecnici e giuridici, quali dimensioni culturali vedete coinvolte in questo problema?

Certamente l’avvento dei social media apre numerose sfide di matrice sociale e culturale, con riferimento sia alla sfera privata sia a quella pubblica.
Troppo spesso i genitori o gli adulti legalmente responsabili delle persone di minore età non sono a reale conoscenza dell’effettivo funzionamento della tecnologia e delle rischiose ricadute che gravano sulle esistenze dei loro figli e figlie.
Basti pensare che spesso le persone adulte non hanno maggiore consapevolezza, rispetto a quelle giovani, circa i dati che vengono raccolti, né leggono i termini e condizioni d’uso dei servizi on line, soprattutto per la fretta di potervi accedere. Ciò è quanto si evince, per esempio, dalla ricerca “Il consenso in ambiente digitale: percezione e consapevolezza tra i teen e gli adulti”, condotta da IPSOS per Save the Children nel 2017. La politica , dal canto suo, fatica a trovare soluzioni efficaci, volte ad impedire eventi a volte davvero tragici, che coinvolgono i minori in rete.
Il web può considerarsi lo spazio in cui avviene la maggior parte delle pratiche quotidiane dei suoi utenti. Pertanto, si dà per implicito che queste esperienze abbiano un riflesso sulla dimensione etica, colpendo la sensibilità e la capacità di ragionamento di tutti e tutte. Su questi aspetti occorre davvero un lavoro esteso e diffuso, nell’ambito del quale anche il mondo accademico può svolgere una parte importante, assolvendo alla sua funzione sociale.

In definitiva, perché i social sono vietati ai minori?

I bambini e gli adolescenti, se da un lato sono considerati “nativi digitali” (ma anche qui l’espressione rischia di essere fuorviante, dal momento che devono comunque essere educati ad un uso consapevole), dall’altro in ragione della complessità della fase di vita che attraversano, faticano a comprendere e ad individuare i rischi connessi all’utilizzo della rete, con particolare riguardo ai social media.
La Convenzione di New York del 1989 sui diritti umani dell’infanzia stabilisce che in tutti gli atti relativi ai minori, l’interesse superiore del minore (il best interest) deve essere considerato preminente: per tale ragione è necessario adottare strumenti anche di matrice normativa capaci di dare attuazione – e sostanza – a tale principio.
Senza un preventivo e ‘organico’ controllo da parte delle Autorità competenti, anche sulle piattaforme affinché predispongano le varie funzionalità, i diritti di questi bambini e bambine universalmente riconosciuti come inviolabili sarebbero fortemente a rischio di violazione nel mondo della rete!