Innovazione
Uniti per la protezione dei minori online
Di Cesare Giraldi
Quello sui dati degli abusi sessuali sui minori nel digitale, “è un tema molto fragile, perché non si raccolgono in modo omogeneo. Però quello che vediamo è che i problemi aumentano, questo è certo. E una delle sfide che io vedo, una cosa che ci sta coinvolgendo in modo particolare è l’ingresso dell’intelligenza artificiale”. Così il Presidente della Fondazione Sos Telefono Azzurro, Ernesto Caffo, all’evento “Diamo voce al silenzio” organizzato nella giornata internazionale per la protezione dei minori contro l’abuso e lo sfruttamento sessuale. “I rischi che l’Ia presenta sono elevatissimi e poco seguiti e poco attenzionati – ha aggiunto – Cioè fino a che punto le agenzie di controllo possono intervenire su materiali che sono prodotti, con sistemi che in qualche modo modificano le immagini, cambiano gli scenari?“. Caffo ha evidenziato che la volontà è quella di “dare strumenti di conoscenza alle istituzioni perché si possa procedere in una dimensione di coordinazione congiunta con il coinvolgimento anche delle piattaforme, come Meta, TikTok”.
Dossier Abuso 2024
Il 2024 evidenzia un forte calo del numero degli articoli pubblicati su stampa e web italiani riguardanti gli abusi sui minori. È quanto emerge dall’analisi “Abusi sui minori nelle notizie italiane” curata da Volocom per Telefono Azzurro e presentata oggi. Nello specifico sono stati 129.500 gli articoli – su stampa e web italiani – pubblicati nel 2024 (nel periodo gennaio-ottobre) riguardo gli abusi sui minori rispetto ai 153.783 articoli che hanno visto la luce nello stesso periodo del 2023. “Siamo quindi di fronte a un -15,8% anno su anno che per Volocom può essere il riflesso di un calo di attenzione mediatica piuttosto che una reale diminuzione dei casi di abuso. Dato effettivamente preoccupante – come mette in luce la stessa Volocom – perché potrebbe corrispondere a una difficoltà dei media italiani nel mantenere alta l’attenzione su un tema così cruciale“, commenta Telefono Azzurro. Un incremento di copertura mediatica viene registrato da Volocom riguardo i fenomeni di abusi digitali con in prevalenza pedopornografia (15.942 articoli) e revenge porn (8.312 articoli). E allo stesso tempo aumentano gli articoli riguardo grooming e sextortion. Passando all’offline la copertura è dominante per gli abusi sessuali (67.587 articoli) seguiti da pedofilia, adescamento e sfruttamento sessuale. Confrontando il periodo 2019-2024 le notizie sugli abusi offline hanno prevalso rispetto a quelli online. Stiamo parlando dell’80% della copertura mediatica. Negli ultimi anni si registra un aumento costante degli abusi online con un picco del 17% nel primo trimestre 2024 rispetto al 2023. Al contempo gli articoli sugli abusi offline hanno visto un calo dell’11% nello stesso periodo. Nel periodo 2019-2024 la famiglia è il contesto più rappresentato con oltre 100.000 articoli; nel primo trimestre 2024 il volume degli articoli è diminuito rispetto al 2023. Trimestre su trimestre sono aumentati gli articoli riguardanti i social network.Scuola e sport hanno visto una diminuzione di articoli nel 2024 e riguardo al gaming i volumi sono inferiori rispetto ai contesti principali ma è emerso come un ambiente con rischi sempre crescenti per i minori. Dall’analisi di Volocom si evince come siano oggi siano emergenti nei media italiani i temi del child sexual exploitation material e il live distance child abuse.
”Proteggere i bambini è responsabilità di tutti e la prevenzione è la nostra arma più potente. Sensibilizzare oggi significa salvare vite domani e questo deve essere responsabilità di un solo settore. E’ una sfida che richiede un impegno collettivo: delle istituzioni, delle famiglie, delle scuole, degli enti di volontariato, di medici e psicologi. Abbiamo bisogno di una governance coordinata per rispondere in modo efficiente ed efficace alla violenza contro i minori, mettendo insieme competenze e risorse per creare una rete di protezione e sviluppare programmi di educazione digitale che insegnino un uso consapevole e sicuro di Internet. Così la senatrice di Forza Italia e vice presidente del Senato, Licia Ronzulli, intervenuta, tra gli altri, in videocollegamento all’evento. “E’ anche fondamentale la formazione per riconoscere quei segnali che spesso possono passare inosservato. Tutti devono diventare delle vere e proprie sentinelle per captare segnali di possibili violenze. Così com’è anche fondamentale la figura dello psicologo scolastico: una risorsa preziosa in grado di intercettare i disagi e di offrire un supporto concreto ai ragazzi. Ogni bambino è una promessa per il futuro e noi dobbiamo proteggerlo con il rispetto e con l’amore che merita”, conclude.
Anche il Presidente della Camera dei deputati, Lorenzo Fontana, in un messaggio rivolto alla Fondazione Telefono Azzurro in occasione della Giornata europea ha sottolineato che “le conseguenze delle violenze, già di per sé drammatiche, risultano spesso aggravate dal silenzio e dalla vergogna provata dalle giovani vittime. Sono soprattutto le bambine e le ragazze le più esposte ai crimini di natura sessuale, che con sempre maggiore e allarmante frequenza si consumano anche on line“.
Tra gli interventi anche il viceministro del Lavoro e delle Politiche Sociali, Maria Teresa Bellucci, ricorda l’importanza della prevenzione anche in questo settore. “È vero che la violenza, l’abuso, è democratica, non risparmia nessuno, indipendentemente dal ceto sociale, dalla situazione economica, dal luogo in cui si vive, non c’è nessuno che è totalmente protetto. Ma certamente sappiamo anche che questi problemi sono molto più profondi, molto più vasti, molto più dilaganti nei luoghi in cui c’è un’alta povertà educativa, non ci sono servizi, in cui a volte c’è un alto tasso di criminalità. In cui c’è quel silenzio“. Nel corso del suo intervento, ha poi ricordato che “le leggi di bilancio sono fondamentali. In questa c’è tanto di attenzione ai minori, di supporto alla famiglia, di lavoro all’interno della famiglia, ma” – ha precisato – “delle istituzioni capaci guardano tutto il bilancio dello Stato, che non si esaurisce in 28 miliardi stanziati nella legge di bilancio, noi dobbiamo essere capaci di utilizzare ogni euro del bilancio dello Stato che riguarda centinaia di miliardi. Il nostro obiettivo è quello di utilizzare nel migliore dei modi le risorse che già in bilancio dello Stato ci sono, oltre la legge di bilancio, sono soldi degli italiani, sono soldi che provengono dai contribuenti italiani, che spesso vengono mal viste rispetto alle leggi di bilancio. Noi vogliamo tenere gli occhi molto ben aperti e utilizzare quelli nei migliori dei modi“.
Una fotografia preoccupante quella che emerge dal dossier presentato oggi dalla Fondazione S.O.S Telefono Azzurro durante l’evento organizzato a Palazzo Chigi. Nel mondo – rimarca Telefono Azzurro riprendendo il report realizzato da UNICEF nell’ottobre di quest’anno – quasi 90 milioni di ragazzi e ragazze oggi in vita hanno subito violenza sessuale e più di 1 miliardo di donne e uomini hanno subito tali violenze durante l’infanzia (dato supposto dalle Nazioni Unite in quanto mancano a livello globale e di singoli Paesi dati effettivi e equiparabili). Per quanto riguarda le nuove forme di violenza e abusi online, i numeri che si riescono a reperire danno ancora più il senso di quale sia lo scenario di rischio all’interno del quale l’infanzia oggi si muove, senza la tutela del mondo adulto e senza la preparazione e la consapevolezza necessaria per evitare le situazioni più pericolose. Le preoccupazioni riguardano in particolare il tumultuoso sviluppo dei casi di “Sintetic Child Sexual Abuse Material” prodotti attraverso IA Generativa. Nella primavera 2023 sono stati rilevati i primi casi di Sintetic CSAM ma risultavano essere in maniera evidente materiali prodotti artificialmente. Nell’arco di circa un anno le immagini autogenerate appaiono così simili alla realtà che pure gli analisti più qualificati stentano a distinguerle. L’AI CSAM richiede – per Telefono Azzurro – un’azione immediata anche perché attraverso essa è possibile produrre contenuti sintetici completamente nuovi o capaci di alterare materiali esistenti. Negli USA si sono già verificati casi di giovani che hanno usato app di “declassamento” sui loro compagni di classe facendo poi circolare le immagini prodotte. È stato inoltre osservato un aumento della circolazione sul dark e sull’open web di materiale pedopornografico costituito da immagini e video realistici “deepfake” di bambini reali che probabilmente – per Telefono Azzurro – possono rientrare nella fattispecie prevista dall’articolo 20 della Convenzione di Lanzarote, la Convenzione del Consiglio d’Europa per la protezione dei bambini contro lo sfruttamento e gli abusi sessuali. Tali immagini e video manipolati – si legge nel Dossier presentato – possono essere utilizzati nei confronti della vittima per costringerla a produrre immagini e video sessuali autogenerati da minori (CSGSIV). Telefono Azzurro evidenzia come le risposte legislative e di tutela dei minori da parte degli Stati – alla luce di quanto previsto dall’articolo 20 paragrafo 3 della Convenzione di Lanzarote si siano storicamente concentrate prioritariamente sui Child Sexual Abuse Material (CSAM) quali registrazioni di un reato sessuale contro un bambino reale ma abbiano sottovalutato il ruolo della rete e in particolare dell’AI. La domanda che si pone Telefono Azzurro è se vi sono o meno le basi per invocare la stessa previsione giuridica anche quando siamo di fronte a AI CSAM. L’alto rischio è che gli individui che cercano di adescare bambini per attività sessuali possano condividere CSAM sintetico con le potenziali vittime per “normalizzare” l’attività sessuale tra adulti e bambini. Telefono Azzurro rimarca come nel corso del 2024 si sia osservato un vero e proprio salto di qualità nel livello di dettaglio e realismo delle immagini generate da IA. I modelli di IA possono generare immagini pornografiche e di conseguenza CSAM fotorealistici. Oltre che alle versioni di base di modelli open source un’altra via per la produzione di pornografia generata dall’IA è rappresentata dai servizi progettati per “nudificare” le immagini.
‘Nell’anno 2023” – ha dichiarato il Professore Caffo, Presidente di Fondazione S.O.S Telefono Azzurro – “INHOPE, rete internazionale di cui come Telefono Azzurro facciamo parte, ha ricevuto quasi 800 mila segnalazioni di contenuti online potenzialmente dannosi, il 70% delle quali relative a materiale pedopornografico illegale. Cifre impressionanti” – ha spiegato – “ma si tratta purtroppo solo di numeri dedotti per approssimazione, perché il primo grande problema che, come comunità internazionale, ci deve far riflettere è quello della mancanza di dati sull’abuso. Mancano dati che siano realistici, trasparenti, coerenti. Solo se partiamo dai dati possiamo avere contezza della situazione reale dell’abuso e delle sue declinazioni, e quindi possiamo intervenire con strumenti efficaci e universalmente condivisi. Questo” – ha proseguito Caffo – “è ancora più vero e urgente se guardiamo allo scenario ancora più oscuro dell’abuso online‘. “Quella che ancora oggi circonda – per omertà, per paura, per arretratezza tecnologica di chi deve tutelare e prevenire – il fenomeno dell’abuso e della violenza sessuale su bambini e adolescenti è una terribile bolla di silenzio che deve essere essere scardinata”, ha rilevato Caffo. ‘È invece necessario affrontare questi temi attraverso alleanze e reti internazionali, poiché un fenomeno globale, come quello degli abusi e delle nuove tecnologie ha bisogno di soluzioni e risposte globali. Per questo il nostro impegno come Fondazione si estende alla dimensione internazionale attraverso la partecipazione a network internazionali, come INHOPE, Child Helpline International e WePROTECT Global Alliance, assieme a partner provenienti da tutto il mondo e ugualmente dedicati alla condivisione di best practices per mantenere al centro la sicurezza e il benessere dei bambini, realtà che saranno coinvolte questo pomeriggio in un importante confronto sul tema degli abusi sessuali durante l’evento che abbiamo organizzato in collaborazione con l’Ambasciata d’Italia presso la Santa Sede”, ha concluso Caffo.
Presente al tavolo anche Lavinia Mennuni, Senatrice di Fratelli d’Italia e prima firmataria del disegno di legge sulla tutela dei minori nella dimensione digitale.
“Le istituzioni sono importanti perché possono in qualche modo costituire non solo una regolamentazione ma anche una forma di moral suasion rispetto a quei privati che stanno svolgendo un lavoro straordinario di sviluppo delle tecnologie, di sviluppo di Internet, di sviluppo di questa intelligenza artificiale che riteniamo possa essere assolutamente utile ma ricordiamo sempre che la tecnologia deve essere ovviamente al servizio delle intelligenze, delle menti, delle persone.” Ricorda l’origine del disegno di legge, nato anche da una conversazione con Telefono Azzurro. “Siamo già lieti di questo disegno di legge che abbiamo presentato che speriamo possa essere approvato – ovviamente con tutta una serie di emendamenti che sono stati presentati, di ascolto che è stato svolto da parte dell’Onorevole Madia, mia e di tutti gli altri parlamentari (siamo circa una cinquantina) […] – che, a questo punto, definirei multipartisan perché è stato più o meno sottoscritto da tutti”.
Disegno di legge che – ribadisce – ha avuto l’effetto di aver insieme stimolato “quelle società private che stanno già svolgendo un lavoro eccezionale”. Ricorda come Meta “stia cercando in ogni modo di mettere in protezione i minori” grazie al sito TakeItDown “per poter cancellare l’immagine intima di chi abbia timore che possa finire appunto nella dimensione digitale e quindi già questo elemento è molto positivo”. Continua ricordando che “Internet non è nato a misura di bambino quindi ben venga che ci possa essere questo grande, straordinario ragionamento nazionale che si sta svolgendo su questo tema”.
“Sono convinta porterà comunque a degli elementi assolutamente benefici per far sì che i social media continuino a svolgere questo ruolo importante ma che non rischino di influenzare invece negativamente le giovani menti in evoluzione dei ragazzi. Ringrazio di cuore le aziende che operano in questo ambito perché stanno capendo che l’intendimento delle istituzioni, delle associazioni, non è quello di vietare ma è semplicemente quello di in un qualche modo porre attenzione a quelli che sono gli elementi di maggiore rischio. Noi non intendiamo bloccare in alcun modo lo sviluppo digitale, semplicemente dobbiamo prevedere alcune piccole norme, alcuni aggiornamenti di traiettoria per tutelare la crescita dei ragazzi”, conclude.
Intervenuta al Convegno anche la vicepresidente dei senatori Pd, Beatrice Lorenzin. “L’intelligenza artificiale offre sicuramente grandi opportunità di sviluppo, ma viene anche utilizzata da chi rende sempre più sofisticate le trappole per i più piccoli online. Al contempo, cresce l’allarme per l’esposizione e la dipendenza dai social fin dalla più tenera età. C’è qualcosa che non sta funzionando nel coinvolgere le famiglie su come usare il digitale, considerando che, statistiche alla mano, i bambini sono esposti fin da piccolissimi agli schermi e ai contenuti web, e il 26% di loro è lasciato solo a navigare in un mondo digitale pieno di insidie”. La Senatrice sostiene sia indispensabile un sistema regolatorio efficace che protegga i minori online e metta in sicurezza le piattaforme digitali. […] “La tutela dei minori nel digitale deve diventare una priorità politica e sociale. Non è solo una questione di regole, ma di responsabilità condivisa tra famiglie, istituzioni e aziende tecnologiche. Perché proteggere i bambini oggi significa proteggere la società di domani“, ha concluso Lorenzin.
Da una ricerca svolta da INHOPE, il CSAM generato digitalmente è illegale in 40 paesi dei 61 paesi mappati. In 5 Paesi (Ungheria, Romania, Olanda, Spagna e Svezia) è considerato illegale ma dipende dal contesto. In 4 Paesi (Albania, Austria, Colombia e Messico) la legalità di questo materiale è determinata esclusivamente dal contesto. In Colombia e Messico, ad esempio, non costituisce un reato perché non raffigura persone reali. Il CSAM generato digitalmente non è illegale in 7 Paesi (Bahrain, Danimarca, Finlandia, Giappone, Moldavia, Slovacchia e Ucraina). In Giappone è illegale se vengono mostrati esplicitamente i genitali, mentre in Finlandia, ad esempio, se il materiale è chiaramente generato digitalmente è considerato legale. Da alcuni anni gli autori dello sfruttamento sessuale dei minori trasmettono gli abusi in live-streaming.