MAP

2025.06.23 Conferenza stampa di presentazione del dossier di Meter

Meter, bambini e adolescenti sempre più a rischio

Presentato a Roma il primo dossier sugli abusi dell'IA per reati di pedopornografia. Cardinale Zuppi: "La Chiesa continuerà a farsi carico di questa responsabilità, promuovendo con determinazione un discernimento pubblico che non separi mai l’innovazione dalla giustizia, la potenza dalla cura, la tecnica dalla coscienza"

Francesco Ricupero- Città del Vaticano

In appena sei mesi (dicembre 2024-maggio 2025) circa tremila bambini in Italia sono stati “spogliati” sull’App di messaggistica istantanea, Signal, da pedofili e pedopornografi che operano in rete. Questo dato raccapricciante è emerso durante la presentazione del primo dossier realizzato dalla Fondazione Meter che ha analizzato come l’Intelligenza Artificiale (IA) venga sfruttata per generare child sexual abuse materiale (Csam), alterare immagini e favorire l’adescamento on line, manipolando i minori. Alla presentazione, avvenuta lunedì mattina, presso la sede della Conferenza episcopale italiana a Roma, erano presenti, tra gli altri, don Fortunato Di Noto, presidente e fondatore dell’associazione Meter per il contrasto della pedofilia e pedopornografia, Maria Teresa Bellucci, vice ministro del Lavoro e delle Politiche Sociali, Ivano Gabrielli, direttore della Polizia postale e per la sicurezza cibernetica, Chiara Griffini, presidente del Servizio nazionale Cei per la Tutela dei minori, e Vincenzo Corrado,  direttore dell’Ufficio nazionale per le Comunicazioni sociali della  Cei.

Il fenomeno del deepnude

 La ricerca ha evidenziato che 989 studenti intervistati, di età compresa tra i 14 e i 18 anni, conoscono l’Intelligenza Artificiale, interagiscono con chatbot e affrontano rischi legati alle molestie online. Particolarmente preoccupante è il fenomeno del deepnude, infatti l’IA può “spogliare” virtualmente i minori. «Non possiamo permetterci di distrarci — ha dichiarato ai media vaticani don Di Noto — poiché si rischia di alimentare un mercato di abusi. L’IA è un pericolo per gli adolescenti poiché, come si evince dal nostro dossier, sta sfruttando l’innocenza dei bambini per quanto riguarda le chatbot, poiché non hanno la possibilità di verificare che dall’altra parete c’è una macchina che quindi influenza moltissimo la loro vita e li condiziona  a tal punto di creare immagini pedopornografiche e rielaborale.  Abbiamo analizzato circa tremila minori che con il deepnude sono stati spogliati e questo ha creato in loro tanta preoccupazione poiché si sentono feriti nella propria dignità. La percezione del pericolo da parte dei giovani c’è — ha spiegato il fondatore di Meter — ma dall’altra parte manca a volte una continuata prevenzione. Dobbiamo entrare nei meccanismi dell’IA per garantire un’etica e offrire una possibilità di percorsi positivi necessari per evitare che minori e adolescenti vengano sempre più coinvolti dal turpe fenomeno della pedopornografia sul web». Il 65,7 per cento degli intervistati, quindi, conosce il fenomeno deepnude e il 59,4 per cento teme la loro creazione e diffusione, un allarme sempre più preoccupante per i giovani. Peggio ancora: il 52,3 per cento  non riesce a distinguere un video deepfake da uno reale. Lascia un po’ di speranza sapere che il 90,5 per cento ritiene che  diffondere un deepfake e deepnude costituisce un serio pericolo e che il 65,1 per cento di essi denuncerebbe senza indugio. Privacy, reputazione, indistinguibilità tra vero e falso: i giovani hanno paura di tutto questo. 

Ascolta l'intervista a don Di Noto

Criminali sparsi nel web

Ma oltre alla paura c’è anche tanta preoccupazione per il diffondersi di reti criminali che riescono a coinvolgere milioni di bambini nel mondo. «Purtroppo — ha ricordato Gabrielli — c’è gente sul web che possiede centinaia di migliaia di video con contenuti atroci e il nostro impegno è veramente enorme». In Italia, nonostante gli sforzi in atto, le norme in tema di IA in vigore non tutelano abbastanza i minori. Non riescono ad affrontare il problema e non hanno adeguata velocità e incisività. Secondo l’associazione Meter servono a livello globale leggi che sottolineino, con la severità delle pene, che la manipolazione delle immagini dei minori è abuso. Di qui, la richiesta a tutti i governi affinché spingano le software house a dotare i loro prodotti IA di adeguate misure che identifichino e blocchino la produzione di questo tipo di materiale, lo rimuovano e permettano al contempo la segnalazione di chi si è servito

L'impegno della Chiesa

"La lettura del dossier — scrivono  in un messaggio il presidente e il segretario generale della Cei, cardinale Matteo Maria Zuppi, e arcivescovo Giuseppe Andrea Salvatore Baturi, inviato a don Di Noto  — non lascia spazio ad ambiguità: l’intelligenza artificiale, oggi, è anche uno strumento di abuso. Le tecnologie più avanzate, progettate per migliorare la vita, vengono impiegate per creare immagini pedopornografiche, alterare fotografie di minori, manipolare conversazioni e generare rapporti simulati capaci di aggirare la vigilanza degli adulti e la consapevolezza stessa dei bambini. Non si tratta di casi isolati. I dati raccolti — continua il messaggio — evidenziano un sistema strutturato e crescente, dove immagini false producono danni veri, dove la logica del deepfake diventa complice di una cultura che banalizza l’abuso, frammenta la responsabilità e rende quasi impossibile distinguere il vero dal fittizio". Infine, l'arcivesco Baturi e il cardinale Zuppi chiedono  a tutte le componenti della società civile – legislatori, educatori, genitori, operatori dei media e sviluppatori di tecnologie – affinché "si riconosca, senza esitazioni, che la tutela dell’infanzia è il metro con cui si misura una civiltà. La Chiesa, per parte sua, continuerà a farsi carico di questa responsabilità, promuovendo con determinazione un discernimento pubblico che non separi mai l’innovazione dalla giustizia, la potenza dalla cura, la tecnica dalla coscienza". 

Un'armonizzazione tra progresso e dignità umana

Infine, Vincenzo Corrado ha ricordato come il nuovo secolo abbia portato "un’accelerazione costante negli ambiti tecnico e tecnologico. Non è un semplice mutamento di contorno, ma è il contesto stesso che si modifica continuamente. L’epopea del digitale - ha ricordato - non è per nulla conclusa e avanza nella sua oscillante mutevolezza. Siamo ormai coscienti della grande ricchezza acquisita, ciò che manca è il tragitto di ritorno verso casa – la nostra Itaca – ovvero il fine ultimo della comunicazione. Tante allucinazioni ne offuscano la visione: fake news, disordine informativo (disinformazione, misinformazione, malinformazione), deep fake, per citarne alcune, senza dimenticare le grandi sfide a livello etico e deontologico, peraltro rilevate dallo studio" realizzato da Meter. Per Corrado, "serve una disciplina, a livello globale, che consenta l’armonizzazione tra le opportunità del progresso e la dignità delle persone".

Grazie per aver letto questo articolo. Se vuoi restare aggiornato ti invitiamo a iscriverti alla newsletter cliccando qui

23 giugno 2025, 14:46