
La pornografia infantile generata dall’intelligenza artificiale sta vivendo un’escalation preoccupante. A lanciare l’allarme è l’Internet Watch Foundation (IWF), che denuncia un drammatico aumento di video che mostrano abusi sessuali su minori generati da AI, spesso indistinguibili dalle immagini reali.
Secondo i dati pubblicati dall’organismo britannico di sorveglianza online e riportati dal Guardian, sono stati verificati 1.286 video di questo tipo nella prima metà del 2025, contro solo 2 nello stesso periodo del 2024. Di questi, oltre 1.000 rientrano nella categoria A, ovvero la classificazione più grave di abuso.
“Questi video hanno superato la soglia della credibilità: sono praticamente impossibili da distinguere dalla realtà”, ha dichiarato Derek Ray-Hill, CEO ad interim dell’IWF.
Una minaccia tecnologica e sociale
L’impennata è attribuita alla disponibilità e accessibilità di strumenti di generazione video AI, spesso open source o venduti su marketplace oscuri. Gli abusi tecnologici si moltiplicano anche a causa della condivisione di tecniche tra pedofili su forum del dark web. Secondo l’IWF, molti manipolano modelli AI allenandoli con materiale pedopornografico reale per generare video falsi, ma incredibilmente realistici.
Ray-Hill avverte:
“Questa tecnologia rischia di provocare un’esplosione assoluta di contenuti pedopornografici sul web visibile. È un rischio incredibile per la sicurezza dei minori e potrebbe alimentare traffico di esseri umani, schiavitù moderna e abusi sessuali”.
Le risposte legislative
Il governo britannico ha già presentato una proposta di legge per criminalizzare la creazione e la distribuzione di contenuti generati da AI con finalità pedopornografiche. Chiunque crei o detenga strumenti di AI progettati per questi scopi rischia fino a 5 anni di carcere, mentre il possesso di manuali di “istruzioni” potrebbe comportare fino a 3 anni.
Negli Stati Uniti, 38 stati hanno legiferato contro il CSAM AI-generated, ma 12 stati e Washington DC non hanno ancora adottato misure specifiche.
Un allarme globale
L’IWF chiede ora un intervento coordinato internazionale, sottolineando che la tecnologia AI sta evolvendo più velocemente delle leggi. Senza misure immediate, il rischio è che si crei un mercato parallelo incontrollabile di contenuti generati artificialmente che alimentano il ciclo dell’abuso.