Sono diversi gli esperti di sicurezza che avvertono che i predatori di minori stanno sfruttando l’IA per creare immagini sessuali esplicite delle loro “star” minorenni preferite. Svariate chat nel dark web rivelano un crescente interesse per la manipolazione di vecchio materiale pedopornografico attraverso l’IA.
L’uso dell’IA da parte dei predatori si è accentuato alla fine del 2022, lo stesso anno in cui OpenAI ha fatto debuttare ChatGPT. Nel 2022, infatti, è stato lanciato anche il database LAION-5B, un catalogo open-source di oltre 5 miliardi di immagini che chiunque può utilizzare per addestrare modelli di IA. Ma un rapporto dell’Università di Stanford pubblicato nel dicembre 2023, ha rivelato che centinaia di immagini note di abusi sessuali su minori sono state incluse in LAION-5B e che vengono ora utilizzate per addestrare i più diffusi modelli di generazione di immagini di IA a generare contenuti CSAM (“child sexual abuse material”). Anche un recente rapporto di Human Rights Watch denuncia l’uso improprio di oltre 170 immagini e dati di bambini, raccolti dall’archivio di dati Common Crawl (su cui si basa il set di dati LAION-5B) per l’addestramento AI.
La situazione si complica ulteriormente con l’uso di servizi di messaggistica criptata come WhatsApp, Signal e Telegram, che offrono anonimato ai predatori, rendendo difficile la rimozione delle immagini e l’identificazione degli autori. La Internet Watch Foundation ha riportato un significativo aumento di immagini sessuali di bambini generate dall’IA, con oltre 20.000 immagini trovate in un solo forum del dark web in un mese.
Leggi l’articolo completo: Child predators are using AI to create sexual images of their favorite ‘stars’: ‘My body will never be mine again’ su theguardian.com.

Foto di Jefferson Santos su Unsplash.

