Intelligenza artificiale, l’allarme dell’Internet Watch Foundation sulle immagini di abusi sessuali sui minori

Intelligenza artificiale, l’allarme dell’Internet Watch Foundation sulle immagini di abusi sessuali sui minori

Tabella dei Contenuti

Le immagini di abusi sessuali su minori, realizzate tramite l’intelligenza artificiale, stanno diventando sempre più realistiche, è l’allarme lanciato dall’Internet Watch Foundation

Le immagini di abusi sessuali su minori create dall’intelligenza artificiale stanno diventando “significativamente più realistiche”. È l’allarme lanciato dall’Internet Watch Foundation, un organismo di controllo della sicurezza online che ha spiegato come i progressi dell’intelligenza artificiale si riflettono nei contenuti illegali creati e consumati dai pedofili.

Il rapporto annuale dell’Internet Watch Foundation

L’Internet Watch Foundation ha rivelato, nel suo rapporto annuale, di aver ricevuto 245 segnalazioni di immagini di abusi sessuali su minori generate dall’intelligenza artificiale che violavano la legge del Regno Unito nel 2024, con un aumento del 380% rispetto alle 51 del 2023. Le segnalazioni riguardavano 7.644 immagini e un numero limitato di video, a dimostrazione del fatto che un sito web può contenere più esempi di materiale illegale. La maggior parte di queste immagini rientrava nella cosiddetta “categoria A”, termine che indica la tipologia più estrema di contenuti di abuso sessuale su minori.

L’intervento del governo sul tema

Il governo inglese ha annunciato che diventerà illegale possedere, creare o distribuire strumenti di intelligenza artificiale progettati per generare materiale pedopornografico, colmando così una lacuna legale che aveva allarmato la polizia e gli attivisti per la sicurezza online. Sarà inoltre illegale, per chiunque, possedere manuali che insegnino a utilizzare strumenti di intelligenza artificiale per creare immagini abusive o per aiutarli a commettere abusi sui minori.

Qualità di video sempre più elevata

L’associazione ha inoltre evidenziato che nel 2024 la qualità dei video generati dall’intelligenza artificiale è migliorata in modo esponenziale e tutti i tipi di immagini generate dall’IA che sono stati valutati, sono apparsi significativamente più realistici con lo sviluppo della tecnologia. Questo materiale può essere davvero convincente, mettendo in difficoltà anche gli analisti più qualificati dell’Internet Watch Foundation.

Sempre più pagine web segnalate

Il rapporto annuale dell’organismo di controllo ha anche annunciato livelli record di pagine web che ospitano immagini di abusi sessuali su minori nel 2024. L’IWF ha affermato che lo scorso anno sono state segnalate 291.273 immagini di abusi sessuali su minori, con un aumento del 6% rispetto al 2023. La maggior parte delle vittime segnalate erano ragazze.

Uno strumento per contrastare la pedopornografia

Internet Watch Foundation ha annunciato che metterà a disposizione, gratuitamente, un nuovo strumento di sicurezza per i siti web più piccoli, per aiutarli a individuare e prevenire la diffusione di materiale offensivo sulle loro piattaforme. Lo strumento, chiamato Image Intercept, è in grado di rilevare e bloccare le immagini presenti in un database dell’IWF contenente 2,8 milioni di immagini contrassegnate digitalmente come immagini criminali.

L’nnovazione come soluzione

Il ministro per la Tecnologia, Peter Kyle, ha affermato che l’aumento degli abusi e delle estorsioni sessuali generate dall’intelligenza artificiale, per le quali i bambini vengono ricattati per l’invio di immagini intime, sottolinea come “le minacce ai giovani online siano in continua evoluzione“. Kyle ha poi affermato che il nuovo strumento di intercettazione delle immagini è un “esempio significativo di come l’innovazione possa essere parte della soluzione per rendere gli spazi online più sicuri per i bambini“.

Pubblicità
Articoli Correlati