X

Immagini di abusi sessuali su minori generate dall'intelligenza artificiale raggiungono un "punto di svolta", afferma un ente di controllo

Immagini di abusi sessuali su minori generate dall'intelligenza artificiale raggiungono un "punto di svolta", afferma un ente di controllo
09:10 Giornalisti: Ziani Salma
Zoom

Le immagini di abusi sessuali su minori generate da strumenti di intelligenza artificiale stanno diventando sempre più diffuse sul web aperto e stanno raggiungendo un "punto di svolta", secondo un ente di controllo della sicurezza.

L'Internet Watch Foundation ha affermato che la quantità di contenuti illegali creati dall'intelligenza artificiale che aveva visto online negli ultimi sei mesi aveva già superato il totale dell'anno precedente.

L'organizzazione, che gestisce una hotline nel Regno Unito ma ha anche un mandato globale, ha affermato che quasi tutti i contenuti sono stati trovati in aree di Internet accessibili al pubblico e non sul dark web, a cui è necessario accedere tramite browser specializzati.

Il direttore esecutivo ad interim dell'IWF, Derek Ray-Hill, ha affermato che il livello di sofisticatezza delle immagini indicava che gli strumenti di intelligenza artificiale utilizzati erano stati addestrati su immagini e video di vittime reali. "Gli ultimi mesi dimostrano che questo problema non sta scomparendo e anzi sta peggiorando", ha affermato.

Secondo un analista dell'IWF, la situazione con i contenuti generati dall'intelligenza artificiale stava raggiungendo un "punto di svolta" in cui i controllori della sicurezza e le autorità non sapevano se un'immagine riguardasse un bambino reale che aveva bisogno di aiuto.

L'IWF ha preso provvedimenti contro 74 segnalazioni di
materiale di abuso sessuale su minori (CSAM) generato dall'intelligenza artificiale, che era abbastanza realistico da violare la legge del Regno Unito, nei sei mesi fino a settembre di quest'anno, rispetto alle 70 nei 12 mesi fino a marzo. Una singola segnalazione potrebbe fare riferimento a una pagina web contenente più immagini.

Oltre alle immagini di intelligenza artificiale che raffiguravano vittime di abusi nella vita reale, i tipi di materiale visionati dall'IWF includevano video "deepfake" in cui la pornografia per adulti era stata manipolata per assomigliare a CSAM. In precedenti report, l'IWF ha affermato che l'intelligenza artificiale veniva utilizzata per creare immagini di celebrità che erano state "ringiovanite" e poi raffigurate come bambini in scenari di abuso sessuale. Altri esempi di CSAM visionati includevano materiale per il quale sono stati utilizzati strumenti di intelligenza artificiale per "nudificare" immagini di bambini vestiti trovate online.

Più della metà dei contenuti generati dall'intelligenza artificiale segnalati dall'IWF negli ultimi sei mesi sono ospitati su server in Russia e negli Stati Uniti, mentre Giappone e Paesi Bassi ne ospitano quantità significative. Gli indirizzi delle pagine web contenenti le immagini vengono caricati su un elenco di URL dell'IWF che viene condiviso con il settore tecnologico in modo che possano essere bloccati e resi inaccessibili.

L'IWF ha affermato che otto segnalazioni su 10 di immagini illegali create dall'intelligenza artificiale provenivano da membri del pubblico che le avevano trovate su siti pubblici come forum o gallerie di intelligenza artificiale.

Nel frattempo, Instagram ha annunciato nuove misure per contrastare il sextortion, in cui gli utenti vengono ingannati e indotti a inviare immagini intime a criminali, in genere fingendosi giovani donne, e poi sottoposti a minacce di ricatto.
La piattaforma lancerà una funzionalità che sfoca tutte le immagini di nudo inviate agli utenti nei messaggi diretti e li esorta a essere cauti nell'inviare messaggi diretti (DM) che contengano un'immagine di nudo. Una volta ricevuta un'immagine sfocata, l'utente può scegliere se visualizzarla o meno e riceverà anche un messaggio che gli ricorda che ha la possibilità di bloccare il mittente e segnalare la chat a Instagram.

La funzione sarà attivata di default per gli account degli adolescenti a livello globale da questa settimana e può essere utilizzata su messaggi crittografati, sebbene le immagini segnalate dalla funzione "rilevamento sul dispositivo" non verranno automaticamente notificate alla piattaforma stessa o alle autorità.

Sarà una funzione di adesione volontaria per gli adulti. Instagram nasconderà anche gli elenchi di follower e di coloro che seguono ai potenziali truffatori di sextortion che sono noti per minacciare di inviare immagini intime a quegli account.


Leggi di più