Nonostante gli sforzi per affrontarli, una parte significativa delle richieste di rimozione (29%, ovvero 270.000 casi) è rimasta irrisolta. Mentre la carenza di personale di risposta rimane una preoccupazione importante, c’è anche un’urgente necessità di normative più severe che obblighino le aziende a conformarsi a queste richieste.
Dal 2020 a giugno 2024, il Digital Sexual Crime Victim Support Center ha ricevuto un totale di 938.651 richieste di rimozione di contenuti illegali, tra cui deepfake e immagini sessualmente abusive. Di queste richieste, 269.917 casi (28,8%) non sono stati rimossi. Ciò mostra un aumento del 79,7% dei casi irrisolti nell’arco di due anni, lasciando un totale di 75.000 casi non affrontati nel solo 2023.
Il progresso della tecnologia ha contribuito a un aumento significativo della produzione di deepfake, con conseguente aumento dei reati correlati. Un esempio lampante è la vittimizzazione di artisti K-pop tramite la creazione di video “fancam” da parte dei loro fan. Come risposta, agenzie come JYP Entertainment e YG Entertainment hanno adottato misure legali per combattere i deepfake.
Nonostante la crescente gravità di questi incidenti, anche persone comuni sono state vittime, come un insegnante le cui immagini sono state modificate e condivise nelle chat room di Internet. Tuttavia, le misure attualmente in atto non sono sufficienti per affrontare il problema a causa della mancanza di autorità di controllo. Professionisti e legislatori stanno sostenendo regole più severe, tra cui sanzioni e sospensioni per le piattaforme online che non riescono a rimuovere materiale illegale.
La fonte è reperibile su Daum .
Lascia un commento