Malgré les efforts déployés pour y répondre, une part importante des demandes de retrait (29 %, soit 270 000 cas) n’a pas été résolue. Si la pénurie de personnel d’intervention demeure une préoccupation majeure, il est également urgent de mettre en place une réglementation plus stricte qui oblige les entreprises à se conformer à ces demandes.
Entre 2020 et juin 2024, le Centre d’aide aux victimes de crimes sexuels numériques a reçu un total de 938 651 demandes de suppression de contenu illégal, notamment de deepfakes et d’images sexuellement abusives. Parmi ces demandes, 269 917 cas (28,8 %) n’ont pas pu être supprimés. Cela montre une augmentation de 79,7 % des cas non résolus sur une période de deux ans, ce qui laisse un total de 75 000 cas non résolus pour la seule année 2023.
Les progrès technologiques ont contribué à une augmentation significative de la production de deepfakes, ce qui a entraîné une hausse des crimes liés à ce phénomène. Un exemple typique est la victimisation des artistes de K-pop par la création de vidéos « fancam » par leurs fans. En réponse, des agences comme JYP Entertainment et YG Entertainment ont pris des mesures juridiques pour lutter contre les deepfakes.
Malgré la gravité croissante de ces incidents, des personnes ordinaires en sont également victimes, comme un enseignant dont les photos ont été modifiées et partagées dans des forums de discussion sur Internet. Cependant, les mesures actuelles ne suffisent pas à résoudre le problème en raison du manque d’autorité chargée de les faire respecter. Les professionnels et les législateurs plaident pour des règles plus strictes, notamment des sanctions et des suspensions pour les plateformes en ligne qui ne suppriment pas les contenus illégaux.
La source se trouve chez Daum .
Laisser un commentaire