Menée par un chercheur qui souhaite rester anonyme afin de ne pas être ciblé, l'étude montre que le nombre de vidéos pornographiques truquées et mises en ligne après usage de l'intelligence artificielle est en très forte augmentation d'année en année.
La multiplication des outils permettant la création et la diffusion de deepfakes semble poser de grandes difficultés aux moteurs de recherche avec un constat inquiétant : 50 à 80 % des utilisateurs y accèdent avec une simple recherche.
Le principe de base du deepfake NCEI (synthetic non-consensual exploitative images), à savoir trafiquer une photo ou une vidéo pour donner aux personnes dessus une autre apparence, est aussi vieux que les supports eux-mêmes. Mais depuis quelques années et la nouvelle accessibilité des IA, le phénomène progresse de façon exponentielle, notamment dans le domaine de la pornographie. Une nouvelle analyse indépendante montre que, sur les neuf premiers mois de l'année, 113 000 vidéos deepfakes ont été mises en ligne sur les sites analysés.
Cela constitue une augmentation de 54 % par rapport à la même période en 2022, et le total de vidéos produites sur l'année devrait dépasser le cumul des deux années précédentes. Au-delà du préjudice causé aux personnes dont le visage se retrouve sans leur autorisation dans des contenus pour adultes, il semble que les moteurs de recherche peinent grandement à faire face. La recherche met en avant 35 sites qui indiquent clairement faire usage de deepfakes et 300 autres qui en intègrent d'une façon ou d'une autre.
Source : www.clubic.com
Découvrir la suite de l'article sur le site d'origine
L’industrie pornographique n’a pas de limite. Voler le visage de quelqu’un pour le mettre en scène dans des contenus pornographiques, voilà la nouvelle mode. Alors que de plus en plus de célébrités, surtout des femmes, s’insurgent contre ces pratiques dégradantes et injustes, rien n'est fait par les politiques et les plateformes web pour enrayer ce fléau. Un nouveau combat à mener.