L. Bardon . – Les fausses vidéos connues sous le nom de deepfakes incarnent la façon dont l’IA peut bouleverser notre perception du vrai et du faux. Le terme provient d’un compte Reddit du même nom qui, fin 2017, a publié des clips vidéo pornographiques en y superposant les visages d’actrices d’Hollywood. L’outil d’apprentissage machine fait maison utilisé pour créer ces premiers deepfakes a rapidement été publié. Les clips deepfakes sont maintenant un élément de base des sites pornographiques et de YouTube. Le potentiel de nuisance a inspiré à certaines personnes de travailler sur la technologie pour détecter les deepfakes et autres parodies créées via l’IA, qu’il s’agisse de vidéos, de visages ou de voix. Pour les géants du web comme Google, trouver des outils pour identifier du contenu deepfake est donc devenu urgent. Si quelqu’un veut diffuser une fausse vidéo à grande échelle, YouTube de Google ou les plateformes de médias sociaux de Facebook sont d’excellents endroits pour le faire.
Le site web attire l’attention par sa simplicité. Sur un fond blanc, un bouton bleu géant invite les visiteurs à télécharger la photo d’un visage. Sous le bouton, quatre visages générés par l’IA permettent de tester le service. Au-dessus, le slogan proclame audacieusement l’objectif : transformer n’importe qui en star du porno en utilisant la technologie deepfake pour échanger le visage de la personne dans une vidéo pour adultes. Il suffit d’une photo et d’appuyer sur un bouton. Le MIT Technology Review a choisi de ne pas nommer le service, ni d’utiliser des citations directes et des captures d’écran de son contenu, afin d’éviter d’attirer du trafic sur le site.
Depuis le début, les deepfakes, ou médias synthétiques générés par l’IA, ont principalement été utilisés pour créer des représentations pornographiques de femmes, qui trouvent souvent cela psychologiquement dévastateur. À mesure que la technologie a progressé, de nombreux outils sans code faciles à utiliser sont également apparus, permettant aux utilisateurs de « déshabiller » les corps féminins dans les images. Nombre de ces services ont depuis été mis hors ligne, mais le code existe toujours dans des dépôts de logiciels libres et continue de refaire surface sous de nouvelles formes. Le dernier site de ce type a reçu plus de 6,7 millions de visites en août, selon la chercheuse Genevieve Oh, qui l’a découvert. Il n’a pas encore été mis hors ligne.
Il existe d’autres applications de « face-swapping » à photo unique, comme ZAO ou ReFace, qui placent les utilisateurs dans des scènes sélectionnées de films grand public ou de vidéos pop. Mais il s’agit ici de la première application de face-swapping dédiée à la pornographie. Un nouveau cap est franchi. Elle est « faite sur mesure » pour créer des images pornographiques de personnes sans leur consentement.
Cette application est incroyablement facile à utiliser. Une fois qu’un utilisateur a téléchargé la photo d’un visage, le site ouvre une bibliothèque de vidéos pornographiques. La grande majorité d’entre elles mettent en scène des femmes, mais un petit nombre d’entre elles mettent également en scène des hommes, principalement dans des pornos gays. L’utilisateur peut ensuite sélectionner n’importe quelle vidéo pour obtenir en quelques secondes un aperçu du résultat de l’échange de visage, et payer pour télécharger la version complète. Les résultats sont loin d’être parfaits. De nombreux échanges de visages sont manifestement faux, avec des visages qui brillent et se déforment sous différents angles. Mais pour un observateur occasionnel, certains sont suffisamment subtils pour passer, et la trajectoire des deepfakes a déjà montré à quelle vitesse ils peuvent devenir indiscernables de la réalité.
Les conséquences pour les femmes et les jeunes filles visées par ce type d’activité peuvent être écrasantes. Sur le plan psychologique, ces vidéos peuvent être ressenties comme aussi violentes que le porno de vengeance – de véritables vidéos intimes filmées ou diffusées sans consentement. Et les victimes peuvent en garder des séquelles toute leur vie. Les images et les vidéos sont difficiles à supprimer de l’internet et de nouveaux contenus peuvent être créés à tout moment. Le deepfake porn non consensuel peut également avoir des répercussions économiques et professionnelles.