Monika Bickert, vice-présidente de la gestion des politiques mondiales de Facebook, a récemment annoncé que les deepfakes allaient rejoindre la nudité, les discours haineux et la violence graphique dans la liste des catégories de contenu interdit de Facebook.
Au cours des dernières années, l’entreprise a acquis la réputation de ne réagir aux problèmes qu’après qu’ils aient publiquement explosé au visage de Mark Zuckerberg ; qu’il s’agisse de la diffusion de discours haineux, de campagnes d’influence russes ou de violations de données. Pour aller à l’encontre de cette politique, une vidéo doit répondre à deux critères : elle doit être manipulée » d’une manière qui n’est pas identifiable par une personne ordinaire et qui pourrait induire quelqu’un en erreur en lui faisant croire qu’un sujet de la vidéo a dit des mots qu’il n’a pas vraiment prononcés « , et elle doit être » le produit de l’intelligence artificielle ou de l’apprentissage machine « . Cette interdiction laisse de côté les vidéos dites « shallow fake » ou « cheap fakes », le genre montages que les humains sont déjà habiles à créer et à diffuser.
En ce qui concerne les deepfakes, il reste à voir si la nouvelle interdiction de Facebook sera à la hauteur. La question n’est pas seulement de savoir si la technologie de détection de la plateforme peut détecter de manière fiable les fausses vidéos compatibles avec l’IA (la société organise actuellement un concours, en collaboration avec Microsoft et des institutions universitaires pour encourager les chercheurs à trouver de meilleures méthodes), mais aussi de savoir si les utilisateurs feront confiance à ses explications sur les raisons pour lesquelles certains contenus sont retirés.