Les fausses vidéos connues sous le nom de deepfakes sont de puissants exemples de la façon dont l’IA peut bouleverser notre perception habituelle du vrai et du faux. Le terme provient d’un compte Reddit du même nom qui, fin 2017, a publié des clips vidéo pornographiques en y superposant les visages d’actrices d’Hollywood. L’outil d’apprentissage machine fait maison utilisé pour créer ces premiers deepfakes a rapidement été publié publiquement. Les clips deepfakes sont maintenant un élément de base des sites pornographiques et de YouTube.
Le potentiel de nuisance a inspiré à certaines personnes de travailler sur la technologie pour détecter les deepfakes et autres parodies créées via l’IA, qu’il s’agisse de vidéos, de visages ou de voix. Ainsi, Sleepwalkers travaille sur la façon dont les caméras qui signent cryptographiquement chaque image pourraient appuyer la source de la vidéo ou des images. Hany Farid, un éminent spécialiste de la détection de fausses photos, explique comment la création d' »empreintes digitales » du langage corporel caractéristique de politiciens comme Elizabeth Warren pourrait faciliter la détection de faux clips de ces personnes.