Pour les géants du web comme Google, trouver des outils pour identifier du contenu deepfake est devenu urgent. Si quelqu’un veut diffuser une fausse vidéo à grande échelle, YouTube de Google ou les plateformes de médias sociaux de Facebook sont d’excellents endroits pour le faire. Les deepfakes (un terme qui décrit généralement des vidéos trafiquées avec une IA de pointe) remettent déjà en cause les principes nous permettant de distinguer le vrai du faux.
Ces derniers mois, des preuves vidéo ont été au centre d’incidents importants au Brésil, au Gabon, en Afrique centrale et en Chine. Chacune posant la même question : la vidéo est-elle réelle ? Le président gabonais, par exemple, était à l’étranger pour des soins médicaux et son gouvernement a publié une soi-disant vidéo de preuve de vie. Les opposants ont prétendu qu’elle avait été falsifiée. Les experts appellent cette confusion « le dividende du menteur ».
Aujourd’hui, les technologies d’IA rationalisent le processus, réduisant le coût, le temps et les compétences nécessaires à la manipulation des images numériques. Ces systèmes d’IA apprennent par eux-mêmes à construire de fausses images en analysant des milliers d’images réelles. Cela signifie qu’ils peuvent gérer une partie de la charge de travail qui incombait autrefois aux techniciens formés. Et cela signifie que les gens peuvent créer beaucoup plus de faux contenu qu’avant.
Les technologies utilisées pour créer les deepfakes sont encore relativement nouvelles et les résultats sont souvent faciles à remarquer. Mais la technologie évolue. Bien que les outils utilisés pour détecter ces fausses vidéos évoluent également, certains chercheurs craignent de ne pas pouvoir suivre le rythme. La technologie s’est améliorée à un rythme qui surprend les experts en IA, et il y a peu de raisons de croire qu’elle va ralentir. Les deepfakes devraient bénéficier de l’un des rares axiomes de l’industrie technologique qui ont résisté au fil des ans : les ordinateurs deviennent toujours plus puissants et il y a toujours plus de données. C’est ce qui rend plus efficace ce qu’on appelle le logiciel d’apprentissage machine qui aide à créer des deepfakes.
Les détecteurs peuvent également s’améliorer à pas de géant. Mais cela exige un flux constant de nouvelles données représentant les dernières techniques de deepfake utilisées sur Internet, a déclaré le Dr Niessner et d’autres chercheurs. Il peut être difficile de recueillir et de partager les bonnes données. Les exemples pertinents sont rares et, pour des raisons de confidentialité et de droit d’auteur, les entreprises ne peuvent pas toujours partager des données avec des chercheurs externes.