Google a récemment publié une base de données open-source contenant 3000 vidéos originales manipulées dans le cadre de ses efforts pour accélérer le développement d’outils de détection des deepfakes. Google a travaillé avec 28 acteurs pour enregistrer des vidéos d’eux en train de parler, de faire des expressions communes, et d’effectuer des tâches banales. Google a ensuite utilisé des algorithmes deepfake accessibles au public pour modifier leurs visages.
Un peu plus tôt, Facebook a annoncé qu’il publierait une base de données semblable vers la fin de l’année. En janvier dernier, une équipe académique dirigée par un chercheur de l’Université technique de Munich en a créé un appelé FaceForensics+++ en utilisant quatre méthodes communes de manipulation faciale sur près de 1 000 vidéos YouTube compilées. Avec chacun de ces ensembles de données, l’idée est la même : créer un large corpus d’exemples pouvant aider à entraîner et tester des outils de détection automatisés. Mais une fois qu’une méthode de détection a été développée pour exploiter une faille d’un algorithme, ce dernier peut facilement être mis à jour pour la corriger.