L’IA au secours des élections américaines de 2020 pour détecter les deepfakes

La technologie d’échange de visage  » deepfake  » devenue populaire sur les sites pornographiques ouvre la voix à la création de fausses vidéos convaincantes de politiciens disant ou faisant des choses qui ne se sont jamais produites dans la vraie vie. L’augmentation récente du nombre de deepfakes induites par l’IA, qui peuvent transformer des célébrités et des politiciens hollywoodiens en marionnettes numériques, montre la nécessité de créer des méthodes de vérifications supplémentaires des faits à l’aide de technologies de détection induites par l’IA. Une startup basée à Amsterdam, Deeptrace, a pour objectif de devenir l’un des points de vente incontournables de ces technologies de détection des deepfakes.

Une grande partie du travail sur les deepfakes s’est concentrée sur l’échange de visage et les altérations de l’expression faciale. Mais Deeptrace voit le problème des deepfakes comme un problème plus large incluant la marionnette numérique reproduisant les mouvements du corps humain et la synthèse de faux sons qui imitent les voix de personnes réelles. De sorte que certains experts craignent que des deepfakes vraiment convaincants puissent dégrader la confiance du public et accroître la désinformation, comme lors des élections présidentielles, d’une manière qui menace les fondations des institutions démocratiques et la gouvernance.

Toute solution technologique implique une sorte de course aux armements de l’IA. Par exemple, Deeptrace considère les réseaux antagonistes génératifs utilisés pour créer les deepfakes comme un outil majeur pour détecter les deepfakes. Le  » logiciel antivirus pour deepfakes  » de Deeptrace fait partie d’un large portefeuille de solutions, incluant une base de données des attaques connues et populaires basées sur les algorithmes deepfake existants. Un autre projet consiste à créer une base de données avec des modèles personnalisés basés sur des célébrités, des politiciens et d’autres personnalités publiques, afin de mieux former les algorithmes d’analyse vidéo pour détecter les anomalies liées aux deepfakes. Deeptrace explore même la possibilité d’apparier des canaux audio et vidéo pour améliorer la précision de la détection des deepfakes.

L’abus potentiel des deepfakes pourrait s’aggraver à mesure que la technologie évolue. Deeptrace a observé le développement open-source de deepfakes qui pourraient être diffusés en temps réel lors d’un événement en direct hébergé sur un logiciel de vidéoconférence commun. Il ne faudra pas beaucoup plus longtemps avant qu’une telle technologie deepfakes ne devienne disponible par le biais d’applications pour smartphones que n’importe qui l’utilise.

La Defense Advanced Research Projects Agency (DARPA) des États-Unis a ouvert la voie en finançant des recherches dans le cadre de son projet Media Forensics axé sur le dépistage automatique des vidéos truquées. En 2018, plusieurs établissements universitaires ont commencé à publier des ensembles de données de formation vidéo pour la détection des deepfakes.

La suite ici (Jeremy Hsu)

(Visited 45 times, 1 visits today)
Avatar photo

Fondateur paris-singularity.fr👁️‍🗨️Entrepreneur social trackant les deep techs

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *