Comment les deepfakes pourraient disrupter les marchés financiers

deep tech innovation deepfakes Facebook
deep tech innovation deepfakes Facebook
Image par analogicus de Pixabay

L. Bardon . – La technologie de détection des deepfakes de Facebook est supposé pouvoir détecter de manière fiable les fausses vidéos. Pour aller à l’encontre de ces dernières, une vidéo doit répondre à deux critères : elle doit être manipulée ” d’une manière qui n’est pas identifiable par une personne ordinaire et qui pourrait induire quelqu’un en erreur en lui faisant croire qu’un sujet de la vidéo a dit des mots qu’il n’a pas vraiment prononcés “, et elle doit être ” le produit de l’intelligence artificielle ou de l’apprentissage machine “. Cette interdiction laisse de côté les vidéos dites “shallow fake” ou “cheap fakes”, le genre montages que les humains sont déjà habiles à créer et à diffuser. Mais la problématique n’est plus tant celle de la fiabilité de la technologie que de savoir si les utilisateurs feront confiance aux explications de la plateforme sur les raisons pour lesquelles certains contenus sont retirés.

Depuis des années, les experts tirent la sonnette d’alarme sur la faiblesse de la sécurité des données biométriques. Le problème s’est avéré particulièrement pernicieux en Chine, où la reconnaissance faciale est désormais une forme d’identification omniprésente. Selon les experts, la montée en puissance des contrefaçons pourrait à présent créer de nouveaux problèmes. Malgré l’inquiétude généralisée que suscite la technologie, qui permet d’imiter la ressemblance d’une personne par le biais de l’audio et de la vidéo, il existe peu d’exemples concrets de pirates informatiques qui l’exploitent avec succès à des fins lucratives.

De nombreuses personnes travaillant dans le domaine de la cybersécurité réfléchissent également à ces problèmes. Dans une enquête menée auprès de 105 chefs de sécurité et publiée par le fournisseur d’authentification biométrique iProov en janvier, 77 % des personnes interrogées se sont dites préoccupées par l’impact potentiel de la vidéo, de l’audio et des images truquées. La menace la plus citée était l’autorisation frauduleuse des paiements et des transferts, selon l’enquête publiée par le fournisseur d’authentification biométrique iProov. Bien que les menaces réelles soient rares, elles ne sont pas purement théoriques. Dans un cas inhabituel l’année dernière, des fraudeurs ont utilisé un logiciel basé sur l’intelligence artificielle pour tromper par téléphone le PDG d’une entreprise énergétique basée au Royaume-Uni. Le PDG pensait parler au directeur de sa société mère allemande et a fini par envoyer 220 000 euros (242 000 dollars) à ce qu’il croyait être un fournisseur. Le son, très feutré, imitait la voix du patron jusqu’à son léger accent allemand.

Certains régulateurs et banques centrales s’inquiètent également de plus en plus de la possibilité que les deepfakes perturbent les marchés. Certains groupes et banques fintech, dont HSBC, ont déjà commencé à se préparer à cette menace, a rapporté le Financial Times en septembre. Les menaces potentielles se présentent sous différentes formes : des comptes frauduleux pourraient être créés à des fins de blanchiment d’argent ; des comptes appartenant à des personnes très en vue pourraient être détournés ; ou des entreprises pourraient être amenées par la ruse à envoyer des fonds à des escrocs.

Mais comme pour toute nouvelle technologie, les nouvelles formes de cyber-attaques se heurtent à de nouveaux moyens de défense. Les entreprises protègent notamment leurs utilisateurs en recourant à de multiples méthodes de vérification. Certains chercheurs et entreprises technologiques travaillent déjà sur des solutions telles que des algorithmes de détection capables de repérer des faux sophistiqués.

(Visited 88 times, 1 visits today)
Avatar photo

Fondateur paris-singularity.fr👁️‍🗨️Entrepreneur social trackant les deep techs

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *