L’IA pourrait-elle nous protéger des fake news ?

deep tech innovation
deep tech innovation
Image par PublicDomainPictures de Pixabay

L. Bardon . – L’oeuf ou la poule ? Toute solution technologique implique une sorte de course à l’armement de l’IA. Si la startup Deeptrace considère les réseaux antagonistes génératifs comme un outil majeur pour détecter les deepfakes, la même technologie d’échange de visage ” deepfake ” ouvre la voix à la création massive de fausses vidéos convaincantes de politiciens disant ou faisant des choses qui ne se sont jamais produites dans la vraie vie. Certains régulateurs et banques centrales s’inquiètent également de plus en plus de la possibilité que les deepfakes perturbent les marchés. Certains groupes et banques fintech, dont HSBC, ont déjà commencé à se préparer à cette menace, a rapporté le Financial Times en septembre. Les menaces potentielles se présentent sous différentes formes : des comptes frauduleux pourraient être créés à des fins de blanchiment d’argent ; des comptes appartenant à des personnes très en vue pourraient être détournés ; ou des entreprises pourraient être amenées par la ruse à envoyer des fonds à des escrocs.

Les algorithmes d’apprentissage automatique sont capables de détecter la désinformation à partir du style d’écriture et de la façon dont les articles sont partagés. Sur des sujets aussi variés que le changement climatique et la sécurité des vaccins, nous sommes exposés à des vagues de désinformation sur tous les médias sociaux. La confiance dans les sources d’information conventionnelles peut sembler plus faible que jamais, mais les chercheurs travaillent sur des moyens d’y remédier. Ils ont testé des outils d’intelligence artificielle (IA) qui pourraient aider à filtrer les informations légitimes. Mais dans quelle mesure l’IA est-elle fiable lorsqu’il s’agit d’arrêter la diffusion de fausses informations ?

Des chercheurs du Rensselaer Polytechnic Institute (RPI) et de l’université du Tennessee ont collaboré pour étudier le rôle de l’IA dans l’aide apportée aux personnes pour déterminer si les informations qu’elles lisent sont légitimes ou non. L’étude a révélé que l’IA ne parvenait à repérer les fake news que si le lecteur n’avait pas déjà une opinion sur le sujet. Lorsque les sujets de l’étude étaient déjà fixés dans leurs convictions, le biais de confirmation les empêchait de réévaluer leurs opinions.

La suite ici (Brian T. Horowitz) 

(Visited 59 times, 1 visits today)
Avatar photo

Fondateur paris-singularity.fr👁️‍🗨️Entrepreneur social trackant les deep techs

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *