Comment l’IA pourrait être utilisée pour produire des fake news en masse

Image parJohn Iglar de Pixabay

En 2017, une campagne de désinformation en ligne s’est propagée contre les « Casques blancs », affirmant que le groupe de bénévoles constituait en réalité un bras des gouvernements occidentaux pour semer l’agitation en Syrie. Cette fausse information était convaincante. Mais l’organisation russe à l’origine de la campagne s’est finalement trahie parce qu’elle a répété le même texte sur de nombreux faux sites d’information différents. Aujourd’hui, les chercheurs des meilleurs laboratoires d’intelligence artificielle (IA) du monde mettent au point une technologie qui permet d’imiter l’écriture humaine, ce qui pourrait potentiellement aider les campagnes de fake news à passer inaperçues en générant des quantités énormes de messages subtilement différents.

Des géants technologiques comme Facebook et les gouvernements du monde entier luttent contre la désinformation, sur des sujets divers comme les vaccins ou l’incitation à la violence sectaire. Comme l’IA devient de plus en plus puissante, les experts craignent que les fake news générées par l’I.A. amplifie encore un problème déjà complexe. Ces derniers mois, 2 importants laboratoires, OpenAI à San Francisco et l’Allen Institute for Artificial Intelligence à Seattle, ont construit des exemples particulièrement puissants de cette technologie.

Les chercheurs ont déjà montré que les machines pouvaient produire des images et des sons non distingables de la réalité, ce qui pourrait accélérer la création de fake news. Le mois dernier, des chercheurs d’une entreprise canadienne, Dessa, ont construit un système qui a appris à imiter la voix du podcasteur Joe Roganby en analysant la piste audio de ses anciens podcasts. C’était une imitation d’une précision choquante. Quelque chose de similaire est en train de se passer sur le texte. OpenAI et l’Institut Allen, en collaboration avec Google, mènent un effort pour construire des systèmes capables de comprendre complètement la façon naturelle dont les gens écrivent et parlent. Ces systèmes sont loin d’atteindre cet objectif, mais ils s’améliorent rapidement.

OpenAI soutient que la menace est imminente. Lorsque les chercheurs du laboratoire ont dévoilé leur outil cette année, ils ont communiqué théâtralement qu’il était trop dangereux pour en laisser l’accès, que le monde n’était pas prêt.

La suite ici (Cade Metz & Scott Blumenthal)

(Visited 27 times, 1 visits today)
Avatar photo

Fondateur paris-singularity.fr👁️‍🗨️Entrepreneur social trackant les deep techs

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *