La Chine intensifie ses efforts pour interdire les “deepfakes”. Cela fonctionnera-t-il ?

deep tech innovation
deep tech innovation
Image par Vojtěch Kučera de Pixabay

Technologie sans conscience n’est que ruine de l’Homme.

Pourquoi cet article est intéressant ?  L. Bardon . – Les fausses vidéos, connues sous le nom de deepfakes, montrent de façon frappante la façon dont l’IA peut bouleverser notre perception du vrai et du faux. Le terme provient d’un compte Reddit qui, fin 2017, a publié des clips vidéo pornographiques en y superposant les visages d’actrices d’Hollywood. L’outil d’apprentissage machine, fait maison, utilisé pour créer ces premiers deepfakes a rapidement été rendu public. Depuis, des preuves vidéo ont été au centre d’incidents importants au Brésil, au Gabon, en Afrique centrale et en Chine par exemple. Pour les géants du web comme Google, trouver des outils pour identifier du contenu deepfake est donc devenu urgent. Aujourd’hui, les technologies d’IA rationalisent le processus, réduisant le coût, le temps et les compétences nécessaires à la manipulation des images numériques. Ces systèmes d’IA apprennent par eux-mêmes à construire de fausses images en analysant des milliers d’images réelles. Cela signifie qu’ils peuvent gérer une partie de la charge de travail qui incombait autrefois aux techniciens formés. Et cela signifie que les gens peuvent créer beaucoup plus de faux contenu qu’avant.

❌Depuis des années, les experts tirent la sonnette d’alarme sur la faiblesse de la sécurité des données biométriques. Le problème s’est avéré particulièrement pernicieux en Chine, où la reconnaissance faciale est largement utilisée à des fins d’identification. Bien que les menaces réelles soient rares, elles ne sont pas purement théoriques. Dans un cas inhabituel, des fraudeurs ont utilisé en 2020 un logiciel basé sur l’intelligence artificielle pour tromper par téléphone le PDG d’une entreprise énergétique basée au Royaume-Uni. Le PDG pensait parler au directeur de sa société mère allemande et a fini par envoyer 220 000 euros (242 000 dollars) à ce qu’il croyait être un fournisseur. Le son, très feutré, imitait la voix du patron jusqu’à son léger accent allemand.

✅ La technologie de détection des deepfakes de Facebook est supposé pouvoir détecter de manière fiable les fausses vidéos. Pour aller à l’encontre de ces dernières, une vidéo doit répondre à deux critères : elle doit être manipulée ” d’une manière qui n’est pas identifiable par une personne ordinaire et qui pourrait induire quelqu’un en erreur en lui faisant croire qu’un sujet de la vidéo a dit des mots qu’il n’a pas vraiment prononcés “, et elle doit être ” le produit de l’intelligence artificielle ou de l’apprentissage machine “. Cette interdiction laisse de côté les vidéos dites “shallow fake” ou “cheap fakes”, le genre montages que les humains sont déjà habiles à créer et à diffuser. Mais la problématique n’est plus tant celle de la fiabilité de la technologie que de savoir si les utilisateurs feront confiance aux explications de la plateforme sur les raisons pour lesquelles certains contenus sont retirés.

🌊Le présent est la bêta version du futur.


Synthèse

Pékin a récemment intensifié ses efforts pour limiter le pouvoir des entreprises technologiques. Quatre hauts responsables de la réglementation de l’internet ont publié de nouvelles règles sur l’utilisation des algorithmes du type de ceux derrière des produits populaires comme l’agrégateur d’informations Toutiao de ByteDance et le site de microblogging Weibo. La réglementation chinoise, la première du genre dans le monde, entend atténuer l’influence des algorithmes sur le comportement des utilisateurs, une tendance qui inquiète les gouvernements du monde entier. Elle diffère des autres réglementaions de par son ambition et son manque d’expérience. En vertu des nouvelles règles, il est interdit aux plateformes sociales comme Douyin, la version chinoise de TikTok, d’inclure du contenu “synthétique” dans leurs recommandations. Aux États-Unis et dans d’autres juridictions, il existe peu de recours pour les préjudices causés par les “deepfakes”, et les lois existantes font largement porter la responsabilité de la mise en ligne de faux contenus aux créateurs, ce qui protège des entreprises comme Facebook et Twitter. La nouvelle réglementation chinoise fait porter cette responsabilité sur les plateformes. En vigueur à partir du 1er mars, ces règles s’appliqueron aux plateformes internet qui utilisent des algorithmes de recommandation en Chine.

Pourquoi cette nouvelle politique ?

Une interdiction antérieure interdisait déjà aux sites de diffusions d’information d’utiliser des outils tels que l’apprentissage automatique et la réalité virtuelle pour créer ou partager de fausses informations et les obligeait à les étiqueter si elles étaient détectées. Les nouvelles règles précisent que les plateformes qui utilisent de grandes quantités de données pour personnaliser le contenu ne peuvent pas utiliser leurs algorithmes pour générer des fake news. La réglementation vise la diffusion de fausses informations qui pourraient conduire à des escroqueries ou à l’instabilité sociale. Mais elle pourrait aussi pénaliser la créatiité, la satire ou l’expression de la dissidence?

A quelle problème répond-elle concrètement ?

Les deepfakes et les médias diffiusant des informations à des fins de manipulation sont notoirement difficiles à détecter. L’IA a besoin d’un volume important de données d’exemples pour apprendre. De fait, seules les plus grandes plateformes disposent des outils et des ensembles de données nécessaires pour détecter les informations inventées de toutes pièces. Même les algorithmes de détection les plus sophistiqués ne sont pas encore très précis. La détection automatisée des “deepfakes” n’est devenue possible qu’au cours des trois ou quatre dernières années. Les nouvelles règles laissent la possibilité au gouvernement d’auditer les algorithmes des plateformes pour s’assurer qu’ils ciblent et suppriment les “faux” contenus. Certaines violations, comme le fait qu’un algorithme utilise des mots clés discriminatoires pour cibler les utilisateurs, sont difficiles à déterminer sans examiner le code de l’algorithme. Enfin, la loi exige également que les algorithmes de recommandation qui ont une influence sur “l’opinion publique” soient soumis à un examen de sécurité, mais les détails requis ne sont pas clairs.

Quelles sont les conséquences du non respect de la réglementation ?

S’il s’avère que les plateformes ne respectent pas les règles, elles s’exposent à des pénalités pouvant aller jusqu’à 100 000 RMB (environ 15 600 dollars) ainsi qu’à des poursuites pénales. Elles sont également tenues de se conformer aux demandes de correction des informations, de cesser les mises à jour ou l’ajout de nouveau contenu, et de se soumettre à des examens de sécurité, selon l’infraction.

Les gouvernements confrontés à des problèmes similaires de faux contenu ont-ils quelque chose à apprendre ?

Bien que la Chine soit le premier pays à mettre en place ce type de politique, elle est loin d’être le seul pays à tenter de résoudre ce problème. Les législateurs des États-Unis, du Royaume-Uni et de l’Union européenne ont tous commencé à élaborer des réglementations et des propositions visant à limiter le pouvoir des algorithmes et à lutter contre les “deepfakes”, même si les protections existantes pour les plateformes et la liberté d’expression empêcheraient probablement toute loi aussi radicale que celle de la Chine. Mais après une année de répression des entreprises technologiques, Pékin a démontré sa volonté d’utiliser les réglementations pour effacer des milliards de capitalisation boursière des plus grandes entreprises technologiques du pays, afin qu’elles restent alignées avec les objectifs du gouvernement.

La suite ici (Vittoria Elliott)

(Visited 32 times, 1 visits today)
Avatar photo

Fondateur paris-singularity.fr👁️‍🗨️Entrepreneur social trackant les deep techs

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

%d blogueurs aiment cette page :