Les visages humains synthétiques sont si convaincants qu’ils trompent même des observateurs expérimentés

ddep tech innovation avatar
ddep tech innovation avatar
Image by Pete Linforth from Pixabay

Technologie sans conscience n’est que ruine de l’Homme.

Pourquoi cet article est intéressant ?  L. Bardon . – Début 2019, Google déclarait avoir commencé à limiter l’accès d’une partie du code publié par ses chercheurs en IA pour éviter qu’il ne soit utilisé de façon inappropriée. La prudence persistante à l’égard de l’IA contraste avec la façon dont Google a continué de s’étendre dans de nouveaux secteurs d’activité, comme les soins de santé et les services bancaires, alors même que les organismes de réglementation et les législateurs parlent de mesures antitrust contre les entreprises technologiques. Entre-temps, les mêmes progrès réalisés dans les GANs en 2018 ont conduit à la prolifération de deepfakes hyperréalistes, qui sont maintenant utilisés pour cibler les femmes et éroder notre capacité de distinguer le faux du vrai. Pour prévenir de tels abus, les entreprises qui travaillent sur des directives éthiques pour les systèmes et outils alimentés par l’IA devraient faire participer des utilisateurs du monde entier à la création de normes appropriées pour régir ces systèmes. Elles devraient également être conscientes de la manière dont ces directives s’appliquent différemment en fonction des contextes.

❌Depuis le début, les deepfakes ont principalement été utilisés pour créer des représentations pornographiques de femmes. À mesure que la technologie a progressé, de nombreux outils sans code et donc faciles à utiliser sont également apparus, permettant aux utilisateurs de “déshabiller” les corps féminins dans les images. Nombre de ces services ont depuis été mis hors ligne. Mais le code existe toujours dans des dépôts de logiciels libres et continue de refaire surface sous de nouvelles formes. Le dernier site de ce type a reçu plus de 6,7 millions de visites en août dernier, selon la chercheuse Genevieve Oh, qui l’a découvert. Il n’a pas encore été mis hors ligne. En septembre dernier, le MIT Technology Review publiait un article sur une application de face-swapping dédiée à la pornographie qui franchit un cap. Cette dernière est “faite sur mesure” pour créer des images pornographiques de personnes sans leur consentement.

 ✅L’IA pourrait générer des visages qui correspondent avec l’expression de sujets anonymes pour leur garantir la vie privée, sans dégrader la qualité de leur expression. Anonymiser un visage protège l’identité d’une personne. Mais les techniques traditionnelles, comme le flou et la pixellisation, sont soit incomplètes (l’identité de la personne peut de toute façon être découverte), soit elles dépouillent complètement la personnalité de la personne qui s’exprime en supprimant les expressions du visage. Parce que les GAN n’utilisent pas du tout le visage original du sujet, ils éliminent ces problèmes. Cette technique dévoile également une nouvelle proposition de valeur pour les GAN, qui ont acquis la mauvaise réputation de rendre facile la génération de fausses informations très crédibles.

🌊Le présent est la bêta version du futur.


Synthèse

Des sytèmes d’IA peuvent créer des visages humains si réalistes que les gens ne peuvent les distinguer des vrais visages. Pire, ils font même davantage confiance aux faux visages. Les visages humains fictifs générés par ordinateur sont si convaincants qu’ils trompent même des observateurs entraînés. Ils peuvent être facilement téléchargés en ligne et utilisés pour mettre en place des escroqueries sur Internet ou de faux profils sur les médias sociaux. Les programmes d’IA appelés “generative adversarial networks” (GAN) peuvent apprendre à créer de fausses images qui se distinguent de moins en moins des images réelles, en opposant deux réseaux neuronaux.

Nightingale et son collègue Hany Farid, de l’Université de Californie à Berkeley, ont ainsi demandé à 315 participants, recrutés sur un site Web de crowdsourcing, d’essayer de distinguer 400 fausses photos parmi une sélection de 800 photos. Chaque série était composée de 100 personnes appartenant à chacun des quatre groupes ethniques suivants : Blancs, Noirs, Asiatiques de l’Est et Asiatiques du Sud.

Un groupe a obtenu un taux de précision de 48,2 %, soit un peu moins que le hasard. Un second groupe de 219 participants a été formé à la reconnaissance de visages générés par ordinateur. Ce groupe a obtenu un taux de précision de 59 %, mais cette différence est négligeable, précise M. Nightingale. Les chercheurs ont également demandé à un autre groupe de 223 participants d’évaluer le degré de fiabilité d’une sélection des mêmes visages, sur une échelle de 1 à 7. Ils ont évalué les faux visages comme étant 8 % plus dignes de confiance, en moyenne, que les vrais visages – une différence minime mais significative, selon Nightingale.

Enfin, si l’on considère les extrêmes, les quatre visages jugés les moins dignes de confiance étaient réels, tandis que les trois visages les plus dignes de confiance étaient faux.

La suite ici (Christa Lesté-Lasserre)

(Visited 1 times, 1 visits today)
Avatar photo

Fondateur paris-singularity.fr👁️‍🗨️Entrepreneur social trackant les deep techs

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

%d blogueurs aiment cette page :