Une nouvelle façon de former les systèmes d’IA pourrait mieux les préserver des cyberattaques

deep tech innovation IA cybersécurité
deep tech innovation IA cybersécurité
Image par VIN JD de Pixabay

L. Bardon . – L’IA est-elle une menace pour la démocratie ? En 2017, une campagne de désinformation en ligne s’est propagée contre les “Casques blancs”, affirmant que le groupe de bénévoles constituait en réalité un bras armé des gouvernements occidentaux pour semer l’agitation en Syrie. Si cette fausse information était convaincante, l’organisation russe à l’origine de la campagne s’est finalement trahie parce qu’elle a répété le même texte sur de nombreux faux sites d’information différents. Depuis, les chercheurs d’OpenAI ont mis au point une technologie qui permet d’imiter l’écriture humaine, ce qui pourrait potentiellement aider les campagnes de fake news à passer inaperçues en générant des quantités énormes de messages subtilement différents. Pour lutter contre la désinformation et leur responsabilité, les géants technologiques comme Facebook veulent confier la détection de fake news à des algorithmes.

Un des défauts majeurs et non résolus de l’apprentissage en profondeur c’est sa vulnérabilité aux attaques antagonistes. Ajoutées en entrée d’un système d’IA, ces perturbations, apparemment aléatoires ou indétectables à l’œil humain, peuvent faire complètement dérailler le système. Des autocollants placés stratégiquement sur un panneau d’arrêt, par exemple, peuvent tromper une voiture autonome et lui faire voir un panneau de limitation de vitesse à 45 miles par heure.

Bo Li (nommée cette année parmi les innovateurs de moins de 35 ans dans la revue technologique du MIT) et ses collègues de l’université de l’Illinois à Urbana-Champaign proposent maintenant une nouvelle méthode pour former ces systèmes d’apprentissage en profondeur afin qu’ils soient plus résistants aux défaillances et donc plus fiables dans les scénarios critiques pour la sécurité. Ils opposent le réseau de neurones responsable de la reconstruction des images à un autre réseau de neurones responsable de la génération d’exemples antagonistes, dans un style similaire aux algorithmes GAN. Par des cycles itératifs, le réseau antagoniste tente de tromper le réseau de reconstruction en produisant des éléments qui ne font pas partie des données originales. Le réseau de reconstruction s’ajuste continuellement pour éviter d’être trompé, ce qui rend son déploiement dans le monde réel plus sûr.

La suite ici (Karen Hao)

(Visited 22 times, 1 visits today)
Avatar photo

Fondateur paris-singularity.fr👁️‍🗨️Entrepreneur social trackant les deep techs

%d blogueurs aiment cette page :