L’hystérie autour du futur de l’intelligence artificielle (IA) est omniprésente. Les nouvelles sensationnalistes sur la capacité de l’IA à guérir les maladies, accélérer l’innovation et améliorer la créativité s’enchaînent. Si l’on se fie aux titres en une des journaux, nous vivrions déjà dans un futur où notre société est infiltrée par l’IA. Alors que l’IA a ouvert une multitude d’opportunités prometteuses, elle est de plus en plus considérée comme la solution ultime à tous les maux de notre société à condition que les algorithmes d’apprentissage machine soient suffisamment nourris de données. Ce postulat pose un gros problème. Plutôt que de soutenir les progrès de l’IA, il met l’IA en danger en ignorant des principes importants de sécurité et en fixant des attentes irréalistes.
En quelques années seulement, le solutionnisme IA s’est répandu parmi les évangélistes de la Silicon Valley les responsables gouvernementaux et les décideurs politiques du monde entier. Les gouvernements s’engagent maintenant à soutenir les initiatives nationales en matière d’IA et à participer à une course à l’armement technologique et rhétorique pour dominer le secteur florissant de l’apprentissage machine. Pendant ce temps, le gouvernement chinois augmente ses prouesses en matière d’IA grâce à un plan national visant à créer une industrie chinoise de l’IA d’une valeur de 150 milliards de dollars d’ici 2030. De nombreux pays espèrent dominer la 4e révolution industrielle. Le solutionnisme de l’IA est en haut d’un piédestal dont il n’est pas prêt de descendre.
Les réseaux neuronaux constituent l’une des sous catégories d’IA les plus prometteuses. Cette forme d’apprentissage machine est modélisée en s’inspirant de la structure neuronale du cerveau humain, mais à une échelle beaucoup plus petite. De nombreux produits basés sur l’IA utilisent des réseaux neuronaux pour déduire des modèles et des règles à partir de grands volumes de données. Mais ce que beaucoup de politiciens ne comprennent pas, c’est que le simple fait de confier le traitement d’un problème à un réseau neuronal ne crée pas automatiquement une solution. Le déploiement massif de réseaux neuronaux ne rendra instantanément nos institutions gouvernementales plus agiles ou plus efficaces, plus inclusive, plus équitable ou plus personnalisée. Considérez, par analogie, la transformation d’un centre commercial physique en une entreprise comme Amazon. Le simple lancement d’un site Web ne suffit pas pour devenir une web-entreprise. Il faut quelque chose de plus.
Les systèmes d’IA ont besoin de beaucoup de données pour fonctionner. Mais le secteur public ne dispose généralement pas de l’infrastructure de données appropriée pour soutenir l’apprentissage machine avancé. La plupart de ces données restent stockées dans des archives qui ne sont pas en ligne. Les quelques sources de données numérisées qui existent son enfouies dans les méandres bureaucratiques. Le plus souvent, les données sont réparties entre différents ministères, chacun nécessitant une autorisation spéciale pour y avoir accès. Par-dessus tout, le secteur public ne dispose généralement pas des talents humains pour tirer pleinement parti de l’IA. En outre, l’une des nombreuses difficultés que pose le déploiement de systèmes d’apprentissage machine réside dans les risques liés aux attaques adverses. Imaginez qu’une IA malveillante cible une autre IA pour la forcer à faire des prédictions erronées ou à se comporter d’une certaine manière.
Si nous voulons récolter les bénéfices de l’IA et minimiser ses inconvénients potentiels, nous devons commencer à réfléchir à la façon dont l’apprentissage machine peut être appliqué à des domaines spécifiques parmi tous les pans de notre société. Il est donc indispensable d’initier un débat public autour de l’éthique de l’IA pour aussi combattre la méfiance naturelle de nombreuses personnes à l’égard de l’apprentissage machine. Plus important encore, nous devons être conscients des limites de l’IA et des domaines dans lesquels les humains doivent encore prendre les devants. Même Facebook a récemment déclaré que l’IA n’était pas la panacée.
La suite ici (Vyacheslav Polonski)