Ne rendons pas l’IA artificiellement stupide au nom de la transparence

Black box image from berardo museum_lisboa from lybardon

Des systèmes d’intelligence artificielle (IA) vont faire s’écraser certaines de nos voitures, et parfois ils vont recommander des peines plus longues pour les Noirs que pour les Blancs. Nous le savons parce qu’ils se sont déjà trompés de cette façon. Mais cela ne signifie pas pour autant que nous devions exiger que l’IA puisse obligatoirement expliquer comment elle a tiré ses conclusions. Exiger l’explicabilité peut sembler une bonne chose, mais pour y parvenir, il peut être nécessaire de rendre l’IA artificiellement stupide.

Or, un nivellement par le bas de cette technologie pourrait signifier ne pas diagnostiquer les maladies, négliger les causes importantes du changement climatique ou dégrader notre système éducatif. Tirer pleinement partie de la puissance de l’apprentissage automatique pourrait bien signifier s’appuyer sur des résultats qui sont littéralement impossibles à expliquer. L’apprentissage machine, en particulier ce qu’on appelle l’apprentissage en profondeur, permet d’analyser les données issues de milliers de variables, de les organiser en tableaux extrêmement complexes et sensibles de relations pondérées, puis d’exécuter ces tableaux de façon répétée sur des réseaux neuronaux informatiques. Pour comprendre le résultat (pourquoi le système pense qu’il y a 73 % de chances que vous développiez le diabète ou 84 % de chances qu’un coup d’échecs mène éventuellement à la victoire) il faudrait comprendre les relations entre ces milliers de variables calculées par de multiples passages dans de vastes réseaux neuraux. Notre cerveau ne peut tout simplement pas appréhender autant d’informations à la fois.

Les explications sont des “outils” : nous les utilisons pour atteindre un objectif. Avec l’apprentissage machine, les explications peuvent aider les développeurs à débuguer un système qui a mal tourné. Mais des explications peuvent aussi servir à juger si un résultat est fondé sur des facteurs qui ne devraient pas compter (sexe, race, etc., selon le contexte) et à évaluer la responsabilité. Il existe cependant d’autres moyens d’atteindre le résultat souhaité sans entraver la capacité des systèmes d’apprentissage automatique à nous aider.

Disons que les élus déterminent que les systèmes de véhicules autonomes devraient être conçus pour réduire le nombre de tués sur les routes américaines (37 000 en 2016). Si le nombre de décès diminue de façon spectaculaire, les voitures autotractées pourraient réduire de 90 % le nombre de décès sur la route, selon McKinsey. Désormais, la régulation de l’optimisation des véhicules autonomes sera plus complexe que cela. Il faudra probablement définir une hiérarchie de priorités : d’abord réduire le nombre de tués, puis le nombre de blessés, puis l’impact sur l’environnement, puis le temps de conduite, et ainsi de suite. Quel que soit le résultat, il est crucial que les processus démocratiques existants, et non les intérêts commerciaux, déterminent les optimisations. Supposons que le nombre de victimes de la route passe de 37 000 à 5 000, mais que les personnes de couleur représentent un nombre nettement disproportionné des victimes. Ou supposons qu’un système d’IA qui élimine les candidats à un emploi sélectionne des personnes dignes d’être interviewées, mais que seul un faible pourcentage d’entre elles soient des femmes. Nous devons également contraindre ces systèmes à soutenir nos valeurs fondamentales.

Étant donné la complexité des réseaux transitoires de véhicules autonomes, il n’y a peut-être aucun moyen d’expliquer pourquoi c’est votre tante Ida qui est morte dans ce carambolage. Mais nous ne voudrions pas non plus sacrifier 1 000 ou 10 000 personnes de plus par an pour rendre le système de circulation explicable aux humains. En traitant la gouvernance de l’IA comme une question d’optimisation, nous pouvons concentrer l’argument nécessaire sur ce qui compte vraiment : Qu’attendons-nous d’un système et que sommes-nous prêts à abandonner pour l’obtenir ?

La suite ici (David Weinberger)

(Visited 34 times, 1 visits today)
Avatar photo

Fondateur paris-singularity.fr👁️‍🗨️Entrepreneur social trackant les deep techs

1 commentaire

  1. Je suis d’accord avec vous. C’est pour cela que pour moi la définition de IA n’est pas Intelligence Artificielle mais plutôt soit Intelligence Assistée soit Intelligence Augmentée qui agit à aider l’Intelligence Humaine pour de meilleures prises de décisions

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

%d blogueurs aiment cette page :