Pourquoi demander à une IA de s’expliquer pourrait aggraver les choses

Image par Gerd Altmann de Pixabay

Le succès de l’apprentissage en profondeur est dû au bricolage : les meilleurs réseaux neuronaux sont modifiés et adaptés pour être optimisés de telle sorte que les résultats pratiques ont dépassé la compréhension théorique. Par conséquent, les détails du fonctionnement d’un modèle entraîné sont généralement inconnus. On en est venu à les considérer comme des boîtes noires. Si l’intelligence artificielle (IA) doit être utilisée pour faciliter la prise de décision en matière d’application de la loi, de diagnostic médical et pour les voitures autonomes, alors nous devons comprendre comment elle parvient à ces décisions et identifier quand elles sont mauvaises.

Une solution consiste à construire des systèmes d’apprentissage machine qui montrent leur fonctionnement : ce qu’on appelle des “boîtes de verre”, par opposition aux “boîtes noires” de l’IA. Les modèles “glassbox” sont généralement des versions très simplifiées d’un réseau de neurones dans lequel il est plus facile de suivre la façon dont les différentes données affectent le modèle.

Mais cela dépend du domaine. Si nous voulons tirer des enseignements de données désordonnées comme des images ou du texte, nous sommes coincés avec des réseaux neuronaux profonds et donc opaques. La capacité de ces réseaux à établir des connexions significatives entre un très grand nombre de caractéristiques disparates est liée à leur complexité.

Dans ce cas, l’apprentissage machine par la méthode de la boîte de verre pourrait être utile. Une solution consiste à effectuer deux passages sur les données, en entraînant un modèle de glassbox imparfait comme étape de débugage pour découvrir les erreurs potentielles que vous pourriez vouloir corriger. Une fois que les données ont été nettoyées, un modèle de boîte noire plus précis peut être entraîné.

C’est un équilibre délicat, cependant. Trop de transparence peut entraîner une surcharge d’informations. Une autre approche consiste à inclure des visualisations qui montrent quelques propriétés clés du modèle et de ses données sous-jacentes.

Les gens sont prêts à faire confiance aux ordinateurs. Ce n’est pas un phénomène nouveau. En ce qui concerne les systèmes automatisés, des pilotes automatiques d’avion aux correcteurs orthographiques, des études ont montré que les humains acceptent souvent les choix qu’ils font même lorsqu’ils sont manifestement erronés. Mais lorsque cela se produit avec des outils conçus pour nous aider à éviter ce même phénomène, nous avons un problème encore plus important.

En fin de compte, nous voulons que les IA s’expliquent non seulement auprès des spécialistes des données et des médecins, mais aussi des policiers qui utilisent la technologie de reconnaissance faciale, des enseignants qui utilisent des logiciels d’analyse dans leurs classes, des étudiants qui essaient de donner un sens à leurs flux de médias sociaux  et à toute personne assise à l’arrière d’une voiture autonome.

La suite ici (Will Douglas Heaven)

(Visited 21 times, 1 visits today)
Avatar photo

Fondateur paris-singularity.fr👁️‍🗨️Entrepreneur social trackant les deep techs

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

%d blogueurs aiment cette page :