Un scientifique de Google Brain a conçu un outil pouvant aider les systèmes d’intelligence artificielle (IA) à expliquer leurs résultats, une tâche notoirement délicate pour les algorithmes d’apprentissage automatique. L’outil, appelé Testing with Concept Activation Vectors ou TCAV en abrégé, peut être branché à des algorithmes d’apprentissage machine pour identifier la pondération utilisée des différents facteurs ou types de données avant de produire des résultats, rapporte Quanta Magazine.
Des outils comme le TCAV sont très demandé, car l’IA fait l’objet d’un examen plus attentif en raison des préjugés raciaux et sexistes qui biaisent actuellement les différents systèmes d’IA et les données utilisées pour les entraîner. Grâce au TCAV, les personnes qui utilisent un algorithme de reconnaissance faciale seraient en mesure de déterminer dans quelle mesure l’algorithme tient compte de la race lorsqu’elles cherchent à vérifier la correspondre entre des personnes et une base de données de criminels connus ou pour évaluer leurs demandes d’emploi.