Pour tester le système d’intelligence artificielle (IA) PJ-X (Pointing and Justification Explanation), des chercheurs ont rassemblé des jeux de données composés de paires de photographies montrant des scènes similaires, comme différents types de déjeuners. Ils ont ensuite posé une question dont la réponse était distincte en fonction de la photo : »Est-ce un repas sain ? ».
Après avoir été entraîné via suffisamment de données, PJ-X peut répondre à la fois à la question en utilisant du texte ( » Non, c’est un hot dog avec beaucoup de garniture ») et superposer une carte de chaleur sur la photo mettant en exergue les raisons de la réponse (le hot dog et ses nombreux toppings).
Pourquoi c’est important ? Parce que les systèmes d’IA « classiques » sont qualifiés de boîtes noires. Ils sont performant pour identifier et classer, mais au travers d’une logique algorithmique qui est opaque pour les humains. Pour beaucoup d’utilisations de l’IA (par exemple un système qui diagnostique la maladie) comprendre ce qui a conduit le système à prendre sa décision pourrait s’avérer crucial.